Apple bị kiện vì không triển khai được công cụ phát hiện nội dung xâm hại tình dục trẻ em trên iCloud

Apple đang phải đối mặt với một vụ kiện lớn vào năm 2024 về việc không triển khai các công cụ phát hiện tài liệu lạm dụng tình dục trẻ em trong dịch vụ iCloud của mình. Một đơn khiếu nại đã được đệ trình lên Tòa án quận Hoa Kỳ ở Bắc California rằng Apple đã vi phạm nghĩa vụ xóa tài liệu lạm dụng tình dục trẻ em. Trường hợp nổi bật cung cấp cái nhìn sâu sắc về vấn đề vẫn còn liên quan đến những người sống sót sau vụ lạm dụng tình dục trẻ em, đồng thời cung cấp hiểu biết về cách các công ty công nghệ giải quyết tội phạm.

Vụ kiện chống lại Apple

Vụ kiện được đưa ra bởi một phụ nữ 27 tuổi, người cho rằng những hình ảnh và/hoặc video về hành vi lạm dụng của cô đã được lưu giữ và chia sẻ bằng iCloud. Điều này tiếp tục khiến cô bị tổn thương vì cô nhận được thông báo từ cảnh sát về những người đã bị bắt vì những hình ảnh lạm dụng của cô. Phát biểu thông qua luật sư của mình tại Công ty Luật Marsh, nguyên đơn đang tìm kiếm công lý không chỉ cho bản thân mà còn cho hàng nghìn nạn nhân bị bóc lột tình dục trẻ em.

Vụ kiện cáo buộc Apple đã không thiết kế hoặc thực hiện các biện pháp nhằm phát hiện và loại bỏ nội dung xâm hại tình dục trẻ em khỏi nền tảng của mình. Trong vụ kiện, các nguyên đơn phàn nàn rằng quyết định của Apple rút lại công cụ phát hiện NeuralHash có liên quan vào năm 2022 là một thất bại. NeuralHash được thiết kế để xác định CSAM trong iCloudnhưng do xâm phạm quyền riêng tư của người dùng nên Apple đã bỏ công cụ này. Thất bại được cho là này đã khiến công ty phải đối mặt với nhiều nhóm hỗ trợ pháp lý và vận động đòi hỏi trách nhiệm giải trình của công ty hơn bao giờ hết.

Vụ kiện bao gồm những gì

Vụ kiện đại diện cho 2.680 nạn nhân lạm dụng tình dục trẻ em, mỗi nạn nhân có hình ảnh khiêu dâm đã được NCMEC công nhận từ ngày 5 tháng 8 năm 2021 đến khi nộp đơn khiếu nại vào năm 2024. Theo đó, theo luật liên bang, mỗi nạn nhân được hưởng ít nhất 150.000 USD, và số tiền này có thể lên tới hơn 1,2 tỷ đô la.

Các nguyên đơn cho rằng sản phẩm của Apple có khiếm khuyết là do công ty chưa nỗ lực xác định và ngăn chặn việc phát tán CSAM trong iCloud. Ví dụ: Google đã phát hiện 2.218 trường hợp CSAM được báo cáo cho NCMEC, trong khi Facebook xác định được hàng triệu trường hợp, nhưng Apple chỉ chuyển 267 trường hợp vào năm 2023. Sự khác biệt này đã làm dấy lên lo ngại về việc báo cáo thiếu và cam kết của Apple đối với sự an toàn của trẻ em.

Phản hồi của Apple

Apple đã phản đối động thái này bằng cách đưa ra cam kết chống lại việc bóc lột tình dục trẻ em. Đại diện của công ty cho biết Apple đang “mạnh mẽ tìm kiếm giải pháp cho những hành vi phạm tội này và thực hiện ngay lập tức mà không nhất thiết phải đặt tính mạng, quyền tự do và phúc lợi của tất cả khách hàng của chúng tôi vào tình thế nguy hiểm”. Fred Sainz, một quan chức khác của Apple, nhấn mạnh rằng Apple tập trung rất nhiều vào việc tạo ra các rào cản đối với CSAM.

Tuy nhiên, giới phê bình cho rằng hành động của Apple không đi đôi với lời nói. Quyết định từ bỏ công cụ phát hiện NeuralHash đã vấp phải phản ứng dữ dội từ các nhóm vận động và những người sống sót sau vụ lạm dụng tình dục trẻ em. Họ cáo buộc Apple đã không áp dụng các biện pháp hiệu quả trong việc xác định CSAM để loại bỏ nó, vì điều này đã dẫn đến việc quảng bá tài liệu lạm dụng trên nền tảng của hãng.

Tại sao các công cụ phát hiện CSAM lại quan trọng

Công cụ phát hiện CSAM nhằm mục đích phát hiện và báo cáo nội dung xâm hại tình dục trẻ em đã được xác định với sự trợ giúp của cơ sở dữ liệu về nội dung xâm hại tình dục trẻ em đã biết. Những công cụ này hỗ trợ các công ty trong lĩnh vực công nghệ xác định nội dung vi phạm và thiết lập các cơ chế cho phép họ loại bỏ nội dung đó khỏi lưu hành. Khi nói đến các công cụ phát hiện, nền tảng của Apple thiếu những công cụ đó, do đó, hình ảnh và video về lạm dụng trẻ em được lưu trữ và phổ biến.

Các nạn nhân lạm dụng tình dục trẻ em, giống như các nguyên đơn trong vụ án này, liên tục phải chịu đựng sự lạm dụng khi ảnh của họ xuất hiện trở lại trên iCloud và các nền tảng tương tự. Họ cảm thấy đau khổ bất cứ khi nào cơ quan thực thi pháp luật thông báo cho họ rằng những tài liệu này đã được phát hiện và điều đó cho thấy lý do tại sao nỗ lực xác định và ngăn chặn nội dung xâm hại tình dục trẻ em được cải thiện lại rất quan trọng.

So sánh với các công ty khác

Vụ kiện cũng nêu bật cách các công ty khác trong ngành công nghệ, đặc biệt là Google và Facebook, xử lý việc nhận dạng CSAM. NCMEC báo cáo rằng cả hai công ty đều sử dụng công nghệ tiên tiến để tìm kiếm và báo cáo hàng chục triệu tài liệu CSAM mỗi năm. Tuy nhiên, Apple, một gã khổng lồ công nghệ khác của Mỹ, tuyên bố có ít trường hợp gặp phải mối đe dọa này hơn, điều này khiến mọi người đặt câu hỏi liệu công ty ưu tiên quyền riêng tư của khách hàng có đang làm đủ để bảo vệ trẻ em hay không.

Tuy nhiên, đó là một ví dụ về khoảng cách giữa việc lập kế hoạch và triển khai khi Apple đã theo dõi NeuralHash để xác định CSAM trước khi nó lan truyền, nhưng giờ đây công ty đã quyết định ngừng sử dụng công cụ này. Một số người đã thắc mắc tại sao Apple lại không tích cực thực hiện các hành động chống lại những tội ác này.

Vai trò của Vận động và Hỗ trợ Pháp lý

Các tổ chức vận động và công ty luật, chẳng hạn như Công ty Luật Marsh, đang đấu tranh để đảm bảo rằng các tổ chức công nghệ đóng vai trò của họ trong việc ngăn chặn sự lây lan của nội dung xâm hại tình dục trẻ em. Vụ kiện chống lại Apple là một phần trong chiến dịch rộng lớn hơn nhằm kêu gọi các doanh nghiệp công nghệ hàng đầu lựa chọn sự an toàn của trẻ em thay vì lợi ích tài chính hoặc những lo ngại về quyền riêng tư.

Các nguyên đơn cho rằng sản phẩm của Apple bị lỗi là do họ không thực hiện các thiết kế đó hoặc không thực hiện bất kỳ biện pháp nào để phát hiện và hạn chế CSAM. Họ cũng cáo buộc rằng việc Apple báo cáo thiếu về nội dung xâm hại tình dục trẻ em đã biết đã góp phần làm gia tăng nội dung lạm dụng tình dục trẻ em trên nền tảng của hãng.

Cuộc tranh luận về quyền riêng tư của Apple và sự an toàn của trẻ em

Ở đây, việc Apple coi thường quyền riêng tư của người dùng, dù được đánh giá cao nhưng dường như đã đi đến mức gây tổn hại đến sự an toàn. Quyết định không quét iCloud để tìm CSAM và loại bỏ NeuralHash là những ví dụ hoàn hảo về những cách mà quyền riêng tư phải đối đầu với các biện pháp bảo vệ và xóa nội dung có hại.

Fred Sainz và các giám đốc điều hành khác của Apple đã nói rằng tài liệu lạm dụng tình dục là đáng trách và Apple phản đối những biểu hiện mà những kẻ săn mồi khiến trẻ em gặp nguy hiểm. Tuy nhiên, các nhà phê bình đã kêu gọi Apple làm nhiều hơn nữa để bảo vệ các nạn nhân của lạm dụng tình dục trẻ em và ngăn chặn việc lưu hành nội dung CSAM trên ứng dụng của mình.

Điều này có ý nghĩa gì đối với các công ty công nghệ

Vụ kiện này tạo ra một tiêu chuẩn pháp lý mới về cách kiện các công ty công nghệ không có khả năng ngăn chặn sự lây lan của CSAM. Điều này được thực hiện trong khi tìm cách bảo vệ quyền riêng tư của trẻ em và bảo vệ phúc lợi hoặc lợi ích của chúng; nó cũng nhấn mạnh tầm quan trọng của nhu cầu kêu gọi các công ty thực hiện các biện pháp xác định và loại bỏ tài liệu lạm dụng.

Trong suốt vụ kiện, nó có thể sẽ tác động đến cách các công ty khác giải quyết việc nhận dạng CSAM. Điều đó cũng có thể có nghĩa là những người ủng hộ các chính sách mạnh mẽ hơn để bảo vệ nạn nhân lạm dụng tình dục trẻ em đang tiến một bước gần hơn tới việc thực thi các chính sách đó và mở rộng các quy tắc cấm áp dụng việc lưu trữ tài liệu lạm dụng trên iCloud và các dịch vụ tương tự.

Nạn nhân đòi công lý

Tham gia vụ kiện, người phụ nữ 27 tuổi và những người khác do luật sư của Công ty Luật Marsh đại diện yêu cầu một cuộc điều tra về những thiệt hại mà Apple đã gây ra do không thực hiện các biện pháp hiệu quả chống lại nội dung xâm hại tình dục trẻ em. Một số người cho rằng sản phẩm của Apple được dùng để lưu trữ và chia sẻ những hình ảnh lăng mạ liên quan đến vụ án.

Đối với các nạn nhân, đây là nỗi kinh hoàng liên tục khi tài liệu lạm dụng tình dục trẻ em có sẵn trên iPhone thông qua iCloud. Những người sống sót cần sự hỗ trợ từ các nhóm vận động và trợ giúp pháp lý khi họ đang cố gắng đòi công lý và truy tố những công ty đã không ngăn chặn được nạn lạm dụng tình dục trẻ em.

Phần kết luận

Vụ kiện trị giá 1,2 tỷ USD của Apple nêu bật một vấn đề rất quan trọng vào năm 2024—liệu các công ty công nghệ có nên thực hiện các bước để phát hiện và xóa CSAM (Tài liệu lạm dụng tình dục trẻ em) khỏi nền tảng của họ hay không. Apple đã bị cáo buộc không triển khai các công cụ như NeuralHash, dẫn đến phản ứng dữ dội và nghi ngờ về các cam kết an toàn cho trẻ em.

Apple cho biết họ đang tích cực đổi mới để tạo ra các công cụ có thể ngăn chặn các tội phạm như lạm dụng tình dục trẻ em mà không ảnh hưởng đến quyền riêng tư của người dùng. Tuy nhiên, những người chỉ trích cho rằng hành động của anh không đi đôi với lời nói. Vụ án này tại Tòa án quận Bắc California là một trong những nỗ lực lớn nhất nhằm buộc các công ty công nghệ phải thực hiện nghiêm túc trách nhiệm của mình.

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *