Nếu bạn định liên hệ với cảnh sát và chỉ trích ai đó vì đã bày tỏ sự quan tâm của họ đối với tài liệu lạm dụng tình dục trẻ em (CSAM) với bạn, thì có lẽ việc lưu trữ tài liệu tương tự trên thiết bị của riêng bạn không phải là ý tưởng hay nhất. Hoặc đồng ý thêm cho việc khám xét để cơ quan thực thi pháp luật có thể thu thập thêm thông tin. Nhưng đó được cho là điều mà một người đàn ông Alaska đã làm. Nó khiến anh ta bị cảnh sát giam giữ.
404 Media đã đưa tin vào đầu tuần này về người đàn ông Anthaney O'Connor, người cuối cùng đã bị bắt sau khi cảnh sát khám xét các thiết bị của anh ta được cho là đã tiết lộ tài liệu lạm dụng tình dục trẻ em do AI tạo ra (CSAM).
Từ 404:
Theo hồ sơ mới nộp tài liệu tính phíAnthaney O'Connor, đã liên hệ với cơ quan thực thi pháp luật vào tháng 8 để cảnh báo họ về một phi công không xác định danh tính đã chia sẻ tài liệu lạm dụng tình dục trẻ em (CSAM) với O'Connor. Trong khi điều tra tội phạm và với sự đồng ý của O'Connor, chính quyền liên bang đã lục soát điện thoại của anh ta để tìm thêm thông tin. Theo đơn kiện hình sự, việc xem xét các thiết bị điện tử cho thấy O'Connor bị cáo buộc đã đề nghị tạo CSAM thực tế ảo cho phi công.
Theo cảnh sát, phi công không rõ danh tính đã chia sẻ với O'Connor một bức ảnh anh ta chụp một đứa trẻ trong một cửa hàng tạp hóa và cả hai đã thảo luận về cách họ có thể đưa trẻ vị thành niên vào một thế giới thực tế ảo rõ ràng.
Cơ quan thực thi pháp luật tuyên bố đã tìm thấy ít nhất sáu hình ảnh CSAM rõ ràng do AI tạo ra trên thiết bị của O'Connor. Theo ông, những hình ảnh này đã được cố ý tải xuống, cùng với một số hình ảnh “thật” đã vô tình được trộn vào. Thông qua tìm kiếm của O' Tại nhà Connor, cơ quan thực thi pháp luật phát hiện một máy tính cùng nhiều ổ cứng được giấu trong lỗ thông hơi của ngôi nhà; Quá trình xem xét máy tính được cho là đã tiết lộ một đoạn video dài 41 giây về cảnh hiếp dâm trẻ em.
Trong một cuộc phỏng vấn với cơ quan chức năng, O'Connor cho biết anh thường xuyên báo cáo nội dung xâm hại tình dục trẻ em cho các nhà cung cấp dịch vụ internet “nhưng vẫn cảm thấy thỏa mãn tình dục từ những hình ảnh và video”. Không rõ lý do tại sao anh ta quyết định báo cáo viên phi công cho cơ quan thực thi pháp luật. Có thể anh ta có lương tâm cắn rứt hoặc có thể anh ta thực sự tin rằng AI CSAM của mình không vi phạm pháp luật.
Trình tạo hình ảnh AI thường được đào tạo bằng ảnh thật; nghĩa là hình ảnh trẻ em do AI “tạo ra” về cơ bản dựa trên hình ảnh thật. Không có cách nào để tách hai. Theo nghĩa đó, CSAM dựa trên AI không phải là tội phạm không có nạn nhân.
Vụ bắt giữ một người đầu tiên vì sở hữu CSAM do AI tạo ra chỉ xảy ra vào tháng 5 khi FBI bắt giữ một người đàn ông vì sử dụng Stable Diffusion để tạo ra “hàng nghìn hình ảnh thực tế về trẻ vị thành niên chưa dậy thì”.
Những người ủng hộ AI sẽ nói rằng luôn có thể tạo ra những hình ảnh rõ ràng về trẻ vị thành niên bằng Photoshop, nhưng các công cụ AI giúp mọi người làm điều đó dễ dàng hơn theo cấp số nhân. Một báo cáo gần đây cho thấy cứ sáu nữ nghị sĩ thì có một người là mục tiêu của nội dung khiêu dâm sâu do AI tạo ra. Nhiều sản phẩm có lan can để ngăn chặn những mục đích sử dụng xấu nhất, tương tự như việc máy in không cho phép sao chụp tiền. Việc thực hiện các rào cản ít nhất cũng ngăn chặn được một số hành vi này.