Google đã thực hiện một trong những thay đổi thực chất nhất đối với các nguyên tắc AI của mình kể từ lần đầu tiên xuất bản chúng vào năm 2018. Trong một thay đổi được phát hiện bởi The Washington Postgã khổng lồ tìm kiếm đã chỉnh sửa tài liệu để loại bỏ các cam kết mà họ đã hứa rằng nó sẽ không “thiết kế hoặc triển khai” các công cụ AI để sử dụng trong vũ khí hoặc công nghệ giám sát. Trước đây, các hướng dẫn đó bao gồm một phần có tiêu đề “Các ứng dụng chúng tôi sẽ không theo đuổi”, không có trong phiên bản hiện tại của tài liệu.
Thay vào đó, bây giờ có một phần có tiêu đề “Phát triển và triển khai có trách nhiệm.” Ở đó, Google cho biết họ sẽ thực hiện “sự giám sát phù hợp của con người, sự siêng năng và các cơ chế phản hồi để phù hợp với các mục tiêu của người dùng, trách nhiệm xã hội và các nguyên tắc được chấp nhận rộng rãi của luật pháp quốc tế và nhân quyền.”
Đó là một cam kết rộng hơn nhiều so với những người cụ thể mà công ty đã thực hiện gần đây vào cuối tháng trước khi phiên bản trước của các nguyên tắc AI của nó vẫn còn tồn tại trên trang web của nó. Ví dụ, vì nó liên quan đến vũ khí, công ty trước đây cho biết họ sẽ không thiết kế AI để sử dụng trong “vũ khí hoặc các công nghệ khác mà mục đích chính hoặc thực hiện chính là gây ra hoặc tạo điều kiện trực tiếp cho thương tích cho mọi người. Đối với các công cụ giám sát AI, công ty cho biết họ sẽ không phát triển công nghệ vi phạm “các quy tắc được quốc tế chấp nhận”.
Khi được yêu cầu bình luận, một phát ngôn viên của Google đã chỉ cho Engadget vào một bài đăng trên blog mà công ty đã xuất bản vào thứ năm. Trong đó, Giám đốc điều hành DeepMind Demis Hassabis và James Manyika, phó chủ tịch nghiên cứu, phòng thí nghiệm, công nghệ và xã hội tại Google, nói rằng sự xuất hiện của AI là một “công nghệ đa năng” đòi hỏi phải thay đổi chính sách.
“Chúng tôi tin rằng các nền dân chủ nên dẫn đến sự phát triển của AI, được hướng dẫn bởi các giá trị cốt lõi như tự do, bình đẳng và tôn trọng quyền con người. Và chúng tôi tin rằng các công ty, chính phủ và các tổ chức chia sẻ các giá trị này nên làm việc cùng nhau để tạo ra AI bảo vệ mọi người, thúc đẩy toàn cầu Tăng trưởng và hỗ trợ an ninh quốc gia, “hai người viết. “Được hướng dẫn bởi các nguyên tắc AI của chúng tôi, chúng tôi sẽ tiếp tục tập trung vào nghiên cứu và ứng dụng AI phù hợp với sứ mệnh, trọng tâm khoa học của chúng tôi và các lĩnh vực chuyên môn của chúng tôi và duy trì sự phù hợp với các nguyên tắc được chấp nhận rộng rãi của luật pháp quốc tế và nhân quyền – luôn đánh giá Công việc cụ thể bằng cách đánh giá cẩn thận xem các lợi ích có vượt quá rủi ro tiềm ẩn hay không. “
Khi Google lần đầu tiên xuất bản các nguyên tắc AI vào năm 2018, nó đã làm như vậy sau đó của Project Maven. Đó là một hợp đồng của chính phủ gây tranh cãi, nếu Google quyết định gia hạn, sẽ thấy công ty cung cấp phần mềm AI cho Bộ Quốc phòng để phân tích các cảnh quay của máy bay không người lái. Hàng chục nhân viên của Google đã rời khỏi công ty để phản đối hợp đồng, với hàng ngàn người khác ký một bản kiến nghị đối lập. Khi Google cuối cùng đã xuất bản các hướng dẫn mới của mình, CEO Sundar Pichai được báo cáo nói với nhân viên rằng hy vọng rằng họ sẽ đứng “thử thách của thời gian”.
Tuy nhiên, đến năm 2021, Google đã bắt đầu theo đuổi các hợp đồng quân sự một lần nữa, với những gì được báo cáo là một giá thầu “tích cực” cho hợp đồng đám mây năng lực của Lầu năm góc của Lầu năm góc. Vào đầu năm nay, The Washington Post báo cáo rằng các nhân viên của Google đã nhiều lần làm việc với Bộ Quốc phòng của Israel để mở rộng việc sử dụng các công cụ AI của chính phủ.
Khám phá thêm từ Phụ Kiện Đỉnh
Đăng ký để nhận các bài đăng mới nhất được gửi đến email của bạn.