Quốc hội có thể ngăn chặn các quy định của AI. Nó có ý nghĩa gì đối với bạn và sự riêng tư của bạn

Các quốc gia sẽ không thể thực thi các quy định của họ về công nghệ trí tuệ nhân tạo trong một thập kỷ theo kế hoạch được xem xét tại Hạ viện Hoa Kỳ. Luật pháp, trong một sửa đổi đã được Ủy ban Năng lượng và Thương mại Hạ viện chấp nhận trong tuần này, nói rằng không có phân khu chính trị hoặc nhà nước “có thể thực thi bất kỳ luật pháp hoặc quy định nào điều chỉnh các mô hình trí tuệ nhân tạo, hệ thống trí tuệ nhân tạo hoặc hệ thống quyết định tự động” trong 10 năm. Đề xuất vẫn sẽ cần sự chấp thuận của cả hai phòng của Quốc hội và Tổng thống Donald Trump trước khi nó có thể trở thành luật.

AI Atlas

Các nhà phát triển AI và một số nhà lập pháp đã nói rằng hành động của liên bang là cần thiết để giữ cho các quốc gia không tạo ra một sự chắp vá của các quy tắc và quy định khác nhau trên khắp Hoa Kỳ có thể làm chậm sự tăng trưởng của công nghệ. Sự tăng trưởng nhanh chóng trong AI thế hệ kể từ khi Chatgpt bùng nổ tại hiện trường vào cuối năm 2022 đã khiến các công ty phù hợp với công nghệ trong càng nhiều không gian càng tốt. Ý nghĩa kinh tế là rất quan trọng, vì chủng tộc Hoa Kỳ và Trung Quốc để xem công nghệ của quốc gia nào sẽ chiếm ưu thế, nhưng AI thế hệ đặt ra sự riêng tư, minh bạch và các rủi ro khác cho người tiêu dùng mà các nhà lập pháp đã tìm cách tiết chế.

“Chúng tôi cần, với tư cách là một ngành công nghiệp và là một quốc gia, một tiêu chuẩn liên bang rõ ràng, bất kể nó có thể là gì”, Alexandr Wang, người sáng lập và Giám đốc điều hành của Công ty dữ liệu quy mô AI, nói với các nhà lập pháp trong một phiên điều trần tháng Tư. “Nhưng chúng tôi cần một, chúng tôi cần sự rõ ràng về một tiêu chuẩn liên bang và có quyền ưu tiên để ngăn chặn kết quả này khi bạn có 50 tiêu chuẩn khác nhau.”

Những nỗ lực để hạn chế khả năng của các quốc gia để điều chỉnh trí tuệ nhân tạo có thể có nghĩa là ít bảo vệ người tiêu dùng hơn xung quanh một công nghệ đang ngày càng thấm vào mọi khía cạnh của cuộc sống Mỹ. “Đã có rất nhiều cuộc thảo luận ở cấp tiểu bang và tôi sẽ nghĩ rằng điều quan trọng đối với chúng tôi là tiếp cận vấn đề này ở nhiều cấp độ”, Anjana Susarla, giáo sư tại Đại học bang Michigan, người nghiên cứu AI. “Chúng tôi có thể tiếp cận nó ở cấp quốc gia. Chúng tôi cũng có thể tiếp cận nó ở cấp tiểu bang. Tôi nghĩ rằng chúng tôi cần cả hai.”

Một số tiểu bang đã bắt đầu điều chỉnh AI

Ngôn ngữ được đề xuất sẽ cấm các quốc gia thực thi bất kỳ quy định nào, bao gồm cả những người đã có trên sách. Các trường hợp ngoại lệ là các quy tắc và luật làm cho mọi thứ dễ dàng hơn cho sự phát triển của AI và những người áp dụng các tiêu chuẩn tương tự cho các mô hình và hệ thống không phải là những điều tương tự. Những loại quy định này đã bắt đầu bật lên. Trọng tâm lớn nhất không phải là ở Mỹ, mà ở châu Âu, nơi Liên minh châu Âu đã thực hiện các tiêu chuẩn cho AI. Nhưng các quốc gia đang bắt đầu tham gia vào hành động.

Colorado đã thông qua một loạt các biện pháp bảo vệ người tiêu dùng vào năm ngoái, sẽ có hiệu lực vào năm 2026. California đã thông qua hơn một chục luật liên quan đến AI vào năm ngoái. Các tiểu bang khác có luật và quy định thường giải quyết các vấn đề cụ thể như Deepfakes hoặc yêu cầu các nhà phát triển AI công bố thông tin về dữ liệu đào tạo của họ. Ở cấp địa phương, một số quy định cũng giải quyết phân biệt đối xử việc làm tiềm năng nếu các hệ thống AI được sử dụng để tuyển dụng.

“Các quốc gia đều ở trên bản đồ khi nói đến những gì họ muốn điều chỉnh trong AI”, Arsen Kourinian, đối tác tại công ty luật Mayer Brown nói. Cho đến nay vào năm 2025, các nhà lập pháp tiểu bang đã đưa ra ít nhất 550 đề xuất xung quanh AI, theo Hội nghị Lập pháp Nhà nước Quốc gia. Trong phiên điều trần của Ủy ban Hạ viện vào tháng trước, Đại diện Jay Obernolte, một đảng Cộng hòa từ California, đã báo hiệu một mong muốn vượt lên trước nhiều quy định cấp nhà nước. “Chúng tôi có một số lượng hạn chế của đường băng lập pháp để có thể giải quyết được vấn đề đó trước khi các quốc gia đi quá xa,” ông nói.

Trong khi một số tiểu bang có luật trên sách, không phải tất cả chúng đều có hiệu lực hoặc thấy bất kỳ thực thi nào. Điều đó hạn chế tác động ngắn hạn tiềm năng của một lệnh cấm, Cobun Zweifel-Keegan, giám đốc điều hành tại Washington cho Hiệp hội các chuyên gia quyền riêng tư quốc tế cho biết. “Thực sự không có bất kỳ thực thi nào.”

Một lệnh cấm có thể ngăn chặn các nhà lập pháp và các nhà hoạch định chính sách nhà nước phát triển và đề xuất các quy định mới, Zweifel-Keegan nói. “Chính phủ liên bang sẽ trở thành cơ quan quản lý chính và có khả năng duy nhất xung quanh các hệ thống AI,” ông nói.

Điều gì là một lệnh cấm đối với quy định AI của tiểu bang

Các nhà phát triển AI đã yêu cầu bất kỳ bảo vệ nào được đặt vào công việc của họ để được phù hợp và hợp lý. Trong phiên điều trần của Ủy ban Thương mại Thượng viện tuần trước, Giám đốc điều hành Openai Sam Altman nói với Thượng nghị sĩ Ted Cruz, một đảng Cộng hòa từ Texas, rằng một hệ thống điều tiết kiểu EU “sẽ là thảm họa” đối với ngành công nghiệp. Thay vào đó, Altman đề nghị rằng ngành công nghiệp phát triển các tiêu chuẩn của riêng mình.

Được hỏi bởi Thượng nghị sĩ Brian Schatz, một đảng Dân chủ từ Hawaii, nếu sự tự điều chỉnh của ngành là đủ vào lúc này, Altman nói rằng ông nghĩ rằng một số bảo vệ sẽ tốt nhưng, “thật dễ dàng để đi quá xa. Vì tôi đã học được nhiều hơn về cách thế giới hoạt động, tôi sợ rằng nó có thể đi quá xa và có hậu quả thực sự tồi tệ.” .

Mối quan tâm từ các công ty – cả các nhà phát triển tạo ra các hệ thống AI và “người triển khai” sử dụng chúng trong các tương tác với người tiêu dùng – thường xuất phát từ nỗi sợ rằng các quốc gia sẽ bắt buộc công việc đáng kể như đánh giá tác động hoặc thông báo minh bạch trước khi sản phẩm được công bố, Kourinian nói. Những người ủng hộ người tiêu dùng đã nói rằng cần nhiều quy định hơn và cản trở khả năng của các quốc gia có thể làm tổn thương sự riêng tư và an toàn của người dùng.

“AI đang được sử dụng rộng rãi để đưa ra quyết định về cuộc sống của mọi người mà không có sự minh bạch, trách nhiệm hoặc truy đòi – nó cũng tạo điều kiện cho gian lận, mạo danh và giám sát làm lạnh”, Ben Winters, giám đốc AI và quyền riêng tư tại Liên đoàn người tiêu dùng Mỹ, cho biết. “Một khoảng dừng 10 năm sẽ dẫn đến sự phân biệt đối xử nhiều hơn, lừa dối nhiều hơn và ít kiểm soát hơn-chỉ cần đặt ra, nó đứng về phía các công ty công nghệ đối với những người mà họ tác động.”

Một lệnh cấm đối với các quy tắc và luật pháp của nhà nước cụ thể có thể dẫn đến nhiều vấn đề bảo vệ người tiêu dùng được giải quyết tại tòa án hoặc bởi các luật sư nhà nước, Kourinian nói. Các luật hiện hành xung quanh các hoạt động không công bằng và lừa đảo không cụ thể cho AI vẫn sẽ được áp dụng. “Thời gian sẽ cho biết các thẩm phán sẽ giải thích những vấn đề đó như thế nào”, ông nói.

Susarla cho biết tính phổ biến của AI trong các ngành công nghiệp có nghĩa là các quốc gia có thể điều chỉnh các vấn đề như quyền riêng tư và minh bạch rộng hơn, mà không tập trung vào công nghệ. Nhưng một lệnh cấm đối với quy định của AI có thể dẫn đến các chính sách như vậy bị ràng buộc trong các vụ kiện. “Nó phải là một loại cân bằng giữa 'chúng tôi không muốn ngăn chặn sự đổi mới', nhưng mặt khác, chúng tôi cũng cần nhận ra rằng có thể có những hậu quả thực sự”, cô nói.

Nhiều chính sách xung quanh việc quản trị các hệ thống AI đã xảy ra do những quy tắc và luật pháp được gọi là công nghệ, Zweifel-Keegan nói. “Cũng đáng nhớ rằng có rất nhiều luật hiện hành và có khả năng đưa ra các luật mới không kích hoạt lệnh cấm nhưng áp dụng cho các hệ thống AI miễn là chúng áp dụng cho các hệ thống khác”, ông nói.


Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký để nhận các bài đăng mới nhất được gửi đến email của bạn.

Gửi phản hồi

Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký ngay để tiếp tục đọc và truy cập kho lưu trữ đầy đủ.

Tiếp tục đọc