Mỹ sẽ lấy ý kiến người lao động về phương thức sử dụng trí tuệ nhân tạo (AI)

09:52 - 26/05/2023

Ngày 24/5, chính quyền Mỹ cho biết sẽ lấy ý kiến người lao động về phương thức sử dụng trí tuệ nhân tạo (AI), qua đó theo dõi và điều chỉnh phù hợp để đối phó với những rủi ro tiềm tàng trong tương lai. Thông báo này được đưa ra không lâu sau khi Nhà Trắng bày tỏ mong muốn có các biện pháp mạnh mẽ hơn để kiểm tra mức độ an toàn của các công cụ trí tuệ nhân tạo (như ChatGPT) trước khi chúng được phát hành công khai.

Ảnh minh họa

Ảnh minh họa

Theo kế hoạch, Nhà Trắng sẽ tổ chức một sự kiện có sự tham gia của đại diện người lao động trong nhóm ngành, các chuyên gia, các nhà nghiên cứu và hoạch định chính sách... để lắng nghe những chia sẻ của họ về các trải nghiệm sử dụng các công nghệ tự động, qua đó phục vụ công tác để giám sát, theo dõi và đánh giá.

Ngoài ra, các cơ quan chức năng cũng sẽ công bố các bước đánh giá công nghệ mới, bao gồm một lộ trình cập nhật các khoản đầu tư liên bang vào lĩnh vực nghiên cứu AI, một bản khảo sát về rủi ro do AI gây ra cũng như một báo cáo mới của Bộ Giáo dục Mỹ về ảnh hưởng của AI trong lĩnh vực học tập, nghiên cứu và giảng dạy.

Hồi đầu tháng 5 này, tổng thống Biden và phó tổng thống Kamala Haris đã có cuộc họp với lãnh đạo các tập đoàn phát triển AI hàng đầu thế giới, trong đó có Microsoft và Google của Alphabet. Giới chức Mỹ yêu cầu các tập đoàn trên cải thiện tính minh bạch của các hệ thống AI, cũng như nhấn mạnh tầm quan trọng của việc đánh giá độ an toàn của các sản phẩm liên quan đến AI.

Hàng triệu người dùng tại Mỹ đã và đang trải nghiệm các công cụ và ứng dụng AI trong chẩn đoán y khoa, viết kịch bản, tóm tắt các báo cáo pháp lý và sửa lỗi phần mềm. Điều này dấy lên lo ngại về khả năng các công nghệ thông minh nói trên có thể vi phạm quyền riêng tư, ảnh hưởng tới quyết định trong công việc, tạo ra các chiến dịch tuyên truyền thông tin sai lệch, cũng như làm gia tăng những mối đe dọa đối với an ninh và an toàn, xâm phạm đời tư và quyền công dân.

Nguồn: Bản tin TSQT sáng 26/5