Theo Vietnamplus, các công ty công nghệ lớn trong lĩnh vực trí tuệ nhân tạo (AI) vừa đưa ra những cam kết tự nguyện với Chính phủ Mỹ về việc triển khai các biện pháp như gắn dấu hiệu nhận biết những nội dung do AI tạo ra để đảm bảo công nghệ này được sử dụng an toàn hơn.
Trong các công ty này có OpenAI (chủ quản ChatGPT), Alphabet (chủ quản của Google) và Meta Platforms (chủ quản của Facebook).
Thông báo mới từ Nhà Trắng nêu rõ các công ty đã cam kết kiểm tra kỹ lưỡng các hệ thống trước khi tung ra thị trường và chia sẻ thông tin về các biện pháp giảm nguy cơ cũng như tiếp tục đầu tư cho an ninh mạng.
Động thái trên được xem như chiến thắng dành cho những nỗ lực của Chính phủ Mỹ nhằm quản lý công nghệ AI rất thu hút các nhà đầu tư và ngày càng phổ biến với người dùng.
Kể từ khi công nghệ AI tạo sinh, sử dụng các dữ liệu đầu vào để tạo ra những nội dung mới như ChatGPT, trở nên phổ biến nhanh chóng trong năm nay, các nhà lập pháp trên toàn thế giới cũng bắt đầu xem xét những cách thức giảm thiểu nguy cơ từ công nghệ mới nổi này đối với an ninh quốc gia và nền kinh tế.
Hồi tháng 6, Thượng nghị sỹ Mỹ Chuck Schumer kêu gọi đưa ra bộ luật toàn diện để cải thiện và đảm bảo an toàn trong sử dụng AI.
Quốc hội Mỹ đang xem xét dự luật yêu cầu những quảng cáo liên quan chính trị phải minh bạch thông tin nếu nội dung hoặc hình ảnh do AI tạo ra.
Tổng thống Joe Biden, có buổi làm việc với các công ty tại Nhà Trắng ngày 21/7, cũng đang xem xét một sắc lệnh và một dự luật lưỡng đảng về công nghệ AI.
Một trong những thành quả của nỗ lực này, 7 công ty công nghệ (gồm 3 công ty nêu trên và Anthropic, Inflection, Amazon.com cùng Microsoft) đã cam kết phát triển một hệ thống gắn dấu nhận biết tất cả những nội dung từ văn bản, hình ảnh, âm thanh tới video do AI tạo ra để người dùng được minh bạch thông tin.
Dấu hiệu nhận biết này sẽ giúp người dùng biết rằng những hình ảnh hoặc âm thanh do công nghệ tạo ra, ví dụ như những cảnh bạo lực không có thực.
Hiện chưa rõ các công ty sẽ gắn dấu hiệu nhận biết theo hình thức nào.
Thông tin từ Lao Động, theo Bloomberg, các công ty công nghệ sẽ đồng ý với tám biện pháp được đề xuất liên quan đến an toàn, bảo mật và trách nhiệm xã hội.
Chúng bao gồm: Để các chuyên gia độc lập kiểm tra các mô hình về hành vi xấu, đầu tư vào an ninh mạng, khuyến khích các bên thứ ba khám phá các lỗ hổng bảo mật, đánh dấu rủi ro xã hội bao gồm thành kiến và sử dụng sai mục đích, tập trung nghiên cứu rủi ro xã hội của AI, chia sẻ thông tin tin cậy và an toàn với các công ty khác và chính phủ, tạo water mark cho nội dung âm thanh và hình ảnh để giúp nhận diện nội dung do AI tạo ra và sử dụng các hệ thống AI tiên tiến nhất được gọi là mô hình tiên phong để giải quyết các vấn đề lớn nhất của xã hội.
Thực tế, đây là một thỏa thuận tự nguyện nhấn mạnh khó khăn mà các nhà lập pháp Mỹ gặp phải trong việc theo kịp tốc độ phát triển của AI. Một số dự luật đã được đưa ra trước Quốc hội với hy vọng điều chỉnh công nghệ AI.
Đào Vũ (T/h)