Sự phát triển nhanh chóng ngoài mong đợi của ChatGPT - một chatbot trí tuệ nhân tạo (AI) với những công năng ưu việt đã làm thay đổi phần nào đó cuộc sống của con người, nhất là về cách thức làm việc. Tuy nhiên, những rủi ro đi kèm từ công nghệ này đã làm dấy lên nhiều quan ngại đối với các nhà chức trách ở nhiều nước, đặc biệt là những lo lắng về dữ liệu của người dùng.
Trong bối cảnh thế giới vẫn thiếu một khung pháp lý mới vững chắc để quản lý hiệu quả AI và đảm bảo độ tin cậy cao cho người dùng, nhiều nước đã bắt đầu tiến hành các biện pháp để điều chỉnh việc sử dụng ChatGPT và AI nói chung nhằm giảm thiểu rủi ro mà công nghệ này mang lại.
Nhiều nước "ra tay" với AI
Đi đầu trong việc ban hành lệnh quyết định cấm ChatGPT là Italia.
Ngày 31/3, các nhà chức trách Italia đã ban hành lệnh cấm tạm thời ứng dụng ChatGPT do những lo ngại về quyền riêng tư và ứng dụng không xác minh được người dùng từ 13 tuổi trở lên theo yêu cầu từ phía Italia. Đồng thời, Italia cũng cho biết, họ sẽ mở một cuộc điều tra về cách OpenAI sử dụng dữ liệu người dùng.
Cơ quan bảo vệ dữ liệu của Italia ra thời hạn cuối tháng 4 để OpenAI - công ty tạo ra ChatGPT - đáp ứng các yêu cầu về bảo vệ dữ liệu và quyền riêng tư trước khi nối lại hoạt động bình thường tại nước này.
Ngay sau quyết định trên của Italia, nhiều nước đã bắt đầu "nối gót” nước này trong việc ngăn chặn ChatGPT vì lo ngại liên quan vấn đề an ninh và bảo mật dữ liệu.
Các cơ quan quản lý về bảo mật và quyền riêng tư của Pháp và Ireland đã liên hệ với các đối tác ở Ý để tìm hiểu về cơ sở của lệnh cấm. Hôm 11/4, Cơ quan giám sát quyền riêng tư CNIL của Pháp cho biết, họ đang điều tra một số khiếu nại về ChatGPT.
Ủy viên bảo vệ dữ liệu của Đức cho biết, Berlin có khả năng “theo bước chân” Italia trong việc chặn ChatGPT.
Đáng chú ý, Cơ quan Bảo vệ Dữ liệu châu Âu (EDPB) hôm 13/4 đã thành lập một lực lượng đặc nhiệm về ChatGPT, tuyên bố rằng: “Các nước thành viên EDPB đã thảo luận hành động thực thi pháp luật gần đây của cơ quan bảo vệ dữ liệu Italia đối với công ty OpenAI về dịch vụ ChatGPT. EDPB quyết định khởi động một lực lượng đặc nhiệm để thúc đẩy hợp tác và trao đổi thông tin về các hành động thực thi pháp luật có thể được áp dụng".
Bên cạnh đó, các nhà lập pháp Liên minh châu ÂU (EU) cũng đang thảo luận Đạo luật AI của EU nhằm điều chỉnh bất kỳ ai cung cấp sản phẩm hoặc dịch vụ sử dụng AI, bao gồm các hệ thống tạo ra các nội dung, dự đoán, đề xuất hoặc quyết định ảnh hưởng đến môi trường. EU cũng đề xuất phân loại các công cụ AI khác nhau theo mức độ rủi ro, từ thấp đến không thể chấp nhận được.
Cơ quan bảo vệ dữ liệu của Tây Ban Nha AEPD thông báo họ đang tiến hành một cuộc điều tra sơ bộ về các vi phạm dữ liệu của ChatGPT.
Tại Úc, Bộ Khoa học và Công nghệ hôm 12/4 thông báo, chính quyền nước này đã yêu cầu cơ quan cố vấn khoa học tư vấn về cách ứng phó với AI và đang xem xét các bước tiếp theo.
Động thái này dấy lên câu hỏi về mức độ an toàn của AI và những gì chính phủ có thể làm để giảm thiểu những rủi ro đi kèm. Một báo cáo hồi tháng 3 do công ty tư vấn KPMG và Hiệp hội Công nghiệp Thông tin Úc thực hiện cho biết, 2/3 người Úc nói rằng hiện nước này chưa có đủ luật hoặc quy định ngăn chặn AI bị lạm dụng, trong khi chưa tới một nửa trong số những người khảo sát tin rằng AI được sử dụng an toàn tại nơi làm việc.
Ở Anh, Chính phủ nước này cho biết, họ có ý định phân công trách nhiệm quản lý AI giữa các cơ quan nhân quyền, sức khỏe và an toàn, và cạnh tranh, thay vì tạo ra một cơ quan quản lý mới.
Mới đây, lãnh đạo phe đa số Dân chủ tại Thượng viện Mỹ Chuck Schumer ông đã soạn thảo và ban hành một khuôn khổ quản lý mới về AI có thể ngăn chặn thiệt hại thảm khốc có thể xảy ra đối với đất nước. Đề xuất của ông Schumer yêu cầu các công ty cho phép các chuyên gia độc lập xem xét và thử nghiệm công nghệ AI trước khi phát hành hoặc cập nhật.
Trước đó vào ngày 11/4, Bộ Thương mại Mỹ cho biết, cơ quan này đang lấy ý kiến của công chúng về các biện pháp trách nhiệm giải trình đối với AI.
Trong khi đó, Trung tâm Trí tuệ Nhân tạo và Chính sách Kỹ thuật số ở Mỹ đã yêu cầu Ủy ban Thương mại ngăn OpenAI phát hành các bản phát hành thương mại mới của GPT-4 vì cho rằng công nghệ này “thiên vị, lừa đảo và có rủi ro đối với quyền riêng tư và an toàn công cộng".
Còn ở Nhật, Bộ trưởng chuyển đổi kỹ thuật số Taro Kono cho biết, ông muốn cuộc họp của các bộ trưởng kỹ thuật số G7(nhóm các nền công nghiệp phát triển nhất thế giới) sắp tới, dự kiến diễn ra cuối tháng 4, thảo luận về các công nghệ AI bao gồm ChatGPT và đưa ra thông điệp thống nhất của G7.
Trung Quốc vừa rồi đã công bố các biện pháp dự kiến nhằm quản lý các dịch vụ AI, trong đó cho biết các công ty gửi công nghệ AI phải gửi các đánh giá bảo mật cho chính quyền trước khi tung dịch vụ ra thị trường.
Chuyên gia cảnh báo mối nguy từ AI
Một cuộc khảo sát do Viện Nghiên cứu Trí tuệ nhân tạo thuộc Đại học Stanford công bố vào đầu tháng 4 cho thấy, 36% các nhà nghiên cứu tin rằng AI có thể dẫn tới một “thảm họa cấp độ hạt nhân”, nhấn mạnh thêm nữa những quan ngại đang tồn tại đối với sự phát triển nhanh chóng của công nghệ này.
Trong khi đó 73% AI sẽ dẫn tới "sự thay đổi xã hội mang tính cách mạng".
Báo cáo nói rằng mặc dù tính năng của những công nghệ này có những vượt trội nhất định mà chúng ta không thể tưởng tượng nỗi cách đây một thập niên, song chúng chỉ mang đến sự ảo giác, thiên vị và dễ bị lợi dụng cho các mục đích bất chính. Điều này tạo ra những thách thức về mặt đạo đức khi người dùng sử dụng các dịch vụ đó.
Báo cáo cũng lưu ý rằng số lượng “sự cố và tranh cãi” liên quan đến AI đã tăng 26 lần trong một thập niên qua.
Tháng trước, tỷ phú Elon Musk và người đồng sáng lập Apple Steve Wozniak nằm trong số hàng nghìn các chuyên gia công nghệ ký vào một bức thư kêu gọi tạm dừng việc đào tạo các hệ thống AI mạnh mẽ hơn chatbot GPT-4 của Open AI vì “chỉ nên phát triển các hệ thống AI mạnh mẽ một khi chúng ta tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được”.
Vĩnh Khang (Reuters, AL Jazeera, ABC)