Chiều 27/11, tiếp tục chương trình Kỳ họp thứ 10, Quốc hội thảo luận tại hội trường về dự án Luật Trí tuệ nhân tạo.
Nội dung nào bắt buộc phải gắn nhãn?
Tham gia góp ý kiến về minh bạch, gắn nhãn và trách nhiệm đối với nội dung do AI tạo ra, ĐBQH Thạch Phước Bình (đoàn Vĩnh Long) chỉ ra, Deepfake, giả mạo tiếng nói, hình ảnh, video đã gây ra nhiều vụ việc ảnh hưởng nghiêm trọng đến an ninh thông tin và quyền riêng tư.

ĐBQH Thạch Phước Bình (Ảnh: Media Quốc hội).
Điều 9 của dự thảo luật quy định gắn nhãn đầu ra AI, nhưng theo đại biểu vẫn cần phải làm rõ một số điểm như: Những nội dung nào bắt buộc phải gắn nhãn? Mức độ gắn nhãn như thế nào để vừa bảo vệ người dùng, vừa không làm giảm trải nghiệm số?
Cùng với trách nhiệm của các nền tảng mạng xã hội trong phát hiện và gỡ bỏ nội dung giả mạo. Việc thiết kế cơ chế gắn nhãn chặt chẽ nhưng linh hoạt là yếu tố hết sức cần thiết.
Về đánh giá sự phù hợp, kiểm định và chứng nhận AI. Theo đại biểu, hệ thống đánh giá sự phù hợp là một trong những nội dung mang tính kỹ thuật cao nhất của luật. Tuy nhiên, nếu thiết kế cơ chế tiền kiểm quá nặng, có thể vô tình cản trở đổi mới sáng tạo.
Do đó, đại biểu đề nghị chỉ yêu cầu chứng nhận đối với hệ thống rủi ro cao; cho phép tự đánh giá đối với các hệ thống rủi ro thấp và trung bình; đảm bảo quy trình đánh giá phải rõ ràng, minh bạch, tránh phát sinh cơ chế "xin-cho".
Cùng nêu ý kiến về trách nhiệm minh bạch, ĐBQH Dương Khắc Mai (đoàn Lâm Đồng) cho rằng đây là một trong những quy định cần thiết đáp ứng đúng yêu cầu quản lý trong bối cảnh hiện nay, đặc biệt là bối cảnh công nghệ sử dụng trí tuệ nhân tạo để tạo lập, làm giả hình ảnh, giọng nói, video với mức độ chân thực cao, gây khó khăn cho việc nhận diện thật giả.

ĐBQH Dương Khắc Mai (Ảnh: Media Quốc hội).
Thực tiễn thông tin giả đang gây nhiều hệ lụy cho xã hội. Tuy nhiên, đại biểu đề nghị bổ sung quy định trách nhiệm gắn nhãn, không chỉ dừng lại ở bên kê khai việc triển khai mà cần mở rộng sang trách nhiệm của các nền tảng trung gian phân phối nội dung.
Đồng thời cần nghiên cứu bổ sung chế tài đủ mạnh đối với hành vi cố tình che giấu, bóc gỡ nhãn AI để lừa dối công chúng.
Nêu ý kiến về trách nhiệm minh bạch, ĐBQH Trịnh Thị Tú Anh (đoàn Lâm Đồng) cho biết, quy định tại Điều 9 thiết lập nguyên tắc "Minh bạch là mặc định".
Người dùng có quyền biết họ đang tương tác với máy và nội dung họ xem có phải là thật hay không. Theo đại biểu, đây là rào cản quan trọng nhất để chống lại nạn lừa đảo trực tuyến và tin giả bằng Deepfake.

ĐBQH Trịnh Thị Tú Anh (Ảnh: Media Quốc hội).
Tuy nhiên, đại biểu còn băn khoăn về tính khả thi kỹ thuật. Quy định hiện tại yêu cầu "đánh dấu dạng máy đọc" và "gắn nhãn" nhưng chưa định hình được tiêu chuẩn kỹ thuật chung.
"Nếu mỗi nền tảng áp dụng một công nghệ đánh dấu khác nhau, hệ thống nhận diện AI sẽ không thể hoạt động. Nguy hiểm hơn, các mô hình AI mã nguồn mở có thể dễ dàng bị can thiệp để gỡ bỏ các dấu hiệu này nếu chúng không tuân theo một tiêu chuẩn bảo mật đủ mạnh", đại biểu nêu.
Do đó, đại biểu đề nghị bổ sung vào khoản 6 nguyên tắc: "Tiêu chuẩn kỹ thuật phải hài hòa, tương thích với bộ tiêu chuẩn chung được thừa nhận quốc tế nhằm tạo tính kết nối, liên thông dữ liệu và hiệu quả quản lý" làm cơ sở để Chính phủ quy định chi tiết.
Cấm lạm dụng AI trong khu vực công
Tham gia phát biểu về vấn đề lạm dụng AI, ĐBQH Phạm Trọng Nghĩa (đoàn Lạng Sơn) cho rằng, cùng với cơ hội, phụ thuộc quá mức vào AI làm giảm năng lực tư duy và khả năng sáng tạo.
Việc lạm dụng AI tiềm ẩn nhiều bất ổn như: xâm phạm chủ quyền quốc gia, giảm hiệu lực của quản trị công và ảnh hưởng tiêu cực đến mỗi cá nhân, mỗi gia đình nhất là thế hệ trẻ.
"Đã có ý kiến khoa học lo ngại nếu không kiểm soát tốt thì sẽ dẫn đến nguy cơ "người sẽ biến thành máy trước khi máy biến thành người"", đại biểu nêu.

ĐBQH Phạm Trọng Nghĩa (Ảnh: Media Quốc hội).
Theo ông Nghĩa, đối với khu vực công, lạm dụng AI làm giảm tính khả thi, tính nhân văn và hiệu quả của chính sách, pháp luật. Việc cung cấp các thông tin, dữ liệu nhạy cảm vào AI, nếu không được kiểm soát chặt, có thể dẫn đến rò rỉ dữ liệu, gây tổn hại đến an ninh quốc gia và trật tự an toàn xã hội với hệ lụy khó lường.
"AI không trung lập. AI là công cụ của người tạo ra nó. Có những việc mà người dùng không biết nhưng người phát triển hay người sở hữu công nghệ lại biết.
Lạm dụng AI có thể làm cho chính sách công bị "bẻ lái" phục vụ mục đích của người phát triển, người sở hữu công nghệ mà hiện thường ở nước ngoài", ông Nghĩa nói.
Do đó, ông đề nghị bổ sung vào Dự thảo Luật một điều quy định hành vi bị nghiêm cấm, trong đó, có cấm lạm dụng AI trong khu vực công.
Đồng thời, đề nghị Chính phủ sớm ban hành quy định về trách nhiệm khi sử dụng AI trong công vụ và ban hành Khung đạo đức trí tuệ nhân tạo; xây dựng cơ chế vượt trội để phát triển AI Việt và xem xét bổ sung quy định cần thiết trong Dự thảo Luật Đầu tư (sửa đổi) đang trình Kỳ họp này.
Nội dung deepfake có tính chất giả, gây nhầm lẫn phải được gắn nhãn bắt buộc
Cuối phiên thảo luận, giải trình làm rõ ý kiến các ĐBQH nêu, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng cho biết, về quản lý AI dựa trên mức độ rủi ro, cơ quan soạn thảo đã nghiên cứu tiếp thu ý kiến của đại biểu theo hướng có ba mức độ rủi ro: thấp, trung bình và cao, và bổ sung một điều về các hành vi bị cấm.
Về gắn nhãn, Bộ trưởng cho biết nội dung do AI tạo ra và cung cấp cho công chúng thì chỉ cần thông báo. Nhưng nội dung deepfake có tính chất giả, gây nhầm lẫn như thật thì phải được gắn nhãn bắt buộc.