Một ủy ban chủ chốt các nhà lập pháp trong Nghị viện Châu Âu đã phê duyệt những quy định về Trí tuệ Nhân tạo, loại văn bản pháp quy đầu tiên về AI, khiến dự thảo này gần hơn một bước để trở thành Đạo luật AI.
Sự phê chuẩn này đánh dấu một phát triển mang tính bước ngoặt
trong cuộc chạy đua giữa các cơ quan chức năng kiểm soát AI và công nghệ, đang
phát triển với tốc độ chóng mặt. Dự thảo luật này, được gọi là Đạo luật AI của
Châu Âu sẽ là bộ luật đầu tiên dành cho các hệ thống AI phương Tây. Trung Quốc
đã phát triển dự thảo những quy định pháp lý, được thiết kế để quản lý các công
ty công nghệ, đang phát triển những sản phẩm AI sáng tạo như ChatGPT.
Nhà lập pháp Rumani Dragos Tudorache, đồng lãnh đạo dự thảo luật AI, thông qua một Ủy ban của Nghị viện Châu Âu ngày 11/5. Ảnh: Liên minh châu Âu
Bộ Luật đầu tiên về Trí tuệ Nhân tạo (AI) sử dụng phương thức
tiếp cận dựa trên những rủi ro để điều chỉnh AI, trong đó những nghĩa vụ trách
nhiệm đối với một hệ thống AI sẽ tương ứng với mức độ rủi ro mà ứng dụng có thể
gây ra.
Các quy định pháp lý cũng xác định những yêu cầu đối với các
nhà cung cấp những “mô hình nền tảng” như GPT-3 cho ChatGPT, trở thành mối quan
tâm đặc biệt của các cơ quan quản lý do những mô hình AI đang ngày càng tiên tiến
và nhân tính hơn, trở thành nguyên nhân của những lo ngại cho rằng, ngay cả những
nhân viên trình độ cao cũng sẽ bị thay thế.
Những quy định pháp lý đề cập đến các vấn đề nào?
Đạo luật AI phân loại những ứng dụng của AI thành bốn cấp độ
rủi ro: rủi ro không thể chấp nhận được, rủi ro cao, rủi ro hạn chế và rủi ro tối
thiểu hoặc không có rủi ro.
Những ứng dụng rủi ro không thể chấp nhận, mặc định bị cấm và
không thể triển khai ứng dụng trong khối EU
Những hệ thống tiềm ẩn rủi ro bao gồm:
Hệ thống AI sử dụng các kỹ thuật tác động vào tiềm thức hoặc
kỹ thuật làm thay đổi hành vi con người nhằm thao túng hoặc lừa đảo.
Hệ thống AI khai thác những điểm nhạy cảm của cá nhân hoặc một
nhóm người cụ thể;
Hệ thống phân loại sinh trắc học dựa trên những thuộc tính
hoặc đặc điểm nhạy cảm của con người;
Hệ thống AI được sử dụng để chấm điểm hoặc đánh giá độ tin cậy
của cộng đồng xã hội.
Những hệ thống AI được sử dụng để đánh giá các rủi ro tiềm
năng, dự đoán những hành vi phạm tội hoặc vi phạm hành chính;
Những hệ thống AI tạo lập hoặc mở rộng cơ sở dữ liệu nhận dạng
khuôn mặt thông qua truy xuất dữ liệu không nhắm mục tiêu.
Hệ thống AI suy luận cảm xúc, có thể sử dụng trong thực thi
pháp luật, kiểm soát biên giới như hải quan và biên phòng, vị trí làm việc và
môi trường giáo dục đào tạo.
Một số nhà lập pháp đã kêu gọi thực hiện những biện pháp kiểm
soát tốn kém chi phí hơn để đảm bảo những quy định này bao trùm toàn bộ các
chatbot AI như ChatGPT. Đặt ra mục đích này, các nhà lập pháp EU đưa ra những quy
định, được áp đặt cho những “mô hình nền tảng” như các mô hình ngôn ngữ lớn GPT
và AI sáng tạo.
Các nhà phát triển mô hình nền tảng dạng GPT sẽ được yêu cầu
áp dụng các biện pháp kiểm soát an toàn, quản trị dữ liệu và giảm thiểu rủi ro
trước khi công khai mô hình AI được phát triển.
Các cơ quan chức năng sẽ yêu cầu các nhà phát triển đảm bảo dữ
liệu đào tạo cho hệ thống AI không vi phạm luật bản quyền.
Ceyhun Pehlivan, cố vấn tại công ty luật đa quốc gia
Linklaters và đồng lãnh đạo nhóm thực hành viễn thông, truyền thông và công nghệ
và IP của doanh nghiệp ở Madrid, trả lời CNBC trong cuộc phỏng vấn.
“Các nhà cung cấp những mô hình AI sáng tạo sẽ được yêu cầu
thực hiện những biện pháp để đánh giá, kiểm soát và giảm thiểu rủi ro đối với những
quyền cơ bản về sức khỏe con người, an toàn xã hội, môi trường, dân chủ và pháp
quyền. Họ cũng phải tuân thủ các yêu cầu quản trị dữ liệu, chẳng hạn như kiểm
tra tính phù hợp của các nguồn dữ liệu và các sai lệch có thể xảy ra.”
Điều quan trọng cần nhấn mạnh là, mặc dù dự thảo luật đã được
các nhà lập pháp tại Nghị viện Châu Âu thông qua, nhưng vẫn còn rất lâu mới trở
thành Đạo luật.
Tại sao dự thảo các quy định pháp lý cho AI trở thành cấp
thiết?
Các công ty tư nhân được giao quyền phát triển công nghệ AI
với tốc độ chóng mặt, tạo ra các hệ thống trên mô hinh GPT của OpenAI được
Microsoft hỗ trợ và Bard của Google.
Ngày 10/5, Google công bố một loạt các bản cập nhật AI mới,
bao gồm một mô hình ngôn ngữ tiên tiến có tên PaLM 2, vượt trội hơn so với những
hệ thống khác trong một số tác vụ.
Những chatbot AI mới lạ tương tự như ChatGPT lôi cuốn mạnh mẽ
nhiều công ty công nghệ và và những nhà nghiên cứu do mô hình ngôn ngữ lớn có
khả năng tạo ra những phản hồi nhân tính hóa giống như con người đối với lời nhắc
của người dùng, được đào tạo trên cơ sở khối lượng dữ liệu khổng lồ trên
internet.
Nhưng công nghệ AI đã xuất hiện trong nhiều năm và được tích
hợp vào nhiều ứng dụng và hệ thống. Ví dụ: những thuật toán AI thúc đẩy sự lan
truyền của video hoặc ảnh thực phẩm mà người dùng thấy được trên nguồn cấp dữ
liệu TikTok hoặc Instagram.
Mục đích những đề xuất của các nhà lập pháp EU là cung cấp một
hành lang pháp lý cho các công ty và tổ chức công nghệ, đang phát triển và khai
thác sử dụng AI nhằm ngăn chặn những rủi ro trước khi phát sinh.
Phản ứng của ngành công nghệ
Những quy định dự thảo đang làm dấy lên mối lo ngại rất lớn
trong ngành công nghệ. Hiệp hội Công nghiệp Máy tính và Truyền thông (CCIA) cho
biết, các chuyên gia CNTT lo ngại rằng phạm vi của Đạo luật AI sẽ được mở rộng
quá mức và bao trùm cả những mô hình AI vô hại, cản trở sự phát triển của công
nghệ.
Boniface de Champris, giám đốc chính sách tại CCIA Châu Âu trong
cuộc phỏng vấn với CNBC qua email cho biết: “Thật đáng lo ngại khi nhận thấy, nhiều
nhóm ứng dụng AI hữu ích, có thể gây ra rủi ro rất hạn chế hoặc không có rủi ro
nào giờ đây sẽ phải đối mặt với những yêu cầu nghiêm ngặt, thậm chí có thể bị cấm
ở châu Âu.”
“Đề xuất ban đầu của Ủy ban Châu Âu về Đạo luật AI áp dụng phương
thức tiếp cận dựa trên rủi ro, điều chỉnh những hệ thống AI cụ thể gây ra rủi
ro rõ ràng. Nhưng các nhà lập pháp EU hiện đã đưa ra những sửa đổi, làm thay đổi
bản chất của Đạo luật AI, hiện đang giả định rằng các nhóm ứng dụng AI rộng lớn,
được coi là tiềm ẩn của rủi ro.”
Ý kiến của các chuyên gia công nghệ
Dessi Savova, lãnh đạo nhóm công nghệ tại công ty luật
Clifford Chance cho lục địa châu Âu cho rằng, những quy định pháp lý của EU sẽ
đặt ra một “tiêu chuẩn toàn cầu” cho các điều khoản kiểm soát AI. Đồng thời, các
khu vực địa địa lý khác như Trung Quốc, Mỹ và Anh cũng đang nhanh chóng phát
triển những quy định pháp lý riêng biệt.
Trả lời phỏng vấn của CNBC qua email, bà Savova nói: “Phạm
vi tiếp cận những quy định AI được EU đề xuất khiến các nhà phát triển và các
cơ quan quản lý AI trên thế giới buộc phải quan tâm.”
“Câu hỏi đặt ra là liệu Đạo luật AI có thiết lập tiêu chuẩn
duy nhất cho AI trên toàn cầu hay không? Trung Quốc, Mỹ và Vương quốc Anh và một
số nước đang xác định chính sách AI và những phương pháp điều chỉnh của riêng mình.
Không thể phủ nhận rằng tất cả các quốc gia sẽ theo dõi chặt chẽ những cuộc thảo
luận về Đạo luật AI và điều chỉnh cách tiếp cận của từng nước cụ thể.”
Savova nói thêm, dự thảo mới nhất của Luật AI, do các nhà lập
pháp EU trình bày, hình thành nhiều nguyên tắc đạo đức của AI mà các tổ chức đang
đang thúc đẩy áp đặt đối với các nhà phát triển.
Sarah Chander, cố vấn chính sách cấp cao của Tuyên bố về các
nguyên tắc và quyền kỹ thuật số “European Digital Rights”, một nhóm đấu tranh về
quyền kỹ thuật số có trụ sở tại Brussels cho biết, đạo luật AI sẽ yêu cầu những
mô hình nền tảng như GPT phải “được thanh kiểm tra qua những yêu cầu về thử
nghiệm, nguồn gốc tài liệu và tính minh bạch.”
Trả lời phỏng vấn qua email với CNBC, Chander nói: “Mặc dù các
yêu cầu về tính minh bạch này không loại trừ những thách thức về cơ sở hạ tầng
và kinh tế, liên quan đến quá trình phát triển các hệ thống AI quy mô lớn này,
nhưng những quy định này yêu cầu các công ty công nghệ công khai lượng điện
toán cần thiết để phát triển, một dữ liệu riêng tư của một đối tượng được điều
chỉnh của pháp luật châu Âu”.
Pehlivan từ công ty luật Linklaters lưu ý: “Hiện nay đã có một
số sáng kiến hướng tới việc điều chỉnh AI trên toàn cầu như ở Trung Quốc và Mỹ.
Nhưng Đạo luật AI của EU có thể sẽ đóng một vai trò quan trọng trong việc phát
triển những sáng kiến lập pháp trên toàn thế giới, EU có thể trở thành khu
vực thiết lập những tiêu chuẩn trên trường quốc tế, tương tự như Quy chế bảo vệ
Dữ liệu chung, áp đặt trên toàn thế giới đối với nguồn dữ liệu từ châu Âu.”