Đạo luật AI của EU giải thích: Những điều nhà phát triển AI cần biết


Nghị viện Châu Âu đã phê chuẩn Đạo luật AI của Liên minh Châu Âu (EU) vào tháng 3 năm 2024 và mục tiêu của nó là cung cấp cho các nhà phát triển và triển khai trí tuệ nhân tạo (AI) những gì mà các nhà hoạch định chính sách EU mô tả là “các yêu cầu và nghĩa vụ rõ ràng liên quan đến việc sử dụng AI cụ thể”.

Họ cũng hy vọng quy định sẽ giảm bớt gánh nặng hành chính và tài chính cho doanh nghiệp, đặc biệt là các doanh nghiệp vừa và nhỏ (SME).

Đạo luật này nhằm mục đích cung cấp một khung pháp lý để vận hành các hệ thống AI, tập trung vào sự an toàn, quyền riêng tư và ngăn chặn sự thiệt thòi của mọi người. Có một số trường hợp sử dụng triển khai AI bị loại trừ khỏi Đạo luật. Tuy nhiên, một số nhà phê bình tin rằng có quá nhiều lỗ hổng, đặc biệt là về an ninh quốc gia, có thể hạn chế hiệu quả của nó.

Lý do EU và các khu vực pháp lý khác đang xem xét cách giải quyết các mối lo ngại về an toàn AI là vì các hệ thống như vậy có thể được đào tạo về dữ liệu có thể thay đổi theo thời gian.

Nhóm AI của Tổ chức Hợp tác và Phát triển Kinh tế (OECD) cảnh báo rằng các hệ thống dựa trên AI bị ảnh hưởng bởi động lực xã hội và hành vi của con người.

Rủi ro và lợi ích của AI – có thể xuất hiện từ sự tương tác giữa các khía cạnh kỹ thuật kết hợp với các yếu tố xã hội liên quan đến cách sử dụng hệ thống, sự tương tác của nó với các hệ thống AI khác, người vận hành nó và bối cảnh xã hội nơi nó được triển khai.

Nói rộng ra, luật AI tập trung vào việc sử dụng có trách nhiệm các hệ thống AI, bao gồm cách chúng được đào tạo, sai lệch dữ liệu và khả năng giải thích, trong đó các lỗi có thể có tác động bất lợi đến một cá nhân.

Cơ quan quan sát chính sách OECD.ai Khung quản lý rủi ro trí tuệ nhân tạo lưu ý rằng những thay đổi xảy ra trong dữ liệu đào tạo AI đôi khi có thể ảnh hưởng bất ngờ đến chức năng và độ tin cậy của hệ thống theo những cách khó hiểu. Cơ quan quan sát chính sách OECD.ai cảnh báo rằng các hệ thống AI và bối cảnh triển khai chúng thường phức tạp, gây khó khăn cho việc phát hiện và ứng phó với các lỗi khi chúng xảy ra.

Đạo luật AI của EU áp dụng cách tiếp cận dựa trên rủi ro đối với an toàn AI, với bốn cấp độ rủi ro đối với hệ thống AI, cũng như xác định các rủi ro cụ thể cho mô hình có mục đích chung.

Đây là một phần trong gói biện pháp chính sách rộng hơn nhằm hỗ trợ phát triển AI đáng tin cậy, bao gồm Gói Đổi mới AI và Kế hoạch phối hợp về AI. EU cho biết các biện pháp này sẽ đảm bảo sự an toàn và các quyền cơ bản của người dân và doanh nghiệp khi nói đến AI, đồng thời sẽ tăng cường sự tiếp thu, đầu tư và đổi mới về AI trên toàn EU.

Những điểm chính rút ra từ Đạo luật AI của EU

Đạo luật cung cấp một bộ rào chắn cho AI có mục đích chung. Các nhà phát triển của những hệ thống như vậy cần soạn thảo tài liệu kỹ thuật để đảm bảo AI tuân thủ luật bản quyền của EU và chia sẻ các bản tóm tắt chi tiết về nội dung được sử dụng để đào tạo. Nó đặt ra các quy tắc khác nhau cho các mức độ rủi ro khác nhau.

Trong danh mục “rủi ro không thể chấp nhận được”, Đạo luật đã cố gắng hạn chế việc cơ quan thực thi pháp luật sử dụng hệ thống nhận dạng sinh trắc học. Các hệ thống phân loại sinh trắc học sử dụng các đặc điểm nhạy cảm (ví dụ: niềm tin chính trị, tôn giáo và triết học, khuynh hướng tình dục và chủng tộc) đều bị cấm.

AI có rủi ro cao được Đạo luật điều chỉnh bao gồm các hệ thống AI được sử dụng trong các sản phẩm tuân theo luật an toàn sản phẩm của EU. Điều này bao gồm đồ chơi, hàng không, ô tô, thiết bị y tế và thang máy. Nó cũng bao gồm AI được sử dụng trong một số vai trò hỗ trợ quyết định như thực thi pháp luật, tị nạn, di cư và kiểm soát biên giới, giáo dục, việc làm và quản lý cơ sở hạ tầng quan trọng của quốc gia.

Các sản phẩm thuộc danh mục rủi ro cao cần được đánh giá trước khi đưa ra thị trường cũng như trong suốt vòng đời của chúng. Đạo luật trao cho mọi người quyền gửi khiếu nại về hệ thống AI tới các cơ quan quốc gia được chỉ định. AI sáng tạo (GenAI), chẳng hạn như ChatGPT, không được phân loại là có rủi ro cao. Thay vào đó, Đạo luật quy định rằng các hệ thống như vậy cần phải tuân thủ các yêu cầu về tính minh bạch và luật bản quyền của EU.

Ai bị ảnh hưởng bởi Đạo luật AI của EU?

Stephen Catanzano, nhà phân tích cấp cao tại Enterprise Strategy Group, lưu ý rằng Đạo luật AI áp dụng cho các nhà cung cấp hệ thống AI. Ông nói, điều này có nghĩa là nó bao gồm các công ty phát triển và tiếp thị hệ thống AI hoặc cung cấp các hệ thống đó dưới tên hoặc nhãn hiệu riêng của họ, dù là trả phí hay miễn phí.

Ngoài ra, Catanzano chỉ ra rằng Đạo luật AI bao gồm các nhà nhập khẩu và phân phối hệ thống AI ở EU, đồng thời mở rộng đến “các nhà triển khai”, được định nghĩa là các thể nhân hoặc pháp nhân sử dụng AI theo thẩm quyền của họ trong các hoạt động nghề nghiệp của họ.

Nhà phân tích chính Enza Iannopollo nói rằng mặc dù thiếu thông tin chi tiết về các tiêu chuẩn và giao thức kỹ thuật, nhưng ít nhất, bà kêu gọi các tổ chức chuẩn bị đo lường và báo cáo về hiệu suất của hệ thống AI của họ. Theo Iannopollo, đây được cho là một trong những thách thức chính của các yêu cầu mới.

Bà viết trong một bài đăng trên blog về Đạo luật: “Các công ty phải bắt đầu bằng việc đo lường hiệu suất của hệ thống AI và GenAI của họ dựa trên các nguyên tắc quan trọng của AI có trách nhiệm, chẳng hạn như thành kiến, phân biệt đối xử và không công bằng”.

Khi các tiêu chuẩn và thông số kỹ thuật mới xuất hiện, cách diễn đạt trong một phần của Đạo luật dự kiến ​​sẽ được mở rộng.

EU khác với các khu vực khác trong quy định về AI như thế nào?

Dù tổ chức hoạt động ở khu vực nào, nếu muốn triển khai AI ở nơi khác, tổ chức đó cần phải hiểu khung pháp lý ở cả quốc gia sở tại và các khu vực khác nơi hệ thống sẽ được sử dụng. Tại thời điểm viết bài, EU đã thực hiện cách tiếp cận dựa trên rủi ro.

Tuy nhiên, các quốc gia khác đã thực hiện các cách tiếp cận khác nhau đối với các quy định về AI. Mặc dù các khu vực pháp lý khác nhau có cách tiếp cận quy định khác nhau, phù hợp với các chuẩn mực văn hóa và bối cảnh pháp lý khác nhau, EY chỉ ra rằng chúng có sự thống nhất rộng rãi trong việc nhận ra nhu cầu giảm thiểu tác hại tiềm ẩn của AI đồng thời cho phép sử dụng nó vì lợi ích kinh tế và xã hội của công dân cũng như được xác định bởi OECD và được G20 xác nhận. Chúng bao gồm tôn trọng nhân quyền, tính bền vững, tính minh bạch và quản lý rủi ro mạnh mẽ.

Đề cương khung quy định về AI của chính phủ Anh, được xuất bản vào tháng 2, đưa ra cách tiếp cận “ủng hộ đổi mới”. Thật hứa hẹn khi thấy nhận thức này xung quanh sự cần thiết của các hướng dẫn, nhưng các nguyên tắc phi pháp lý lại tập trung vào những người chơi chính liên quan đến phát triển AI.

Để khuyến khích đổi mới toàn diện, Vương quốc Anh phải thu hút càng nhiều tiếng nói càng tốt khi định hình bối cảnh pháp lý. Theo Gavin Poole, Giám đốc điều hành của Here East, điều này có nghĩa là các nhà hoạch định chính sách và cơ quan quản lý cần phải tích cực tham gia không chỉ với các tập đoàn công nghệ lớn mà còn cả các công ty khởi nghiệp, tổ chức giáo dục và các doanh nghiệp nhỏ hơn.

Ông nói: “Việc EU thông qua Đạo luật AI mang tính đột phá là lời cảnh tỉnh đối với Vương quốc Anh – một lời nhắc nhở rằng chúng ta phải điều chỉnh và phát triển các hướng dẫn của mình để đi trước xu hướng”. “Kịch bản lý tưởng là một khuôn khổ thúc đẩy tăng trưởng và đầu tư vào tài năng địa phương cũng như tiềm năng trong tương lai, nhằm củng cố hơn nữa vị thế của chúng tôi với tư cách là công ty dẫn đầu toàn cầu về đổi mới AI.”

Tầm quan trọng của ảnh hưởng qua lại

Cách tiếp cận của EU rất khác với cách tiếp cận của Mỹ. Ivana Bartoletti, giám đốc quản trị AI và quyền riêng tư tại Wipro, cho biết điều này thực sự là một điều tốt. Cô nói: “Sự hỗ trợ chéo và ảnh hưởng qua lại là cần thiết khi chúng tôi tìm ra cách tốt nhất để quản lý công nghệ mạnh mẽ này”.

Như Bartoletti đã chỉ ra, mặc dù luật pháp của Hoa Kỳ và EU có phần khác nhau nhưng hai chiến lược này cho thấy sự hội tụ ở một số yếu tố chính. Ví dụ, có sự tập trung vào sự công bằng, an toàn và mạnh mẽ. Ngoài ra còn có một cam kết mạnh mẽ và hành động vững chắc để cân bằng giữa đổi mới và tập trung quyền lực trong các công ty công nghệ lớn.

Trung Quốc cũng đang đạt được tiến bộ đáng kể về quy định AI. Cách tiếp cận của nó trước đây tập trung vào các lĩnh vực cụ thể của AI, thay vì xây dựng chế độ quản lý toàn diện cho các hệ thống AI. Ví dụ, Jamie Rowlands, một đối tác và Angus Milne, một cộng sự tại Haseltine Lake Kempner, lưu ý rằng Trung Quốc đã đưa ra luật riêng cho các thuật toán đề xuất, GenAI và deepfake. Họ nói rằng cách tiếp cận này dường như phản ứng lại sự phát triển của AI, thay vì chủ động tìm cách định hình sự phát triển đó.

Vào tháng 6 năm 2023, Trung Quốc xác nhận đang xây dựng Luật Trí tuệ nhân tạo. Hiện tại vẫn chưa rõ luật mới sẽ bao gồm những gì vì dự thảo vẫn chưa được công bố, nhưng kỳ vọng là nó sẽ tìm cách cung cấp một khung pháp lý toàn diện và do đó có khả năng cạnh tranh với Đạo luật AI của EU về mặt phạm vi và tham vọng.

Tác động đến ngành AI châu Âu là gì?

Hiệp hội AI Đức đã cảnh báo rằng ở dạng hiện tại, Đạo luật AI của EU sẽ ảnh hưởng tiêu cực nghiêm trọng đến hệ sinh thái AI châu Âu và có khả năng dẫn đến bất lợi cạnh tranh, đặc biệt là đối với các đối thủ cạnh tranh của Mỹ và Trung Quốc.

Trong một bài báo thảo luận về quan điểm của mình, nó đã cảnh báo rằng cần phải loại trừ AI có mục đích chung và các mô hình ngôn ngữ lớn, hoặc ít nhất là khỏi việc phân loại theo phân loại các mô hình đó như các trường hợp sử dụng có rủi ro cao.

“Chúng tôi kêu gọi đánh giá lại các yêu cầu hiện tại nhằm phân loại hệ thống AI là trường hợp sử dụng có rủi ro cao, bảo vệ và thúc đẩy đầu tư của châu Âu vào các mô hình ngôn ngữ lớn và mô hình đa phương thức, đồng thời làm rõ các định nghĩa mơ hồ và cách diễn đạt đã chọn,” các tác giả của báo cáo cho biết. giấy đã viết.

Leave a Comment

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Scroll to Top