Đạo luật AI của EU không bảo vệ được luật pháp và không gian dân sự

  • Post category:computer


Theo đánh giá của Trung tâm Luật phi lợi nhuận Châu Âu (ECNL), Đạo luật Trí tuệ nhân tạo (AI) của Liên minh Châu Âu (EU) “không bảo vệ hiệu quả luật pháp và không gian dân sự”.

Nghiên cứu xác định “những lỗ hổng đáng kể và sự không chắc chắn về mặt pháp lý” trong Đạo luật AI, mà nó tuyên bố là “đã được thương lượng và hoàn thiện một cách vội vàng”. Nó cũng kết luận rằng Đạo luật ưu tiên “lợi ích của ngành, dịch vụ an ninh và các cơ quan thực thi pháp luật” hơn là pháp quyền và không gian dân sự.

Đánh giá của ECNL về Đạo luật xác định năm sai sót cơ bản, trong đó những lỗ hổng trong luật pháp, sơ hở và các nghị quyết thứ cấp có thể “dễ dàng làm suy yếu các biện pháp bảo vệ do Đạo luật AI thiết lập, làm xói mòn thêm các quyền cơ bản và các tiêu chuẩn pháp quyền về lâu dài”.

Điều này bao gồm quyền miễn trừ chung đối với các trường hợp sử dụng AI vì an ninh quốc gia, bao gồm cả “nhận dạng sinh trắc học từ xa”; con đường khắc phục hạn chế của các cá nhân; và yêu cầu đánh giá tác động yếu.

Kể từ đề xuất ban đầu vào năm 2021, ECNL đã theo dõi và tham gia các cuộc thảo luận xung quanh Đạo luật AI của EU, nhằm ứng phó với việc các hệ thống AI đang được sử dụng để giám sát các nhà hoạt động, lập hồ sơ hành khách hàng không và bổ nhiệm thẩm phán cho các vụ án tại tòa.

Sau quá trình lập pháp kéo dài ba năm, Nghị viện Châu Âu đã phê chuẩn Đạo luật vào tháng trước.

Những kẽ hở của đạo luật

Mặc dù Châu Âu đã đặt ra khung pháp lý có mục tiêu đầu tiên cho ngành AI, nhưng báo cáo của ECNL lưu ý rằng không có “hướng dẫn và hành động được ủy quyền nào để làm rõ các yêu cầu thường mơ hồ”, khiến “có quá nhiều quyền quyết định của Ủy ban, luật thứ cấp hoặc tự nguyện”. quy tắc ứng xử”.

Nó nói thêm rằng nhiều điều cấm của Đạo luật chứa đầy những sơ hở khiến chúng trở thành “những tuyên bố trống rỗng”, do “những trường hợp ngoại lệ sâu rộng”. Ngoài ra, một số lỗ hổng khác cho phép các công ty và cơ quan công quyền trốn tránh việc nằm trong danh sách các hệ thống có rủi ro cao của Đạo luật.

“Mặc dù có những lời hứa rằng Đạo luật AI của EU sẽ đặt con người làm trung tâm, nhưng thực tế phũ phàng là chúng ta có rất ít luật để bảo vệ chúng ta khỏi các mối đe dọa và tổn hại do sự phổ biến của các hệ thống AI trong thực tế mọi lĩnh vực của cuộc sống gây ra.” Ella Jakubowska, người đứng đầu chính sách của tổ chức phi chính phủ Quyền kỹ thuật số châu Âu (EDRi) cho biết.

Trên thực tế, các giám đốc an ninh (CSO) chỉ có thể đại diện cho những cá nhân có quyền bị vi phạm khi liên quan đến quyền lợi của người tiêu dùng, nghĩa là họ “có thể nộp đơn khiếu nại thay mặt cho một nhóm người bị tổn hại, ví dụ như bởi hệ thống tính điểm tín dụng, nhưng không phải trên thay mặt cho những người biểu tình có quyền tự do sống động đã bị vi phạm do sử dụng giám sát sinh trắc học trên đường phố”.

Đạo luật không đảm bảo quyền tham gia – “các cơ quan công quyền hoặc công ty sẽ không bắt buộc phải tham gia với các bên liên quan bên ngoài khi đánh giá tác động cơ bản về quyền của AI”.

Cơ quan nhà nước sử dụng AI

Hơn nữa, các tiêu chuẩn về đánh giá tác động quyền cơ bản (FRIA) của Đạo luật đối với các cơ quan công quyền có kế hoạch sử dụng các hệ thống AI có rủi ro cao còn yếu, với ba thiếu sót đáng kể: không có nghĩa vụ rõ ràng phải đánh giá những tác động này; Các CSO không có “con đường trực tiếp, ràng buộc về mặt pháp lý” để đóng góp vào việc đánh giá tác động; và các cơ quan thực thi pháp luật và di trú sẽ không phải tiết lộ liệu họ có sử dụng các quy trình AI đầy rủi ro hay không.

Nói rộng hơn, AI được phát triển cho mục đích an ninh quốc gia được “miễn trừ chung”, có nghĩa là các chính phủ trên thực tế có thể “kêu gọi an ninh quốc gia đưa ra các hệ thống bị cấm, chẳng hạn như giám sát sinh trắc học hàng loạt” và trốn tránh các quy định của Đạo luật về các hệ thống AI rủi ro.

“Việc miễn trừ quá rộng rãi đối với an ninh quốc gia cũng mang lại cho các quốc gia và công ty một tấm thẻ thoát khỏi tù để bỏ qua toàn bộ luật và việc thiếu áp dụng các quy tắc đối với xuất khẩu công nghệ càng cho thấy tư duy hạn chế đằng sau Đạo luật này, ”Jakubowska nói.

Theo Caterina Rodelli, nhà phân tích chính sách của EU tại nhóm quyền kỹ thuật số Access Now, Đạo luật AI không cung cấp các biện pháp bảo vệ có ý nghĩa trong nội dung biên giới và di cư, vì “các hệ thống nguy hiểm nhất không bị cấm một cách có ý nghĩa khi được cảnh sát và cơ quan di trú sử dụng, chẳng hạn như như nhận dạng sinh trắc học từ xa và máy phát hiện nói dối”.

Bà nói thêm, liên quan đến việc cảnh sát và cơ quan di trú được miễn nghĩa vụ minh bạch, rằng “đây là tiền lệ nguy hiểm sẽ trao quyền cho chính quyền tiểu bang sử dụng hệ thống AI để chống lại những người không mong muốn trong xã hội: đầu tiên là những người bị phân biệt chủng tộc, nhưng rất có thể sau đó là những người bảo vệ nhân quyền, nhà báo và các đối thủ chính trị”.

Đặt tiền lệ

Alexandra Geese MEP, phó chủ tịch Liên minh Xanh/Liên minh Tự do Châu Âu, cho biết: “Trong quá trình đàm phán, chúng tôi đã làm việc chăm chỉ để đạt được lệnh cấm hoàn toàn đối với giám sát sinh trắc học theo thời gian thực. Thật không may, danh sách các lệnh cấm đã bị Hội đồng giảm bớt trong giai đoạn cuối và thậm chí sau phần ba cuối cùng. Hội đồng Châu Âu đã bỏ lỡ cơ hội bảo vệ hiệu quả công dân của mình trước sự giám sát của AI.

Bà nói: “Tuy nhiên, nếu không có Đạo luật AI, chúng tôi sẽ không có công cụ nào để buộc ngành AI phải chịu trách nhiệm. “EU đã tạo ra khung pháp lý đầu tiên trên thế giới với các quy tắc vững chắc cho phép chúng tôi cải thiện các công cụ AI trong tương lai. Với các tiêu chuẩn rõ ràng về phát triển và sử dụng hệ thống AI, Châu Âu đang mở đường cho một tương lai trong đó công nghệ phục vụ con người đồng thời tôn trọng các quyền cơ bản và nguyên tắc dân chủ của chúng ta.”

Jakubowska lập luận rằng mặc dù cần tiếp tục thúc đẩy việc áp dụng mạnh mẽ nhất các quy tắc Đạo luật AI của EU, nhưng rõ ràng luật này không nên trở thành kế hoạch chi tiết toàn cầu về cách bảo vệ quyền và dân chủ trước tình trạng số hóa ngày càng tăng của xã hội.

Rodelli nói thêm: “Đạo luật AI đặt ra một tiền lệ nguy hiểm vì nó tạo ra một khuôn khổ song song riêng biệt cho các cơ quan thực thi pháp luật và di cư sử dụng hệ thống AI. Tiêu chuẩn thứ hai này trước hết sẽ tác động đến những người bị thiệt thòi nhất trong xã hội, cụ thể là người di cư và những người bị phân biệt chủng tộc ở EU.”

Bà nói thêm rằng việc sử dụng mang tính đàn áp các hệ thống AI trong các luật khác theo tiền lệ này đã bắt đầu diễn ra, với cuộc bỏ phiếu về Hiệp ước mới của EU về Di cư và Tị nạn vào ngày 10 tháng 4. “Bộ cải cách này được củng cố bởi nhiều chính sách khác nhau. các công nghệ giám sát sẽ thuộc phạm vi của Đạo luật AI, nhưng trên thực tế, điều đó sẽ không được quy định như vậy vì hệ thống quy định lỏng lẻo song song này đã được áp dụng cho cảnh sát và cơ quan di trú,” cô Rodelli.

Access Now đã đưa ra một tuyên bố về mối liên hệ giữa Đạo luật AI và Hiệp ước Di cư, lưu ý rằng cả hai sẽ thúc đẩy sự giám sát chặt chẽ hơn ở EU như thế nào.

Trả lời