TUC công bố đề xuất lập pháp để bảo vệ người lao động khỏi AI


Đại hội Công đoàn (TUC) đã ban hành luật “sẵn sàng triển khai” để quản lý trí tuệ nhân tạo (AI) tại nơi làm việc, đặt ra một loạt các quyền và biện pháp bảo vệ pháp lý mới để quản lý các tác động bất lợi của việc ra quyết định tự động đối với công nhân.

Áp dụng cách tiếp cận dựa trên rủi ro tương tự như cách mà Liên minh Châu Âu áp dụng trong Đạo luật AI được thông qua gần đây, Dự luật Trí tuệ nhân tạo (Việc làm và Quy định) của TUC chủ yếu quan tâm đến việc sử dụng AI để ra quyết định “rủi ro cao”, được định nghĩa là khi một hệ thống tạo ra “hiệu ứng pháp lý hoặc các hiệu ứng quan trọng tương tự khác”.

TUC cho biết AI đang được sử dụng trong toàn bộ nền kinh tế để đưa ra các quyết định quan trọng về con người, bao gồm cả việc họ có nhận được việc làm hay không, cách họ làm việc, nơi họ làm và liệu họ có được khen thưởng, kỷ luật hay sa thải hay không.

Nó cho biết thêm việc sử dụng hệ thống AI để quản lý người lao động theo thuật toán theo cách này đã có “tác động đáng kể” đối với họ và dẫn đến kết quả phân biệt đối xử và không công bằng, thiếu kiểm soát dữ liệu, mất quyền riêng tư và tăng cường công việc chung.

“Luật lao động của Vương quốc Anh đơn giản là không theo kịp tốc độ thay đổi công nghệ nhanh chóng. Trợ lý tổng thư ký TUC Kate Bell cho biết, chúng tôi đang thua trong cuộc đua quản lý AI tại nơi làm việc.

Luật lao động của Vương quốc Anh đơn giản là không theo kịp tốc độ thay đổi công nghệ nhanh chóng. Chúng ta đang thua trong cuộc đua quản lý AI tại nơi làm việc

Kate Bell, TUC

“AI đã và đang thực hiện những yêu cầu thay đổi cuộc sống tại nơi làm việc – bao gồm cả cách thức tuyển dụng, quản lý hiệu suất và sa thải nhân viên. Chúng ta cần khẩn trương lắp đặt các rào chắn mới để bảo vệ người lao động khỏi bị bóc lột và phân biệt đối xử. Đây phải là một ưu tiên quốc gia.”

Adam Cantwell Corn, người đứng đầu các chiến dịch và chính sách tại nhóm chiến dịch Connected by Data, người đã tham gia soạn thảo Dự luật Trí tuệ nhân tạo (Việc làm và Quy định), nói thêm: “Trong cuộc tranh luận về cách làm cho AI an toàn hơn, chúng ta cần phải vượt qua những khó khăn ý tưởng và biến các giá trị và nguyên tắc thành các quyền và trách nhiệm có thể thực hiện được. Dự luật thực hiện chính xác điều này và đặt ra một điểm đánh dấu quan trọng cho những gì tiếp theo.”

Mặc dù chính phủ Anh hiện đang nói rằng các quy tắc ràng buộc có thể được đưa ra cho các hệ thống AI có rủi ro cao nhất, nhưng cho đến nay, họ vẫn miễn cưỡng tạo ra luật cho AI, đồng thời tuyên bố nhiều lần rằng họ sẽ không ban hành luật cho đến khi đến thời điểm thích hợp.

Quyền và trách nhiệm có thể thực hiện được

Tập trung vào việc cung cấp các biện pháp bảo vệ và quyền lợi cho người lao động, nhân viên, người tìm việc và công đoàn – cũng như nghĩa vụ đối với người sử dụng lao động và người sử dụng lao động tiềm năng – các điều khoản chính của dự luật bao gồm việc yêu cầu người sử dụng lao động thực hiện Đánh giá rủi ro AI tại nơi làm việc (WAIRA) chi tiết cả trước và sau triển khai, tạo sổ đăng ký của hệ thống ra quyết định AI mà họ đang vận hành và đảo ngược gánh nặng chứng minh trong các trường hợp việc làm để giúp chứng minh sự phân biệt đối xử về AI tại nơi làm việc dễ dàng hơn.

Theo khuôn khổ WAIRA, dự luật cũng sẽ thiết lập các quy trình tham vấn với người lao động, quyền theo luật định để các công đoàn được tư vấn trước bất kỳ hoạt động triển khai có rủi ro cao nào và mở ra quyền truy cập vào thông tin hộp đen về các hệ thống sẽ đặt người lao động và công đoàn vào tình thế khó khăn. vị trí tốt hơn để hiểu cách các hệ thống hoạt động.

Các điều khoản khác bao gồm lệnh cấm hoàn toàn đối với nhận dạng cảm xúc giả khoa học, chạy các hộp cát quy định để thử nghiệm các hệ thống mới để việc phát triển AI có thể tiếp tục trong một môi trường an toàn và biện pháp bảo vệ kiểm toán mới dành cho người sử dụng lao động cho phép họ chống lại các khiếu nại phân biệt đối xử nếu họ đáp ứng các yêu cầu nghiêm ngặt. chuẩn mực kiểm toán.

Dự luật cũng sẽ cấp một loạt quyền cho người lao động, bao gồm quyền đưa ra tuyên bố được cá nhân hóa giải thích cách AI đưa ra các quyết định có rủi ro cao đối với họ, quyền xem xét của con người đối với các quyết định tự động, quyền ngắt kết nối và quyền cho các công đoàn được cung cấp dữ liệu tương tự về công nhân sẽ được cung cấp cho hệ thống AI.

TUC cho biết các biện pháp kết hợp này sẽ giúp ích rất nhiều trong việc giải quyết sự mất cân bằng hiện tại về quyền lực đối với dữ liệu tại nơi làm việc.

Robin Allen KC và Dee Masters từ Cloisters cho biết trong một tuyên bố chung: “Các quy định pháp lý và quy định mạnh mẽ là hết sức cần thiết để đảm bảo lợi ích của AI được chia sẻ một cách công bằng và tránh được tác hại của nó”. “Vô số nhà bình luận đã tranh luận về sự cần thiết phải kiểm soát AI tại nơi làm việc, nhưng trước ngày hôm nay, chưa có ai thực hiện công việc nặng nhọc cần thiết để soạn thảo luật.”

Cách tiếp cận hợp tác, nhiều bên liên quan

Mặc dù văn bản được soạn thảo bởi Bộ phận Tư vấn Luật AI tại Cloisters Chambers với sự hỗ trợ từ Trung tâm Công nghệ và Dân chủ Minderoo của Đại học Cambridge, nhưng bản thân dự luật đã được hình thành bởi một ủy ban cố vấn đặc biệt do TUC thành lập vào tháng 9 năm 2023.

Trong cuộc tranh luận về cách làm cho AI an toàn hơn, chúng ta cần vượt qua những ý tưởng mơ hồ và biến các giá trị và nguyên tắc thành các quyền và trách nhiệm có thể thực hiện được. Dự luật thực hiện chính xác điều này và đưa ra một điểm đánh dấu quan trọng cho những gì tiếp theo

Adam Cantwell Corn, được kết nối bằng dữ liệu

Với sự tham gia của các đại diện từ nhiều bên liên quan khác nhau – bao gồm Viện Ada Lovelace, Viện Alan Turing, Được kết nối bởi Dữ liệu, TechUK, Hiệp hội Máy tính Anh, United Tech và Công nhân Đồng minh, GMB và các nghị sĩ liên đảng – TUC nhấn mạnh tầm quan trọng các phương pháp tiếp cận hợp tác và nhiều bên liên quan trong phát triển chính sách AI.

Họ nói thêm rằng mặc dù hiện đã có nhiều luật áp dụng cho việc sử dụng công nghệ tại nơi làm việc – bao gồm Quy định chung về bảo vệ dữ liệu của Vương quốc Anh (GDPR), Quy định về thông tin và tư vấn, các quy tắc an toàn và sức khỏe khác nhau cũng như Công ước châu Âu về con người. Quyền (ECHR) – vẫn còn những khoảng trống đáng kể trong khuôn khổ pháp lý hiện hành.

Những điều này bao gồm thiếu tính minh bạch và khả năng giải thích, thiếu sự bảo vệ chống lại các thuật toán phân biệt đối xử, mất cân bằng quyền lực đối với dữ liệu và thiếu tiếng nói và sự tư vấn của người lao động.

Một dự luật AI tập trung vào người lao động khác đã được nghị sĩ đảng Lao động Mick Whitely đưa ra vào tháng 5 năm 2023, tập trung tương tự vào nhu cầu tham vấn có ý nghĩa với người lao động về AI, nhu cầu đánh giá và kiểm tra tác động bắt buộc cũng như việc tạo ra quyền chính thức để ngắt kết nối .

Mặc dù dự luật đó được đọc lần đầu tiên trong cùng tháng, nhưng việc Quốc hội thông qua vào tháng 10 năm 2023 trước lần đọc thứ hai vào tháng 11 có nghĩa là dự luật sẽ không đạt được tiến bộ nào nữa.

Một dự luật AI riêng biệt đã được Thượng nghị sĩ Đảng Bảo thủ Chris Holmes đưa ra khi Quốc hội quay trở lại, trong đó nhấn mạnh sự cần thiết phải có “sự tham gia lâu dài, có ý nghĩa của công chúng về các cơ hội và rủi ro do AI mang lại”.

Phát biểu với Computer Weekly vào tháng 3 năm 2024, Holmes cho biết cách tiếp cận “chờ xem” của chính phủ Anh để quản lý AI là không đủ tốt khi những tác hại thực sự đang xảy ra ngay lúc này.

“Mọi người đã đưa ra những quyết định sai lầm về AI trong tuyển dụng, trong danh sách rút gọn, trong giáo dục đại học và không chỉ mọi người có thể nhận thấy mình đã đưa ra những quyết định sai lầm về AI, mà đôi khi, họ thậm chí còn có thể không biết trường hợp đó là như thế nào, anh ấy nói.

Phát biểu tại một sự kiện trước Hội nghị Thượng đỉnh Toàn cầu Tốt về AI của Liên hợp quốc (LHQ), diễn ra vào cuối tháng 5 năm 2024, tổng thư ký của Liên minh Viễn thông Quốc tế (ITU), Doreen Bogdan-Martin, cho biết trọng tâm chính của hội nghị thượng đỉnh sẽ “chuyển từ nguyên tắc sang thực hiện”.

Cô nói thêm rằng “các tiêu chuẩn là nền tảng của AI”, nhưng những tiêu chuẩn này phải được tạo ra một cách hợp tác thông qua các nền tảng nhiều bên liên quan như Liên hợp quốc.

Leave a Comment

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Scroll to Top