Cuộc đua điều chỉnh AI: 2024 đã được giải mã

  • Post category:computer


Năm 2023 là một năm đột phá của AI trong thế giới thương mại và tiêu dùng. Điều này đã tạo động lực rất lớn cho sự tăng trưởng hơn nữa trong đầu tư, phát triển và triển khai AI vào năm 2024.

Tuy nhiên, có những vấn đề có thể tác động đến động lực đó ở các quốc gia khác nhau, bao gồm quy định, tranh chấp về sở hữu trí tuệ, kỹ năng của lực lượng lao động và khuyến khích tài chính. Năm 2024 sẽ đặc biệt quan trọng đối với sự phát triển liên tục của bối cảnh pháp lý và quyền sở hữu trí tuệ đang diễn ra.

Chúng ta đang ở đâu với quy định về AI vào năm 2024?

Không có một cách tiếp cận thống nhất nào để điều tiết và không phải tất cả các quốc gia và khu vực đều đi theo cùng một con đường. Những người ủng hộ quy định toàn diện chỉ ra sự cần thiết phải chống lại rủi ro của AI và cũng cho rằng các quy định rõ ràng có thể khuyến khích đầu tư. Những người khác cho rằng cách tiếp cận ít quy định hơn sẽ cho phép các nhà phát triển AI tự do đổi mới và việc cập nhật các luật cũng như thông lệ hiện hành sẽ giúp hạn chế rủi ro một cách đầy đủ.

Người dẫn đầu rõ ràng trong cuộc đua quản lý AI là EU. Diễn biến nổi bật vào năm 2023 là thỏa thuận tạm thời của EU về việc đưa ra Đạo luật AI mới – được thống nhất sau phiên đàm phán kéo dài hơn 20 giờ ngay trước Giáng sinh. Văn bản cuối cùng của Đạo luật AI vẫn cần được hoàn thiện và sau đó được EU thông qua. Tuy nhiên, điều này được dự đoán rộng rãi sẽ xảy ra vào nửa đầu năm 2024.

Nếu Đạo luật AI được thông qua như mong đợi, nó sẽ trở thành cơ chế quản lý AI toàn diện đầu tiên trên thế giới. Về mặt thực tế, nó sẽ thiết lập cách tiếp cận dựa trên rủi ro để phân loại các hệ thống AI, đặt ra các yêu cầu pháp lý cho từng danh mục và bao gồm các hình phạt tài chính đáng kể nếu không tuân thủ. Đi sâu vào chi tiết hơn một chút, nó đề cập đến:

  • Các hệ thống ‘Rủi ro không thể chấp nhận được’ được coi là mối đe dọa đối với con người sẽ (tuân theo một số trường hợp ngoại lệ nhất định) sẽ bị cấm (ví dụ: hệ thống nhận dạng sinh trắc học từ xa và thời gian thực, chẳng hạn như nhận dạng khuôn mặt).
  • Các hệ thống ‘rủi ro cao’ ảnh hưởng tiêu cực đến sự an toàn hoặc các quyền cơ bản sẽ được đánh giá trước khi đưa ra thị trường ở EU và trong suốt vòng đời của chúng.
  • Các hệ thống ‘hạn chế rủi ro’ khác cũng sẽ cần phải tuân thủ một số yêu cầu nhất định (ví dụ: liên quan đến tính minh bạch – vì vậy việc sử dụng chatbot hoặc deepfake phải được gắn cờ cho người dùng).

Đạo luật cũng có thể ấn định thời gian chạy theo các yêu cầu tuân thủ, trong đó thời hạn ngắn nhất là sáu tháng để tuân thủ lệnh cấm đối với các hệ thống ‘rủi ro không thể chấp nhận được’. Điều này có khả năng có thể rơi vào cuối năm 2024.

EU cũng đang nghiên cứu ‘Chỉ thị trách nhiệm pháp lý về AI’ để giải quyết những khó khăn nhận thấy liên quan đến tác hại do AI gây ra. Tác động của luật này có thể sẽ trở nên rõ ràng hơn sau cuộc bầu cử EU vào tháng 6 năm 2024.

Trung Quốc cũng đang đạt được tiến bộ đáng kể về quy định AI. Cách tiếp cận của Trung Quốc trước đây tập trung vào các lĩnh vực cụ thể của AI, thay vì xây dựng chế độ quản lý toàn diện cho các hệ thống AI. Ví dụ: Trung Quốc đã đưa ra luật riêng cho các thuật toán đề xuất, AI tổng quát và các tác phẩm sâu. Cách tiếp cận này dường như phản ứng lại sự phát triển của AI, thay vì chủ động tìm cách định hình sự phát triển đó.

Tuy nhiên, vào tháng 6 năm 2023, Trung Quốc xác nhận rằng họ đang nghiên cứu ‘Luật trí tuệ nhân tạo’. Hiện vẫn chưa rõ luật mới sẽ bao gồm những gì (vì bản dự thảo vẫn chưa được công bố). Nhưng kỳ vọng là luật mới sẽ tìm cách cung cấp một khuôn khổ pháp lý toàn diện và do đó có khả năng cạnh tranh với Đạo luật AI của EU về phạm vi rộng và tham vọng. Vì vậy, Trung Quốc chắc chắn là một khu vực tài phán cần theo dõi – đặc biệt với mục tiêu đã nêu là trở thành quốc gia dẫn đầu về AI toàn cầu vào năm 2030.

Hoa Kỳ có dấu hiệu tăng cường quy định riêng về AI trong khi thực hiện một cách tiếp cận khác với EU. Tổng thống Biden đã ban hành một sắc lệnh hành pháp vào tháng 10 năm 2023. Sắc lệnh này sẽ được đưa vào thực tế trong năm nay, chỉ đạo các cơ quan chính phủ phát triển các tiêu chuẩn cụ thể theo ngành cho các hệ thống AI và chỉ định các yêu cầu minh bạch đối với các mô hình nền tảng “có nguy cơ nghiêm trọng đối với an ninh quốc gia, an ninh kinh tế quốc gia, hoặc sức khỏe và an toàn công cộng quốc gia”. Một điểm khác biệt quan trọng với Đạo luật AI của EU là lệnh hành pháp không có các điều khoản thực thi.

Tuy nhiên, ngoài điều đó ra, những diễn biến tiếp theo có thể sẽ liên quan đến cuộc bầu cử Hoa Kỳ vào tháng 11 năm 2024 vì kết quả sẽ quyết định chương trình nghị sự chính sách trong những năm tới.

Vương quốc Anh là một ngoại lệ trong bối cảnh này, lựa chọn quy định chạm nhẹ để “tăng trưởng tăng áp”. Trong Sách Trắng vào tháng 3 năm 2023, chính phủ Vương quốc Anh đã đặt ra rằng họ sẽ “tránh áp dụng luật pháp nặng tay có thể cản trở sự đổi mới và thực hiện một cách tiếp cận có thể thích ứng để điều chỉnh AI” và sẽ không đưa ra cơ quan quản lý AI mới. Thay vào đó, hệ thống hướng dẫn phi luật định được ưu tiên, do các cơ quan quản lý theo ngành cụ thể hiện tại chỉ đạo, sẽ được phát triển hơn nữa trong năm nay thông qua tham vấn cộng đồng.

Giống như Hoa Kỳ, cuộc tổng tuyển cử sắp tới cũng có thể làm thay đổi lộ trình quản lý của Vương quốc Anh.

Nó không chỉ là quy định – điều gì đang xảy ra với sở hữu trí tuệ?

Một số tranh chấp về quyền sở hữu trí tuệ liên quan đến AI đã nảy sinh, đặc biệt là ở Hoa Kỳ, bao gồm các khiếu nại chống lại nhà phát triển AI, Anthropic, của Universal Music Group về lời bài hát; chống lại Open AI của các nhà văn (bao gồm Sarah Silverman, John Grisham và George RR Martin) về các tác phẩm viết của họ; và chống lại Microsoft, GitHub và OpenAI của các lập trình viên về mã lập trình.

Tuy nhiên, tranh chấp không chỉ giới hạn ở Hoa Kỳ. Một khiếu nại quan trọng của Getty Images chống lại Stability AI liên quan đến hình ảnh có sẵn hiện đang được đấu tranh tại Tòa án Tối cao của Vương quốc Anh (cũng như ở Hoa Kỳ).

Những tranh chấp này chủ yếu liên quan đến các vấn đề vi phạm bản quyền cơ bản đối với cả việc đào tạo và sử dụng các hệ thống AI tổng hợp sau đó (mặc dù một số cũng nêu ra các vấn đề vi phạm sở hữu trí tuệ tiềm ẩn khác).

Sự phát triển trong các tuyên bố pháp lý này vào năm 2024 sẽ làm sáng tỏ tính hợp pháp của các hoạt động đào tạo và phát triển AI hiện có ở các khu vực pháp lý khác nhau, từ đó có thể tác động đến sự phát triển nhanh chóng trước đây của một số hoặc tất cả các hệ thống AI này. Giống như các cơ chế quản lý đang phát triển, sẽ rất thú vị, đặc biệt đối với các nhà phát triển AI chủ chốt, để hiểu hệ thống pháp lý nào được coi là ủng hộ hay phản đối hệ thống AI. Điều này có thể có tác động đến nơi các nhà phát triển đặt trụ sở – ít nhất là trong ngắn hạn.

2024 – tốt hay xấu cho AI?

Đạo luật AI của EU dường như sẽ trở thành “tiêu chuẩn vàng” về quy định về AI trong tương lai. Có một số lý do cho việc này. Có vẻ như rất có thể đây sẽ là cơ chế quản lý toàn diện đầu tiên trên thế giới dành cho AI; tính chất toàn diện của Đạo luật AI có thể có nghĩa là các quốc gia hoặc khu vực khác áp dụng các cách tiếp cận tương tự; và quy mô của thị trường EU là động lực đáng kể để các nhà phát triển AI tuân thủ.

Tuy nhiên, vẫn còn tranh luận về việc liệu sức nặng của quy định toàn diện như vậy có thể cản trở sự đổi mới của AI hay không, như Tổng thống Pháp Macron đã cảnh báo vào cuối năm 2023, thậm chí có thể hướng các nhà đổi mới AI tới các hệ thống quy định kém toàn diện hơn (chẳng hạn như Hoa Kỳ hoặc Vương quốc Anh). Do đó, năm 2024 sẽ là một năm quan trọng khi EU tìm cách hoàn thiện các yêu cầu chính xác của Đạo luật AI và bắt đầu đánh giá phản ứng của các nhà đổi mới AI.

Năm 2024 cũng sẽ rất quan trọng để xác định xem các hệ thống AI bị ảnh hưởng như thế nào bởi luật sở hữu trí tuệ hiện hành. Kết quả của nhiều vụ kiện pháp lý khác nhau, đặc biệt là ở Hoa Kỳ và Vương quốc Anh, về cơ bản có thể thay đổi cách các hệ thống AI được phát triển và sử dụng.

Jamie Rowlands là đối tác và Angus Milne là cộng sự tại Haseltine Lake Kempner.

Trả lời