Hội nghị thượng đỉnh AI Seoul: 10 quốc gia và EU tái cam kết về AI toàn diện an toàn

  • Post category:computer


Mười chính phủ và Liên minh Châu Âu (EU) tập trung tại Hội nghị thượng đỉnh AI Seoul của Hàn Quốc đã ký một thỏa thuận giảm tốc chung đưa ra “sự cống hiến chung” của họ cho hợp tác quốc tế về trí tuệ nhân tạo, khẳng định sự cần thiết của họ để “tích cực bao gồm” nhiều tiếng nói trong các cuộc thảo luận quản trị đang diễn ra.

Được ký vào ngày 21 tháng 5 năm 2024, Tuyên bố Seoul về AI an toàn, sáng tạo và toàn diện được xây dựng dựa trên Giảm tốc Bletchley được 28 chính phủ và EU ký sáu tháng trước tại Hội nghị Thượng đỉnh An toàn AI khai mạc ở Vương quốc Anh.

Khẳng định sự cần thiết của một cách tiếp cận toàn diện, lấy con người làm trung tâm để đảm bảo độ tin cậy và an toàn của công nghệ, Bletchley Deceleration cho biết hợp tác quốc tế giữa các quốc gia sẽ tập trung vào việc xác định các rủi ro an toàn AI mà các bên cùng quan tâm; xây dựng sự hiểu biết chung dựa trên bằng chứng và khoa học về những rủi ro này; xây dựng chính sách quản trị dựa trên rủi ro; và duy trì sự hiểu biết đó khi khả năng tiếp tục phát triển.

Trong khi Tuyên bố Bletchley ghi nhận tầm quan trọng của hành động toàn diện đối với an toàn AI thì Tuyên bố Seoul – được ký bởi Úc, Canada, EU, Pháp, Đức, Ý, Nhật Bản, Hàn Quốc, Cộng hòa Singapore, Vương quốc Anh, và Hoa Kỳ – đã khẳng định rõ ràng “tầm quan trọng của sự hợp tác tích cực giữa nhiều bên liên quan” trong lĩnh vực này và cam kết sự tham gia của chính phủ sẽ “tích cực” bao gồm nhiều bên liên quan trong các cuộc thảo luận liên quan đến AI.

Bất chấp sự tích cực của các quan chức chính phủ và đại diện ngành công nghệ sau Hội nghị thượng đỉnh AI vừa qua, vẫn có mối lo ngại từ xã hội dân sự và công đoàn về việc loại trừ người lao động và những người khác bị ảnh hưởng trực tiếp bởi AI, với hơn 100 tổ chức trong số này đã ký một thỏa thuận mở. lá thư gắn nhãn sự kiện là “một cơ hội bị bỏ lỡ”.

Mặc dù có một số bổ sung mới, nhưng mức giảm tốc mới nhất của Seoul chủ yếu nhắc lại nhiều cam kết đã đưa ra tại Bletchley, đặc biệt là về tầm quan trọng của việc tăng cường hợp tác quốc tế và đảm bảo AI được sử dụng một cách có trách nhiệm, chẳng hạn như để bảo vệ nhân quyền và môi trường.

Nó cũng nhắc lại cam kết trước đây về việc phát triển các phương pháp quản trị dựa trên rủi ro mà hiện đã bổ sung sẽ cần phải có khả năng tương tác với nhau; và tiếp tục xây dựng mạng lưới quốc tế gồm các cơ quan nghiên cứu khoa học được thành lập trong Hội nghị thượng đỉnh vừa qua, chẳng hạn như Viện An toàn AI riêng biệt của Vương quốc Anh và Hoa Kỳ.

Liên quan đến vấn đề này, cùng 10 quốc gia và EU đã ký Tuyên bố Seoul về ý định hợp tác quốc tế về khoa học an toàn AI, trong đó sẽ chứng kiến ​​các viện nghiên cứu được hỗ trợ công khai đã được thành lập cùng nhau đảm bảo “tính bổ sung và khả năng tương tác” giữa công việc kỹ thuật của họ và các phương pháp tiếp cận chung về an toàn AI – điều đã và đang diễn ra giữa các viện nghiên cứu của Hoa Kỳ và Vương quốc Anh.

Thư ký kỹ thuật số cho biết: “Kể từ khi chúng tôi triệu tập thế giới tại Bletchley năm ngoái, Vương quốc Anh đã dẫn đầu phong trào toàn cầu về an toàn AI và khi tôi công bố Viện An toàn AI đầu tiên trên thế giới, các quốc gia khác đã đi theo lời kêu gọi vũ trang này bằng cách thành lập Viện riêng của họ”. Michelle Donelan.

“Tận dụng sự lãnh đạo này, sự hợp tác với các đối tác nước ngoài của chúng tôi thông qua mạng lưới toàn cầu sẽ là nền tảng để đảm bảo sự đổi mới trong AI có thể tiếp tục với cốt lõi là sự an toàn, bảo mật và niềm tin.”

Trước Hội nghị thượng đỉnh Seoul, Viện An toàn AI của Vương quốc Anh (AISI) đã thông báo rằng họ sẽ thành lập văn phòng mới tại San Francisco để tiếp cận các công ty AI hàng đầu và tài năng công nghệ của Vùng Vịnh, đồng thời công bố bộ kết quả thử nghiệm an toàn đầu tiên.

Họ phát hiện ra rằng không có mô hình nào trong số năm mô hình ngôn ngữ lớn (LLM) chưa được đặt tên mà nó đã đánh giá có thể thực hiện các nhiệm vụ phức tạp, tốn thời gian hơn mà không cần con người giám sát và tất cả chúng vẫn rất dễ bị tổn thương trước các biện pháp bảo vệ cơ bản “bẻ khóa”. Nó cũng phát hiện ra rằng một số mô hình sẽ tạo ra kết quả có hại ngay cả khi không có nỗ lực tận tâm nhằm phá vỡ các biện pháp bảo vệ này.

Trong một bài đăng trên blog từ giữa tháng 5 năm 2024, Viện Ada Lovelace (ALI) đã đặt câu hỏi về tính hiệu quả tổng thể của AISI và cách tiếp cận chủ yếu của việc đánh giá mô hình trong không gian an toàn AI, đồng thời đặt câu hỏi thêm về khuôn khổ thử nghiệm tự nguyện, nghĩa là Viện chỉ có thể được tiếp cận với các mô hình với sự đồng ý của các công ty.

Nó cho biết: “Các giới hạn của chế độ tự nguyện vượt quá khả năng tiếp cận và cũng ảnh hưởng đến việc thiết kế các đánh giá”. “Theo nhiều nhà đánh giá mà chúng tôi đã nói chuyện, các phương pháp đánh giá hiện tại phù hợp với lợi ích của các công ty hơn là công chúng hoặc cơ quan quản lý. Trong các công ty công nghệ lớn, các biện pháp khuyến khích thương mại khiến họ ưu tiên đánh giá hiệu quả hoạt động và các vấn đề an toàn gây ra rủi ro danh tiếng (chứ không phải các vấn đề an toàn có thể có tác động xã hội đáng kể hơn).

Trả lời