Vũ khí tự động làm suy giảm quyền tự chủ đạo đức và hạ thấp giá trị cuộc sống con người

  • Post category:computer


Theo các chuyên gia công nghệ quân sự, việc sử dụng hệ thống vũ khí tự động (AWS) để nhắm vào con người sẽ làm xói mòn đạo đức và dẫn đến sự mất giá trị chung của cuộc sống.

Phát biểu tại Hội nghị Vienna về Hệ thống vũ khí tự động vào ngày 30 tháng 4 năm 2024 – một diễn đàn do chính phủ Áo thành lập để thảo luận về những thách thức đạo đức, đạo đức, pháp lý và nhân đạo đang diễn ra do vũ khí hỗ trợ trí tuệ nhân tạo (AI) – các chuyên gia đã nói về tác động của AWS về phẩm giá con người và bạo lực được kích hoạt bằng thuật toán cuối cùng sẽ mất nhân tính như thế nào đối với cả mục tiêu và người thực hiện nó.

Các mối quan tâm cụ thể được các chuyên gia nêu ra trong suốt hội nghị bao gồm khả năng mất nhân tính khi những người ở đầu nhận lực lượng gây chết người bị giảm xuống các điểm dữ liệu và số trên màn hình; nguy cơ phân biệt đối xử trong quá trình lựa chọn mục tiêu do sai lệch trong chương trình hoặc tiêu chí được sử dụng; cũng như sự tách rời về mặt cảm xúc và tâm lý của người vận hành khỏi hậu quả của hành động của họ đối với con người.

Các diễn giả cũng đề cập đến việc liệu con người có thể kiểm soát AWS một cách có ý nghĩa hay không, do sự kết hợp giữa khuynh hướng tự động hóa và cách các loại vũ khí đó làm tăng tốc độ chiến tranh ngoài tầm nhận thức của con người.

Đạo đức của việc giết người bằng thuật toán

Nhấn mạnh công trình của mình về đạo đức của vũ khí tự động với học giả Elke Schwarz, Neil Renic, nhà nghiên cứu tại Trung tâm Nghiên cứu Quân sự ở Copenhagen, cho biết mối quan tâm lớn với AWS là làm thế nào họ có thể tăng cường hơn nữa các hệ thống bạo lực rộng lớn hơn mà họ đã tích hợp bên trong. .

Ông nói: “Vũ khí tự động và hoạt động giết người có hệ thống mà chúng sẽ kích hoạt và tăng tốc có khả năng gây áp lực lên phẩm giá con người theo hai cách khác nhau, trước hết bằng cách khuyến khích hạ thấp giá trị đạo đức của mục tiêu”. sẽ trực tiếp áp đặt, hoặc ít nhất là khuyến khích, việc áp dụng các danh mục nhắm mục tiêu quá rộng và cố định trước.

“Sự khách quan hóa toàn diện và thô thiển này của con người rất dễ dẫn đến việc mất đi những hạn chế thiết yếu, dẫn đến việc tước bỏ các quyền cơ bản và phẩm giá của đối tượng. Và chúng ta có thể quan sát những tác động này bằng cách kiểm tra lịch sử giết chóc có hệ thống.”

Đối với Fan Yang, trợ lý giáo sư luật quốc tế tại Trường Luật thuộc Đại học Hạ Môn, vấn đề thiên vị trong AWS thể hiện ở cả dữ liệu được sử dụng để đào tạo hệ thống và cách con người tương tác với chúng.

Lưu ý rằng sự thiên vị trong AWS có thể sẽ dẫn đến thương vong trực tiếp cho con người, Yang cho biết đây là mức độ tồi tệ hơn, chẳng hạn như việc trở thành nạn nhân của sự phân biệt giá trong thuật toán bán lẻ.

Ông nói: “Về mặt kỹ thuật, không thể loại bỏ sự thiên vị trong quá trình thiết kế và phát triển AWS. “Sự thiên vị có thể sẽ tồn tại ngay cả khi có yếu tố kiểm soát của con người trong mã cuối cùng vì về mặt tâm lý, người chỉ huy và người vận hành con người có xu hướng tin tưởng quá mức vào bất kỳ tùy chọn hoặc quyết định nào được AWS khuyến nghị.”

Yang nói thêm rằng bất kỳ mục tiêu phân biệt đối xử nào – cho dù là kết quả của những thành kiến ​​​​được đưa vào dữ liệu hay thành kiến ​​của người vận hành con người tin tưởng vào kết quả đầu ra của máy móc – có thể sẽ làm trầm trọng thêm xung đột bằng cách loại trừ các nhóm hoặc cộng đồng nhất định, cuối cùng có thể leo thang bạo lực và phá hoại nền hòa bình. các giải pháp.

Sự xói mòn quyền tự quyết của con người

Renic cho biết thêm, bản chất hệ thống và thuật toán của bạo lực do AWS gây ra cũng có khả năng làm xói mòn “cơ quan đạo đức” của những người vận hành sử dụng vũ khí.

Ông nói: “Trong các hệ thống bạo lực gia tăng, con người thường bị tước quyền, hoặc tự tước quyền của chính mình, với tư cách là những tác nhân đạo đức. “Họ mất hoặc từ bỏ khả năng tự phản ánh, thực hiện phán đoán đạo đức có ý nghĩa trên chiến trường và trong các hệ thống bạo lực thuật toán, chúng ta có thể thấy những người liên quan ngày càng nhường quyền phán xét của họ cho thẩm quyền của thuật toán.”

Vũ khí tự động sẽ không chấm dứt sự tham gia của con người (nhưng) chúng sẽ sắp xếp lại và bóp méo mối quan hệ của con người với bạo lực, có khả năng khiến điều tồi tệ hơn

Neil Renic, Trung tâm Nghiên cứu Quân sự

Renic nói thêm rằng, thông qua “các quy trình thông thường” được khuyến khích bởi việc giết người bằng máy tính, các nhà khai thác AWS mất cả khả năng và khuynh hướng đặt câu hỏi về mặt đạo đức đối với các hệ thống như vậy, dẫn đến một kiểu mất nhân tính khác.

Bình luận về những tác động bất lợi của AWS đối với các nhà khai thác của mình, Amal El Fallah Seghrouchni, chủ tịch điều hành Trung tâm Trí tuệ Nhân tạo Quốc tế của Maroc, cho biết có một vấn đề kép giữa “ảo” và “tốc độ”.

Nhấn mạnh khoảng cách vật lý giữa người dùng AWS quân sự và phòng điều hành nơi công nghệ được triển khai, cô lưu ý rằng hậu quả của các quyết định gây chết người tự động không được nhìn thấy theo cách tương tự và tốc độ tuyệt đối mà các hệ thống này đưa ra có thể để lại người vận hành thiếu nhận thức.

Về câu hỏi liệu các mục tiêu có nên được AWS tự động chỉ định dựa trên đặc điểm của chúng hay không, không có diễn giả nào ủng hộ.

Chẳng hạn, Anja Kaspersen, giám đốc phát triển thị trường toàn cầu và công nghệ tiên phong tại Viện Kỹ sư Điện và Điện tử (IEEE), cho biết với AI và học máy nói chung, các hệ thống thường sẽ có tỷ lệ lỗi chấp nhận được.

“Bạn có độ chính xác 90%, không sao cả. Nhưng trong một chiến trường (chiến đấu), mất 10% đồng nghĩa với việc mất rất nhiều, rất nhiều sinh mạng”, bà nói. “Chấp nhận nhắm mục tiêu có nghĩa là bạn chấp nhận sự mất mát này trong cuộc sống con người – điều đó là không thể chấp nhận được.”

Renic nói thêm rằng trong khi có thể có một số tình huống ít rắc rối hơn trong đó AWS có thể tự do lựa chọn mục tiêu của mình hơn – chẳng hạn như bối cảnh hàng hải cách xa dân thường, nơi các đặc điểm được xác định là kẻ thù mặc đồng phục trên boong tàu – thì có vô số tình huống không phù hợp. – Các đặc điểm được xác định hoặc có thể tranh cãi có thể được tính toán để tạo thành loại “kẻ thù mục tiêu” với kết quả khủng khiếp.

Ông nói: “Ở đây, tôi nghĩ về bao nhiêu đau khổ và tổn hại bất công do đặc tính của ‘nam tuổi quân nhân’ đã gây ra. “Tôi lo lắng về đặc điểm đó của nam giới trong độ tuổi nhập ngũ chẳng hạn, bị mã hóa cứng thành vũ khí tự động. Tôi nghĩ đó là loại thách thức đạo đức thực sự khiến chúng tôi khó chịu trong các cuộc thảo luận này.”

Sự đồng thuận giữa Renic và các diễn giả khác là cách tiếp cận có hệ thống để tiêu diệt do AWS tạo ra và sự dễ dàng mà các tác nhân khác nhau có thể triển khai các hệ thống như vậy, cuối cùng sẽ hạ thấp ngưỡng sử dụng bạo lực.

Renic cho biết: “Vấn đề của chúng tôi ở đây không phải là sự xóa bỏ loài người – vũ khí tự động sẽ không chấm dứt sự tham gia của con người”. “Tuy nhiên, những gì họ sẽ làm, cùng với AI quân sự nói rộng hơn, là sắp xếp lại và bóp méo mối quan hệ của con người với bạo lực, có khả năng khiến tình hình trở nên tồi tệ hơn.”

Về mặt quản lý công nghệ, sự đồng thuận là vũ khí tự động hoàn toàn phải bị cấm hoàn toàn, trong khi mọi loại và khía cạnh khác của AWS phải được quản lý chặt chẽ, bao gồm quy trình lựa chọn mục tiêu, quy mô lực lượng được triển khai trong một trường hợp nhất định và khả năng can thiệp có ý nghĩa của con người.

Trả lời