Tại sao các nhà nghiên cứu AI không nên quay lưng lại với quân đội

Quân đội của chúng ta



Hơn 2.400 nhà nghiên cứu AI gần đây đã ký một lời hứa hứa sẽ không chế tạo cái gọi là vũ khí tự động — những hệ thống sẽ tự quyết định giết ai. Điều này xảy ra sau quyết định của Google không gia hạn hợp đồng cung cấp AI cho Lầu Năm Góc để phân tích cảnh quay bằng máy bay không người lái sau khi công ty phải chịu áp lực từ nhiều nhân viên phản đối dự án có tên Maven.

Paul Scharre, tác giả của một cuốn sách mới, Army of None: Autonomous Weapons and Future of War , tin rằng các nhà nghiên cứu AI cần phải làm nhiều hơn là chọn không tham gia nếu họ muốn mang lại sự thay đổi.





Ảnh của Paul Scharre

Paul Scharre. Giành được McNamee / Getty Images

làm thế nào để ngăn chặn gerrymandering

Một Biệt động quân ở Iraq và Afghanistan và hiện là thành viên cấp cao tại Trung tâm An ninh Mỹ mới, Scharre lập luận rằng các chuyên gia AI nên tham gia với các nhà hoạch định chính sách và các chuyên gia quân sự để giải thích lý do tại sao các nhà nghiên cứu quan tâm và giúp họ hiểu hạn chế của hệ thống AI.

Scharre đã nói chuyện với VỚI Đánh giá công nghệ biên tập viên cấp cao Will Knight về cách tốt nhất để ngăn chặn một cuộc chạy đua vũ trang AI nguy hiểm tiềm tàng.



Hình ảnh bìa sách Army of None

paulscharre.com

làm thế nào để kéo nước từ không khí

Quân đội Mỹ quan tâm đến việc phát triển vũ khí AI như thế nào?

Các nhà lãnh đạo quốc phòng Mỹ đã nhiều lần đã nêu rằng họ chủ đích là giữ một con người trong vòng lặp và chịu trách nhiệm về các quyết định gây chết người. Bây giờ, báo trước là họ cũng đã thừa nhận rằng nếu các quốc gia khác chế tạo vũ khí tự trị, thì họ có thể buộc phải làm theo. Và đó là rủi ro thực sự — rằng nếu một quốc gia vượt qua ranh giới này thì những quốc gia khác có thể cảm thấy họ phải đáp lại bằng hiện vật chỉ để duy trì tính cạnh tranh.

Mặc dù vậy, những lời hứa này có thể thực sự đáng tin cậy không?



Tôi nghĩ rằng các quan chức quốc phòng cấp cao của Mỹ thành thật rằng họ muốn con người phải chịu trách nhiệm về việc sử dụng vũ lực gây chết người. Các chuyên gia quân sự chắc chắn không muốn vũ khí của họ chạy loạn xạ. Phải nói rằng, vẫn còn là một câu hỏi mở làm thế nào để chuyển một khái niệm rộng như trách nhiệm của con người đối với vũ lực gây chết người thành hướng dẫn kỹ thuật cụ thể về những loại vũ khí được phép sử dụng. Định nghĩa về những gì cấu thành một vũ khí tự động đã được tranh cãi, vì vậy có thể có những quan điểm khác nhau về cách áp dụng những nguyên tắc đó vào thực tế.

Tại sao các nhà công nghệ cần phải tham gia?

Các nhà nghiên cứu AI phải là một phần của các cuộc trò chuyện này, vì chuyên môn kỹ thuật của họ rất quan trọng để định hình các lựa chọn chính sách. Chúng ta cần tính đến sự thiên vị AI, tính minh bạch, khả năng giải thích, an toàn và các mối quan tâm khác. Ngày nay, công nghệ AI có hai tính năng này - nó mạnh mẽ nhưng cũng có nhiều lỗ hổng, giống như máy tính và rủi ro mạng. Thật không may, các chính phủ dường như đã nhận được phần đầu tiên của thông điệp đó (AI là mạnh mẽ) nhưng không phải phần thứ hai (nó đi kèm với rủi ro). Các nhà nghiên cứu AI có thể giúp các chính phủ và quân đội hiểu rõ hơn tại sao họ lại lo ngại về hậu quả của việc vũ khí hóa công nghệ này. Để đưa ra trường hợp đó một cách hiệu quả, các nhà nghiên cứu AI cần tham gia vào một cuộc đối thoại mang tính xây dựng.

Bạn nghĩ gì về lời cam kết chống lại vũ khí tự trị gần đây, được tổ chức bởi Future of Life Institute?

Đây không phải là lời kêu gọi hành động đầu tiên của các nhà khoa học AI; nó được xây dựng dựa trên những bức thư ngỏ trước đây về vũ khí tự động trong 20152017 . Nhưng những lá thư này là một cử chỉ mang tính biểu tượng và có thể có lợi nhuận giảm dần về hiệu quả của chúng. Các quốc gia cũng đã thảo luận về vũ khí tự trị tại Liên hợp quốc từ năm 2014 và áp lực từ các nhà khoa học AI tạo thêm một khía cạnh quan trọng cho cuộc trò chuyện nhưng vẫn chưa khiến các cường quốc quân sự lớn ủng hộ lệnh cấm toàn diện. Sẽ có tác động hơn nếu có nhiều nhà nghiên cứu AI hơn tham dự các cuộc họp của Liên Hợp Quốc và giúp các nhà hoạch định chính sách hiểu tại sao các nhà khoa học AI lại quan tâm đến vậy.

Còn việc Google quyết định không gia hạn hợp đồng với Lầu Năm Góc thì sao?

Có một chút ngạc nhiên vì Maven không thực sự liên quan đến vũ khí tự động hoặc nhắm mục tiêu và dường như tuân thủ với Google được phát hành gần đây Nguyên tắc AI . Nhưng cuộc cạnh tranh để tìm kiếm những tài năng AI hàng đầu rất khốc liệt và tôi nghi ngờ rằng Google không thể mạo hiểm để một số kỹ sư giỏi nhất của mình từ chức để phản đối.

Bạn có nghĩ rằng những cử chỉ như vậy sẽ giúp làm chậm sự phát triển của vũ khí tự động?

năm của tôi bên phải alt

Khi nói đến Maven, Google không tham gia vào việc chế tạo vũ khí thậm chí do con người điều khiển, vũ khí ít tự động hơn nhiều, vì vậy không có mối liên hệ trực tiếp nào ở đó. Thư cam kết tất nhiên là nhắm trực tiếp vào vũ khí tự trị. Nhưng tôi không nghĩ rằng cả hai đều có khả năng ảnh hưởng lớn đến cách quân đội kết hợp AI và quyền tự chủ vào vũ khí của họ, vì vũ khí có thể được chế tạo bởi các nhà thầu quốc phòng. Nếu các công ty công nghệ lớn như Google chọn không hợp tác với quân đội, thì điều đó có thể làm chậm việc kết hợp công nghệ AI vào các chức năng hỗ trợ quan trọng như phân tích dữ liệu, điều mà Maven đang làm. Nhưng cuối cùng các công ty khác sẽ bước vào để lấp đầy khoảng trống. Đã có, chúng tôi đã thấy khác các công ty nói khá công khai rằng họ muốn làm việc với quân đội.

Những nỗ lực này cũng có thể gây ra những hậu quả ngoài ý muốn?

Việc cho rằng nhiều cách sử dụng hợp pháp của AI là không thể chấp nhận được có thể khiến cộng đồng kỹ thuật và chính sách thêm thắt chặt, đồng thời khiến cho việc thảo luận hợp lý trở nên khó khăn hơn. Các kỹ sư tuyệt đối nên từ chối làm việc trong các dự án mà họ không thể hỗ trợ, nhưng khi những động cơ cá nhân đó chuyển sang gây áp lực buộc người khác làm việc trên các ứng dụng an ninh quốc gia quan trọng và hợp pháp, họ sẽ làm tổn hại đến an toàn công cộng và cản trở quyền của các kỹ sư khác theo đuổi lương tâm của chính họ. Các quốc gia dân chủ sẽ cần sử dụng công nghệ AI cho nhiều việc quan trọng và hợp pháp An ninh quốc gia mục đích — tình báo, chống khủng bố, an ninh biên giới, an ninh mạng và quốc phòng.

Liệu Mỹ đã tham gia cuộc chạy đua vũ khí AI với Trung Quốc?

Trung Quốc đã công khai ý định trở thành lãnh đạo toàn cầu trong trí tuệ nhân tạo vào năm 2030 và đang tăng cường nghiên cứu và tuyển dụng những tài năng hàng đầu từ khắp nơi trên thế giới. Mô hình kết hợp quân sự-dân sự của Trung Quốc cũng có nghĩa là nghiên cứu AI sẽ dễ dàng chuyển từ các công ty công nghệ vào quân đội mà không có loại rào cản mà một số nhân viên của Google muốn dựng lên ở Hoa Kỳ. Trung Quốc có đã bắt đầu để đặt nền tảng cho trạng thái giám sát công nghệ được AI trao quyền.

Làm thế nào để hack điện thoại Android bằng cách gửi một liên kết

Nếu chiến thuật của các nhà nghiên cứu AI chỉ thành công trong việc làm chậm việc áp dụng các công cụ AI trong các xã hội dân chủ, cởi mở, coi trọng hành vi đạo đức, thì công việc của họ có thể góp phần mở ra một tương lai nơi công nghệ mạnh nhất nằm trong tay các chế độ ít quan tâm nhất đến đạo đức và pháp quyền.

Trong cuốn sách của mình, bạn chỉ ra rằng việc xác định quyền tự chủ có thể rất khó khăn. Điều này sẽ không làm phức tạp cuộc thảo luận về việc sử dụng AI trong quân sự chứ?

Các tác giả của cam kết chống vũ khí tự động gần đây phản đối vũ khí tự động có thể giết chết một người nhưng thừa nhận rằng một số loại hệ thống tự động sẽ cần thiết để bảo vệ chống lại các loại vũ khí như vậy. Đó là khu vực màu xám, nơi có thể cần quyền tự chủ để bảo vệ trước vũ khí và một người vẫn ở trên tàu, chẳng hạn như nhắm mục tiêu vào máy bay chiến đấu hoặc tàu ngầm, nơi thách thức thực sự nằm ở đó. Việc cân bằng các mục tiêu cạnh tranh là không đơn giản và các nhà hoạch định chính sách sẽ phải đối mặt với những lựa chọn thực sự khi họ áp dụng công nghệ này.

Các kỹ sư AI sẽ có tác động lớn nhất trong việc định hình những lựa chọn này nếu họ tham gia vào một cuộc đối thoại mang tính xây dựng, liên tục với các nhà hoạch định chính sách, thay vì từ chối. Các nhà nghiên cứu AI quan tâm đến cách công nghệ được sử dụng sẽ hiệu quả hơn nếu họ vượt ra khỏi các chiến dịch gây áp lực và bắt đầu giúp giáo dục các nhà hoạch định chính sách về công nghệ AI ngày nay và những hạn chế của nó.

giấu

Công Nghệ ThựC Tế.

Thể LoạI

Chưa Được Phân Loại

Công Nghệ

Công Nghệ Sinh Học

Chính Sách Công Nghệ

Khí Hậu Thay Đổi

Con Người Và Công Nghệ

Thung Lũng Silicon

Tin Học

Tạp Chí Mit News

Trí Tuệ Nhân Tạo

Khoảng Trống

Những Thành Phố Thông Minh

Chuỗi Khối

Câu Chuyện Nổi Bật

Hồ Sơ Cựu Sinh Viên

Kết Nối Cựu Sinh Viên

Tính Năng Mit News

1865

Quan Điểm Của Tôi

77 Đại Lộ Mass

Gặp Gỡ Tác Giả

Hồ Sơ Hào Phóng

Đã Nhìn Thấy Trong Khuôn Viên Trường

Thư Của Cựu Sinh Viên

Tin Tức

Bầu Cử 2020

Có Chỉ Mục

Dưới Mái Vòm

Vòi Chữa Cháy

Truyện Vô Hạn

Dự Án Công Nghệ Đại Dịch

Từ Tổng Thống

Truyện Bìa

Triển Lãm Ảnh

Tạp Chí Tin Tức Mit

Đề XuấT