Musk, Wozniak, and Hawking Push to Stop AI Warfare
Trong nhiều thập kỷ, AK-47 là cỗ máy giết chóc được lựa chọn ở nhiều nơi bụi bặm trên thế giới vì nó rẻ tiền, bền bỉ và có mặt khắp nơi. Những yếu tố tương tự, những người ký lập luận của một bức thư ngỏ được phát hành hôm thứ Hai từ Viện Tương lai của Cuộc sống, là lý do vũ khí tự trị đầy nguy hiểm. Nhưng điều làm nên sự khác biệt của vũ khí trí tuệ nhân tạo với Kalashnikov là cỗ máy tự trị có thể chọn và tấn công các mục tiêu mà không cần sự can thiệp của con người - mà, trong tay kẻ xấu, có thể gây ra sự tàn bạo lớn hơn bất kỳ khẩu súng trường nào.
Các bên ký kết có công việc của họ cắt ra cho họ. Là con người, chúng ta, nói chung, phản ứng tốt hơn nhiều so với suy nghĩ. Những người chơi chính đã chậm chạp hạ vũ khí hạt nhân của chúng ta (và chế tạo máy bay không người lái tự trị, theo suy nghĩ, sẽ yêu cầu một phần nhỏ của máy móc tạo ra một nuke); ở những nơi khác, các mỏ đất vẫn còn rải rác trên các chiến trường hàng chục năm tuổi. Khi một công nghệ đứng ra cách mạng hóa chiến tranh - có thể là thuốc súng hoặc dreadnough hải quân hoặc uranium được làm giàu - gần như không bao giờ không phải là một cuộc chạy đua vũ trang.
FLI tạo ra sự khác biệt giữa máy bay không người lái mà chúng ta có bây giờ, được điều khiển từ xa bằng bàn tay con người, và một robot được bật và để lại cho các thiết bị giết người của chính nó. Việc tạo ra thứ hai sẽ châm ngòi cho một cuộc chạy đua vũ trang AI toàn cầu mà FLI lập luận, và như lịch sử của Kalashnikov chứng minh, sẽ không kết thúc tốt đẹp:
Sẽ chỉ còn là vấn đề thời gian cho đến khi chúng xuất hiện trên thị trường chợ đen và trong tay những kẻ khủng bố, những kẻ độc tài muốn kiểm soát tốt hơn dân chúng của mình, các lãnh chúa muốn duy trì việc thanh lọc sắc tộc, v.v. Vũ khí tự trị là lý tưởng cho các nhiệm vụ như ám sát, gây bất ổn các quốc gia, khuất phục dân số và giết chết có chọn lọc một nhóm dân tộc cụ thể. Do đó, chúng tôi tin rằng một cuộc chạy đua vũ trang AI quân sự sẽ không có lợi cho nhân loại. Có nhiều cách mà AI có thể làm cho chiến trường an toàn hơn cho con người, đặc biệt là dân thường, mà không tạo ra các công cụ mới để giết người.
Đây là một số shit nặng. Và những cái tên đằng sau lời cảnh báo này không phải là những tên lửa Skynet đáng kinh ngạc của bạn - họ là những người sáng tạo, kỹ sư, nhà khoa học và nhà triết học đã giúp định hình công nghệ của chúng ta ngày nay. Một lát tên bao gồm: Apple Steve Wozniak, Skype's Jaan Tallinn, nhà vật lý Harvard Lisa Randall, một người của các nhà nghiên cứu và người máy AI - bao gồm Stuart Russell, Barbara J. Grosz, Tom Mitchell, Eric Horvitz - nữ diễn viên Talulah Riley, Noam Chomsky, Stephen Hawking.
Hawking có một chút bi quan gần đây, cũng nhắc lại những dự đoán của ông về những nguy hiểm khi gặp phải cuộc sống ngoài trái đất. Anh ta cũng sẽ trả lời các câu hỏi về bức thư này và tương lai của công nghệ trên Reddit tuần này - chúng ta có thể không kiểm soát được người ngoài hành tinh thù địch, nhưng chúng ta có thể đặt vấn đề lên các nhà khoa học đi đầu trong công nghệ này để giữ yếu tố con người phía trước và trung tâm của sự đổi mới của họ.
Bạn cũng có thể thêm tên của bạn vào bức thư.