Các kỹ sư có chịu trách nhiệm pháp lý cho các robot giết người không?

$config[ads_kvadrat] not found

Язык Си для начинающих / #1 - Введение в язык Си

Язык Си для начинающих / #1 - Введение в язык Си
Anonim

Automatons và android đã tàn sát con người hư cấu kể từ khi nhà văn người Séc Karel Čapek phổ biến thuật ngữ Robot robot trong trò chơi khoa học viễn tưởng năm 1920 của mình Rô bốt phổ thông Rossum. Čapek đã khám phá một vấn đề cốt lõi của rất nhiều cuộc tranh luận hiện đại: Ai chịu trách nhiệm cho một robot giết chết? Nhà văn người Séc dường như ngón tay Rossum, kỹ sư Frankenstein của ông, nhưng thực tế pháp lý phức tạp hơn một chút.

Công nghệ thay đổi, nhưng ý định vẫn là tất cả.

Nếu một kỹ sư tạo ra một đội quân tử thần với mục đích rõ ràng là xử lý cái chết (nghĩ: đám Ultron, thì anh ta hoặc cô ta phải chịu trách nhiệm cho những gì xảy ra khi chúng mạnh lên. Theo 18 Bộ luật Hoa Kỳ § 1111, tội giết người là:

Sự giết người trái pháp luật của một con người với ác ý đã lường trước. Mỗi vụ giết người liên quan đến độc dược, nằm chờ đợi, hoặc bất kỳ hành vi giết người cố ý, cố ý, độc hại và cố ý nào khác đã giết chết hoặc tấn công từ một thiết kế được dự tính trước một cách bất hợp pháp và độc hại để gây ra cái chết của bất kỳ con người nào khác ngoài anh ta bị giết, là giết người ở mức độ đầu tiên.

Bất kỳ loại nào khác, Tử thần chết chóc mở rộng cửa sổ cho robot giết người, là một loại chất độc cơ học.

Ngay cả khi người xây dựng bot giả định lập trình nguy hiểm - mặc dù không rõ ràng Kẻ giết người - cỗ máy, đã có tiền lệ rằng, anh ấy phải chịu trách nhiệm cho bất kỳ kết quả gây chết người nào. Khi những con chó bảo vệ tấn công người ngoài cuộc một cách nguy hiểm, các hội thẩm đã phát hiện ra những người chủ chó có tội giết người. Và điều gì, ngoài thực tế, một phương pháp liên quan đến mã lệnh và các lệnh nói khác, là sự khác biệt giữa huấn luyện robot và huấn luyện chó?

Nếu các robot được vũ khí hóa thông minh hơn một chút so với Người chăn cừu Đức - giả sử, một bot-bot hoàn toàn tự trị - Rossum vẫn không thoát ra khỏi tầm ngắm. Các nhóm như Tổ chức Theo dõi Nhân quyền dự đoán rằng các chỉ huy hoặc nhà điều hành có thể bị kết tội nếu họ cố tình triển khai vũ khí tự trị hoàn toàn để thực hiện tội phạm. Các nhóm này - và các tổ chức nhân quyền nói chung - có thể có quan điểm phi lý về hệ thống tư pháp, nhưng một trong những lý do thuyết phục để giữ cho Máy bay không người lái của Predator được điều khiển từ xa là để đảm bảo rằng các cuộc tấn công đến từ Hoa Kỳ Quân đội vì vậy các nhà khoa học quân sự quyên tặng kết thúc kỳ nghỉ châu Âu của họ với một tour du lịch được trả toàn bộ chi phí ở Hague.

Vấn đề trở nên nhẹ nhàng hơn khi các robot được lắp ráp cho một nhiệm vụ tạo ra một trục quay đẫm máu. Trong câu chuyện Čapek, Rossum đã lắp ráp robot của mình để lao động chân tay chứ không phải giết người. Nhưng giết người đã xảy ra (không phải động từ không chuyển tiếp). Rossum bị xét xử tại tòa án, việc anh ta không tuân thủ luật kiểm soát chất lượng-chém-Asimov, sẽ khiến anh ta gặp rắc rối. Khi một sản phẩm bị lỗi giết chết thường dân, nhà sản xuất trả tiền, đó là những gì các nhà tiên tri đang nói sẽ xảy ra với Google nếu những chiếc xe tự động của họ vi phạm luật. Không cần phải nói, một số công ty công nghệ có luật sư xem xét tiếp xúc trách nhiệm của họ.

Thực tế là robot có thể được tính phí mang lại cơ hội cho nhiều hoạt động ném xe buýt. Câu hỏi tâm trí pháp lý tốt nhất của chúng tôi đang cố gắng trả lời? Ai nên lên dây cót trong những trục đó.

$config[ads_kvadrat] not found