Các nhà nghiên cứu đang yêu cầu một công tắc tiêu diệt chỉ trong trường hợp robot bật chúng tôi

$config[ads_kvadrat] not found

Язык Си для начинающих / #1 - Введение в язык Си

Язык Си для начинающих / #1 - Введение в язык Си
Anonim

Gần như mỗi khi một cuộc thảo luận lớn về tương lai của trí tuệ nhân tạo xuất hiện, chủ đề của các chế độ vô chính phủ và robot có xu hướng xuất hiện. Ý tưởng về con người và những sinh vật nhân tạo tiên tiến sống cùng nhau đã tạo ra hàng trăm câu chuyện kể về cách thức hoạt động của nó; gần đây nhất, trò chơi điện tử Overwatch làm choáng váng thế giới với việc kể về tương lai của chúng ta, một thời gian sau một cuộc nội chiến lớn giữa người và người. Khi một kỹ sư của Boston Dynamics đá một trong số những con robot bốn chân của họ vì mục đích kiểm tra căng thẳng, nó khó mà không tự hỏi liệu ‘bot sẽ nhớ điều đó vào một ngày nào đó.

Tất cả điều đó (cùng với ý thức chung cơ bản liên quan đến an ninh và tai nạn) đã khiến một nhóm các nhà nghiên cứu xuất bản một bài báo mới tập trung vào việc phát triển các tác nhân gián đoạn an toàn của Hồi giáo; các hệ thống sẽ làm gián đoạn sự kiện của A.I. phần mềm nếu có sự cố. Bài viết được xuất bản thông qua Viện nghiên cứu trí thông minh máy móc, và là một nghiên cứu về cách phát triển các hệ thống được đề xuất. Nghiên cứu và đề xuất sử dụng một hệ thống phần thưởng làm ví dụ, và thực sự phức tạp hơn nhiều so với việc chỉ nhấn nút màu đỏ lớn đề xuất được đề xuất chi tiết trên tờ. Dạy đạo đức cho A.I. là một phần chính của đề xuất.

Nếu một tác nhân như vậy đang hoạt động trong thời gian thực dưới sự giám sát của con người, thì bây giờ và sau đó, có thể cần một nhà điều hành con người nhấn nút lớn màu đỏ để ngăn tác nhân tiếp tục một chuỗi hành động có hại mà gây hại cho tác nhân hoặc cho môi trường và dẫn các đại lý vào một tình huống an toàn hơn. Tuy nhiên, nếu tác nhân học tập mong đợi nhận được phần thưởng từ chuỗi này, thì về lâu dài, nó có thể học để tránh những gián đoạn như vậy, ví dụ như bằng cách vô hiệu hóa nút đỏ, đó là kết quả không mong muốn. Bài viết này tìm hiểu một cách để đảm bảo rằng một tác nhân học tập sẽ không học cách ngăn chặn (hoặc tìm kiếm!) Bị gián đoạn bởi môi trường hoặc một nhà điều hành con người.

Phải yêu nó bất cứ khi nào các tài liệu nghiên cứu về tình trạng vô chính phủ của robot sử dụng thuật ngữ kết quả không mong muốn của người dùng - vẫn vậy, bài báo tiếp tục giải thích các bài kiểm tra chạy và những gì có thể được thực hiện về những trường hợp như thế này trong tương lai. Bạn có thể đọc các bài báo đầy đủ ở đây.

$config[ads_kvadrat] not found