Robot này đã học được cách nói 'Không' với nhu cầu của con người

$config[ads_kvadrat] not found

Cat'n'Robot-| Rank 100-Wave 12000 | Ep.1

Cat'n'Robot-| Rank 100-Wave 12000 | Ep.1
Anonim

Rô bốt, giống như con người, phải học khi nói Nói không. Nếu một yêu cầu là không thể, sẽ gây hại hoặc làm chúng mất tập trung trong nhiệm vụ, thì đó là lợi ích tốt nhất của 'bot và con người của anh ấy cho một ngoại giao không, cám ơn là một phần của cuộc trò chuyện

Nhưng khi nào thì máy nên nói lại? Và trong điều kiện nào? Các kỹ sư đang cố gắng tìm ra cách thấm nhuần ý thức này về cách thức và thời điểm để thách thức các đơn đặt hàng trong hình người.

Xem robot Nao này từ chối đi về phía trước, biết rằng làm như vậy sẽ khiến anh ta rơi ra khỏi cạnh bàn:

Công cụ đơn giản, nhưng chắc chắn cần thiết để hoạt động như một kiểm tra về lỗi của con người. Các nhà nghiên cứu Gordon Briggs và Matthias Scheutz của Đại học Tufts đã phát triển một thuật toán phức tạp cho phép robot đánh giá những gì con người đã yêu cầu anh ta làm, quyết định liệu anh ta có nên làm điều đó hay không và trả lời thích hợp. Nghiên cứu được trình bày tại một cuộc họp gần đây của Hiệp hội vì sự tiến bộ của trí tuệ nhân tạo.

Robot tự hỏi mình một loạt các câu hỏi liên quan đến việc liệu nhiệm vụ có khả thi hay không. Tôi có biết làm thế nào để làm điều đó? Tôi có thể làm điều đó ngay bây giờ không? Tôi có thể làm bình thường? Tôi có thể làm điều đó ngay bây giờ không? Tôi có bắt buộc dựa trên vai trò xã hội của mình để làm điều đó không? Nó có vi phạm bất kỳ nguyên tắc quy phạm để làm điều đó?

Kết quả là một robot dường như không chỉ hợp lý mà, một ngày, thậm chí là khôn ngoan.

Chú ý cách Nao thay đổi suy nghĩ về việc đi về phía trước sau khi con người hứa sẽ bắt được anh ta. Thật dễ dàng để hình dung ra một kịch bản khác, trong đó robot nói, không có cách nào, tại sao tôi phải tin tưởng bạn?

Nhưng Nao là một sinh vật xã hội, theo thiết kế. Để làm hài lòng con người nằm trong DNA của anh ta, vì vậy được cung cấp thông tin mà con người có ý định bắt anh ta, anh ta mù quáng bước về phía vực thẳm. Chắc chắn, nếu con người đánh lừa lòng tin của anh ta, anh ta sẽ bị lừa, nhưng dù sao anh ta cũng tin tưởng. Đó là cách Nao Lát.

Khi những người bạn đồng hành của robot trở nên tinh vi hơn, các kỹ sư robot sẽ phải vật lộn với những câu hỏi này. Các robot sẽ phải đưa ra quyết định không chỉ về việc giữ gìn sự an toàn của chính họ, mà còn cho các câu hỏi đạo đức lớn hơn. Nếu con người yêu cầu robot giết thì sao? Gian lận? Để tiêu diệt một robot khác?

Ý tưởng về đạo đức máy móc không thể tách rời khỏi trí thông minh nhân tạo - ngay cả những chiếc xe không người lái trong tương lai của chúng ta cũng sẽ phải được thiết kế để đưa ra lựa chọn sinh tử thay cho chúng ta. Cuộc trò chuyện đó nhất thiết sẽ phức tạp hơn là chỉ đưa ra các đơn hàng diễu hành.

$config[ads_kvadrat] not found