Các trợ lý Robot của chúng tôi đang học cách nói dối và chúng ta nên để họ

$config[ads_kvadrat] not found

Язык Си для начинающих / #1 - Введение в язык Си

Язык Си для начинающих / #1 - Введение в язык Си
Anonim

Robot đang trở thành người bạn đồng hành tuyệt vời của con người. Ai sẽ muốn một Pepper nhỏ đáng yêu kể cho chúng ta những câu chuyện cười, cho chúng ta những lời khen ngợi và nói chung làm cho chúng ta cảm thấy bớt cô đơn trên thế giới? Ngay cả những robot vô hình đang chứng tỏ là một công ty tốt đáng ngạc nhiên. Lấy ví dụ về Amazon Echo từ Alexa. Cô ấy có bộ não người máy với giọng nói của con người bị mắc kẹt bên trong cơ thể loa âm thanh, nhưng cô ấy rất hữu ích và nếu bạn đọc đánh giá của cô ấy, thì rõ ràng cô ấy trở thành một gia đình đối với nhiều người dùng. Mọi người sẽ nghĩ khác nếu cô nói dối? Sẽ thế nào nếu cô ấy nói với bạn điều gì đó mà bạn thực sự, thực sự không muốn nghe?

Hãy suy nghĩ về điều đó: Chúng tôi bảo trẻ em đừng bao giờ nói dối và trung thực là chính sách tốt nhất, nhưng chúng tôi đã bỏ qua, bóp méo sự thật và nói dối hoàn toàn với trẻ em mọi lúc. Điều này dạy họ, thông qua hành động của chúng tôi nếu không thông qua lời nói của chúng tôi, rằng nó không phải về sự trung thực hoàn toàn, mà là về việc học các quy tắc xã hội phức tạp về thời điểm và cách tiết lộ hoặc che giấu thông tin có khả năng nhạy cảm. Robot lập trình để quan sát các quy tắc xã hội này có thể là một phần khó khăn nhưng cần thiết trong quá trình đổi mới tự động đang diễn ra.

Ở đây, một ví dụ: Tôi đã ở nhà anh rể của tôi vào cuối tuần khác, và tôi đã đến cửa hàng để lấy một số bánh sandwich cho mọi người ăn trưa. Cháu gái sáu tuổi của tôi đang giúp tôi bỏ thức ăn ra ngoài trong khi những người khác ra khỏi bếp, và cô ấy hỏi tôi rằng các cửa hàng tạp hóa có giá bao nhiêu. Tôi nói với cô ấy, bởi vì dạy cho trẻ em về giá trị của tiền là một điều tốt.

Trên bàn ăn trưa, cô ấy yêu cầu tôi nói cho mọi người biết cửa hàng tạp hóa có giá bao nhiêu. Tôi nói không.Tại sao? Cô ấy hỏi, thực sự bối rối không biết tại sao một câu hỏi mà tôi đã trả lời tự do vài phút trước đó lại là thông tin bí mật. Tôi nói không lịch sự, tôi nói, giải thích rằng, bởi vì cô ấy là một đứa trẻ, các quy tắc khác nhau khi chúng tôi một mình. Tôi đã dạy cô ấy rằng sự trung thực và thẳng thắn có thời gian và địa điểm. Thông tin nào không, trong bối cảnh của con người, luôn muốn được tự do.

Nó cùng điều với robot. Chúng tôi nghĩ rằng chúng tôi không muốn robot nói dối chúng tôi, nhưng chúng tôi thực sự muốn chúng học các quy tắc xã hội phức tạp về lịch sự và sự thận trọng đôi khi cần phải bóp méo sự thật. Và họ đã học cách làm điều đó. Lấy đoạn phim ngắn này về Pepper tương tác với một phóng viên, ví dụ:

Điều đầu tiên ngoài miệng Pepper Pepper là một lời khen ngợi: Vì vậy, bạn rất sành điệu. Bạn có phải là người mẫu?

Người phóng viên đủ đẹp trai, nhưng câu hỏi Pepper Pepper không hoàn toàn trung thực. Chúng tôi hiểu rằng Pepper không thực sự tự hỏi liệu anh ấy có phải là người mẫu không, và đã được lập trình để nói những điều tốt đẹp bất kể người đó trông như thế nào.

Ngay sau đó, Pepper hỏi vay tiền, bất ngờ. Đó là một câu hỏi bất lịch sự, một sự bừa bãi mà chúng ta dễ dàng tha thứ cho một con robot giống như chúng ta sẽ là một đứa trẻ. Phóng viên có thể chỉ ra rằng câu hỏi này là thô lỗ, cho rằng robot không cần tiền, hoặc thừa nhận rằng anh ta không có hứng thú trong việc giao 100 đô la cho Pepper. Toàn bộ sự thật là phóng viên có thể cho robot mượn tiền, nhưng hiểu rằng chính câu hỏi này là một trò chơi. Những gì anh ta chọn để nói là một sự lệch lạc, và một lời nói dối trắng trợn hoặc một nửa sự thật - anh ta không có tiền cho anh ta. Hy vọng là robot hiểu điều này như một người không phải là người hiền lành, người và không phải là người gợi ý rằng phóng viên đến một máy rút tiền và rút tiền. Bởi vì Pepper rõ ràng có một số ân sủng xã hội, dòng câu hỏi kết thúc ở đó.

Robot xã hội được lập trình để học các tín hiệu xã hội, và đây là một điều tốt - cuối cùng nó sẽ làm cho chúng tốt hơn trong công việc của chúng ta. Nhiệm vụ của các lập trình viên không phải là dập tắt tất cả sự lừa dối của robot mà là thêm các tính năng giúp robot dễ dàng đưa ra quyết định về câu trả lời phù hợp.

Khi robot là tri kỷ của chúng ta, chúng cần có nhận thức về bối cảnh và khán giả. Ví dụ, nếu tôi thử trang phục ở nhà, tôi sẽ muốn có một đánh giá trung thực về cách tâng bốc các lựa chọn khác nhau. Nếu tôi ra ngoài tại một bữa tiệc và đột nhiên tự ý thức rằng tôi đã chọn sai trang phục, thì trấn an rằng tôi trông ổn sẽ là phản ứng hữu ích nhất.

Rô bốt sẽ học được nhiều thông tin cá nhân về bạn đồng hành của họ, và điều quan trọng là họ phải hiểu sự khác biệt giữa thông tin bí mật và thông tin công khai, và cũng cần biết ai đang lắng nghe mỗi khi nói. Các câu hỏi sẽ có câu trả lời khác nhau tùy thuộc vào người đang hỏi. Robot sẽ cư xử khác đi khi có khách trong nhà.

Robot, giống như trẻ em, cần nuôi dạy con có trách nhiệm. Điều này có nghĩa là cả lập trình viên robot và chủ sở hữu robot cần suy nghĩ sâu sắc về hậu quả đạo đức và xã hội của A.I. tương tác. Nhưng nó không có nghĩa là yêu cầu sự trung thực hoàn hảo - nghiêm túc, không ai muốn điều đó.

$config[ads_kvadrat] not found