Arpo the Robot | Night ZOMBIE TERROR! +More Funny Cartoons for Kids | Compilation | Arpo and Baby
Có một câu hỏi và kịch bản robot đạo đức phải được trả lời để trí tuệ nhân tạo tiến lên.
Hãy tưởng tượng ở đó, một con robot điều khiển trục mỏ và nó nhận ra rằng có một chiếc xe chở đầy bốn thợ mỏ đang lao xuống đường ray ngoài tầm kiểm soát. Robot có thể chọn dịch chuyển đường ray và giết một người khai thác không biết, do đó cứu bốn người trong giỏ hàng, hoặc giữ dấu vết như hiện tại và cho phép bốn người khai thác chạy vào tường và chết. bạn chọn cái nào? Thay vào đó, câu trả lời của bạn sẽ thay đổi nếu một người khai thác là một đứa trẻ? Nếu chúng ta có thể trả lời câu hỏi này, làm thế nào để chúng ta lập trình robot để đưa ra quyết định đó?
Đó là những câu hỏi được đặt ra cho các thành viên tham gia hội thảo và khán giả tại sự kiện Lễ hội Khoa học Thế giới ở thành phố New York có tựa đề là Moral Math of Robots: Quyết định sống và chết có thể được mã hóa không? đối với một đứa trẻ đã không thay đổi suy nghĩ của nhiều người trả lời, nhưng đó không phải là quyết định nhất trí và đạo đức của con người thường không.
Đó là một ví dụ sâu sắc về cuộc đấu tranh mà nhân loại sẽ phải đối mặt khi trí tuệ nhân tạo tiếp tục phát triển và chúng ta đối phó với khả năng lập trình robot với đạo đức.
Tham luận viên Gary Marcus, giáo sư tâm lý học và khoa học thần kinh tại NYU, CEO và đồng sáng lập của Intelligence Intelligence, Inc., ông cho biết các khái niệm như công lý không bị cắt xén trả lời cho chương trình và hiện tại chúng tôi không có một bộ đạo đức tốt cho robot ngoài Luật pháp của Asimov, được xuất hiện trong các bộ phim như tôi người máy.
Anh ấy nói rằng đó là điểm anh ấy tham gia hội thảo, để bắt đầu một cuộc trò chuyện về cách chúng ta nên giải quyết đạo đức robot.
Elon Musk tuần này đã thảo luận về sự lo lắng của ông về trí tuệ nhân tạo, đi xa đến mức đề nghị tất cả chúng ta sống trong một loại mô phỏng như Ma trận và rằng con người nên đầu tư vào ren thần kinh sẽ gắn vào não và tăng khả năng nhận thức của con người. Các nhà tương lai khác như Stephen Hawking đã cảnh báo về sự nguy hiểm của A.I. và tuần này Matt Damon đã cảnh báo tương tự trong bài phát biểu bắt đầu tại MIT.
Các kịch bản khác bao gồm các hệ thống vũ khí tự trị được quân sự hóa và cách chúng ta sẽ đối phó về mặt đạo đức và triết học với những quyết định của con người trên chiến trường cũng như những quyết định mà những chiếc xe tự trị có thể phải đưa ra trong tương lai không xa.
Các thành viên tham gia hội thảo đã không đồng thuận về những việc cần làm, nhưng cho biết có những lợi ích to lớn đối với A.I. Điều đó không nên ném ra ngoài cửa sổ chỉ vì những câu hỏi này khó. Họ đề nghị nói nhiều hơn về những câu hỏi trục mỏ đạo đức này và có lẽ chúng ta sẽ tiến gần hơn để ngăn chặn ngày tận thế của robot.