Quả Gì, Cả Nhà Thương Nhau - Nhạc Thiếu Nhi Vui Nhộn Hay Nhất
Các android có mơ ước hòa hợp với con người không? Họ sẽ nếu Viện Tiêu chuẩn Anh (BSI) có bất cứ điều gì để nói về nó. Tổ chức tiêu chuẩn kinh doanh hàng đầu Vương quốc Anh đã xuất bản một hướng dẫn phác thảo cách thức robot và hệ thống robot nên tính đến đạo đức.
Theo như tôi biết đây là tiêu chuẩn được công bố đầu tiên cho thiết kế đạo đức của robot, thì Alan Alan Winfield, giáo sư robot tại Đại học West of England, nói Người bảo vệ. Một cách tinh vi hơn một chút so với luật của Asimov, - về cơ bản, nó đặt ra cách đánh giá rủi ro đạo đức của một con robot.
BS 8611: 2016 có tiêu đề hấp dẫn, có giá 158 bảng Anh ($ 208), nhằm vào các nhà sản xuất để giúp họ xem xét đạo đức có thể xuất hiện như thế nào trong các thiết kế robot. Dĩ nhiên, ví dụ nổi tiếng là Isaac Asimov Hồi Ba Quy luật về Robot, Đạo đức nhưng đạo đức người máy trong thế giới thực có thể phải có một cách giải thích phức tạp hơn về đạo đức nhân tạo so với những điều đó.
Tuy nhiên, BSI bắt đầu với những điều cơ bản, như không thiết kế robot để làm tổn thương con người, tài liệu giải thích làm thế nào các khu vực màu xám có thể phát sinh - như gắn kết tình cảm.
BSI không ra lệnh cho dù yêu một robot có ổn hay không, nhưng giải thích rằng đó có thể là một vấn đề cần xem xét. Điều này có thể chứng minh một điểm gây tranh cãi sâu hơn nữa, khi robot tình dục được trang bị trí tuệ nhân tạo tiếp cận thị trường. Tuy nhiên, hiện tại, BSI quan tâm nhiều hơn đến việc trẻ em có thể hình thành liên kết với robot. Trẻ em có thể không thể hiểu rằng các máy móc là những vật vô tri.
Các quy tắc có vẻ như là một điều gì đó ít quan tâm cho đến khi robot trở nên có ý thức, nhưng những quyết định này cần phải được đưa ra sớm hơn là muộn hơn. Đầu tháng này, bộ trưởng giao thông Đức Đức đã đưa ra ba quy tắc sẽ đưa ra để xác định các quy định của quốc gia về xe hơi tự lái. Các máy sẽ không thể phân biệt đối xử dựa trên tuổi, ví dụ, có nghĩa là các nhà sản xuất không được lập trình những chiếc xe không người lái để lái vào những nhóm người cụ thể, nếu nó có thể chọn trong trường hợp khẩn cấp.
Những mối quan tâm như thế này sẽ xuất hiện nhiều hơn khi thời gian trôi qua và A.I. các nhà phát triển bắt đầu vật lộn với cách dạy robot hệ thống giá trị nhất định.