Bé Shark Khiêu vũ | Hát và nhảy! | Songs động vật | PINKFONG Songs for Children
Khi nói đến việc xác định các mối đe dọa hiện sinh do đổi mới công nghệ, trí tưởng tượng phổ biến triệu tập tầm nhìn của Kẻ hủy diệt, Ma trận và Tôi người máy - dystopias cai trị bởi các chúa tể robot, người khai thác và tiêu diệt con người. Trong những tương lai đầu cơ này, sự kết hợp giữa siêu trí tuệ và ý định xấu xa khiến máy tính tiêu diệt hoặc làm nô lệ loài người.
Tuy nhiên, một nghiên cứu mới cho thấy rằng đó sẽ là các ứng dụng tầm thường của A.I. điều đó sẽ dẫn đến hậu quả xã hội nghiêm trọng trong vài năm tới. Báo cáo - Sử dụng độc hại trí tuệ nhân tạo của Hồi giáo - được tác giả bởi 26 nhà nghiên cứu và nhà khoa học từ các trường đại học ưu tú và các bể nghĩ tập trung vào công nghệ, phác thảo những cách mà A.I. công nghệ đe dọa an ninh vật lý, kỹ thuật số và chính trị của chúng tôi. Để đưa nghiên cứu của họ vào trọng tâm, nhóm nghiên cứu chỉ xem xét công nghệ đã tồn tại hoặc sẽ hợp lý trong vòng năm năm tới.
Những gì nghiên cứu tìm thấy: A.I. các hệ thống sẽ có khả năng mở rộng các mối đe dọa hiện có, giới thiệu những mối đe dọa mới và thay đổi tính chất của chúng. Luận điểm của báo cáo là những tiến bộ công nghệ sẽ làm cho những hành vi sai trái nhất định trở nên dễ dàng và đáng giá hơn. Các nhà nghiên cứu tuyên bố rằng những cải tiến trong A.I. sẽ giảm lượng tài nguyên và chuyên môn cần thiết để thực hiện một số cuộc tấn công mạng, hạ thấp hiệu quả các rào cản đối với tội phạm:
Chi phí của các cuộc tấn công có thể được hạ thấp bằng cách sử dụng các hệ thống AI có thể mở rộng để hoàn thành các nhiệm vụ thường đòi hỏi lao động, trí thông minh và chuyên môn của con người. Một hiệu ứng tự nhiên sẽ là mở rộng tập hợp các diễn viên có thể thực hiện các cuộc tấn công cụ thể, tốc độ họ có thể thực hiện các cuộc tấn công này và tập hợp các mục tiêu tiềm năng.
Báo cáo đưa ra bốn khuyến nghị:
1 - Các nhà hoạch định chính sách nên phối hợp chặt chẽ với các nhà nghiên cứu kỹ thuật để điều tra, ngăn chặn và giảm thiểu các hành vi sử dụng độc hại tiềm tàng của AI.
2 - Các nhà nghiên cứu và kỹ sư về trí tuệ nhân tạo nên coi trọng tính chất sử dụng kép của công việc của họ, cho phép cân nhắc sử dụng sai để ảnh hưởng đến các ưu tiên và quy tắc nghiên cứu và chủ động tiếp cận với các tác nhân có liên quan khi có thể thấy trước các ứng dụng có hại.
3 - Thực hành tốt nhất nên được xác định trong các lĩnh vực nghiên cứu với các phương pháp trưởng thành hơn để giải quyết các mối quan tâm sử dụng kép, như bảo mật máy tính và được nhập khẩu khi áp dụng cho trường hợp AI.
4 - Tích cực tìm cách mở rộng phạm vi các bên liên quan và các chuyên gia tên miền tham gia thảo luận về những thách thức này
A.I. có thể làm cho lừa đảo hiện tại thông minh hơn: ví dụ, các cuộc tấn công lừa đảo giáo, trong đó các nghệ sĩ lừa đảo làm bạn mục tiêu, thành viên gia đình hoặc đồng nghiệp của mục tiêu để có được lòng tin và trích xuất thông tin và tiền bạc, đã là một mối đe dọa. Nhưng ngày nay, họ đòi hỏi một sự chi tiêu đáng kể về thời gian, năng lượng và chuyên môn. Như A.I. hệ thống tăng độ tinh vi, một số hoạt động cần thiết cho một cuộc tấn công lừa đảo giáo, như thu thập thông tin về mục tiêu, có thể được tự động hóa. Một kẻ lừa đảo sau đó có thể đầu tư ít năng lượng hơn đáng kể vào mỗi lần xay và nhắm vào nhiều người hơn.
Và nếu những kẻ lừa đảo bắt đầu tích hợp A.I. vào các tác phẩm trực tuyến của họ, có thể không thể phân biệt thực tế với mô phỏng. Báo cáo cho biết, AI Khi AI phát triển hơn nữa, các chatbot thuyết phục có thể khơi gợi niềm tin của con người bằng cách thu hút mọi người vào các cuộc đối thoại dài hơn và cuối cùng có thể giả trang trực quan như một người khác trong một cuộc trò chuyện video, báo cáo cho biết.
Chúng tôi đã thấy hậu quả của video do máy tạo ra dưới dạng Deepfakes. Khi các công nghệ này trở nên dễ tiếp cận và thân thiện với người dùng hơn, các nhà nghiên cứu lo ngại rằng các diễn viên xấu sẽ phổ biến các hình ảnh, video và tệp âm thanh bịa đặt. Điều này có thể dẫn đến các chiến dịch phỉ báng rất thành công với sự phân nhánh chính trị.
Ngoài bàn phím: Và sự cố có thể xảy ra là giới hạn trên Internet. Khi chúng ta tiến tới việc áp dụng các phương tiện tự trị, tin tặc có thể triển khai các ví dụ đối nghịch để đánh lừa những chiếc xe tự lái để đánh lạc hướng môi trường xung quanh. Báo cáo cho biết, một hình ảnh của một dấu hiệu dừng với một vài pixel được thay đổi theo những cách cụ thể, mà con người sẽ dễ dàng nhận ra đó vẫn là hình ảnh của một dấu hiệu dừng, tuy nhiên có thể bị phân loại nhầm thành một thứ khác hoàn toàn bởi một hệ thống AI, báo cáo cho biết.
Các mối đe dọa khác bao gồm máy bay không người lái tự động với phần mềm nhận dạng khuôn mặt tích hợp cho mục đích nhắm mục tiêu, các cuộc tấn công DOS phối hợp bắt chước hành vi của con người và các chiến dịch làm mất tự động, siêu cá nhân hóa.
Báo cáo khuyến nghị các nhà nghiên cứu xem xét các ứng dụng độc hại tiềm năng của A.I. đồng thời phát triển các công nghệ này. Nếu các biện pháp phòng thủ thích hợp được đưa ra, thì chúng ta có thể đã có công nghệ để tiêu diệt loài người, không cần robot giết người.