GTA 5 - The End Of Los Santos 8: Sandstorm Haboob
Điều gì sẽ xảy ra nếu chúng tôi nói với bạn rằng một hacker có thể ra lệnh cho Amazon Echo của bạn mà bạn không hề hay biết - hoặc thậm chí phải thực hiện bất kỳ hack nào như chúng ta thường nghĩ về nó?
Moustaha Alzantot, một tiến sĩ khoa học máy tính ứng cử viên tại Đại học California, Los Angeles nói rằng về mặt lý thuyết, một diễn viên độc hại có thể gửi một âm thanh hoặc tín hiệu cụ thể thường sẽ không được chú ý bởi con người nhưng lại khiến thuật toán học sâu của A.I.
Một ví dụ về một cuộc tấn công sẽ điều khiển thiết bị nhà của bạn, mà bạn không biết điều gì xảy ra với Lít, Nghịch đảo. Nếu bạn đang chơi một số nhạc trên radio và bạn có tiếng Echo đang ngồi trong phòng. Nếu một diễn viên độc hại có thể phát tín hiệu âm thanh hoặc âm nhạc được tạo ra sao cho Echo sẽ hiểu nó là một lệnh, điều này sẽ cho phép kẻ tấn công nói, mở khóa cửa hoặc mua thứ gì đó.
Đó là một cuộc tấn công được gọi là một ví dụ đối nghịch, và đó là điều mà Alzantot và phần còn lại trong nhóm của anh ta nhắm đến, như được mô tả trong bài báo của họ được trình bày gần đây tại hội thảo về Lừa máy của NIPS 2017.
A.I. không khác gì trí thông minh của con người đã tạo ra nó ở nơi đầu tiên: Nó có những sai sót. Các nhà nghiên cứu khoa học máy tính đã tìm ra cách để đánh lừa hoàn toàn các hệ thống này bằng cách thay đổi một chút pixel trong ảnh hoặc thêm tiếng ồn mờ vào các tệp âm thanh. Những điều chỉnh phút này hoàn toàn không thể phát hiện được bởi con người, nhưng hoàn toàn thay đổi những gì A.I. nghe hoặc nhìn thấy
Các thuật toán của Luận án được thiết kế để cố gắng phân loại những gì đã nói để họ có thể hành động theo nó, thuật sĩ Man Man Srivastava, một nhà khoa học máy tính tại UCLA, nói Nghịch đảo. Chúng tôi cố gắng lật đổ quá trình bằng cách điều khiển đầu vào theo cách mà một người ở gần đó nghe thấy ‘không có nhưng máy nghe thấy‘có. Vì vậy, bạn có thể buộc thuật toán diễn giải lệnh khác với những gì đã nói.
Các ví dụ đối nghịch phổ biến nhất là những ví dụ liên quan đến thuật toán phân loại hình ảnh, hoặc điều chỉnh một bức ảnh của một con chó từng hơi quá để tạo ra A.I. Nghĩ rằng nó một cái gì đó hoàn toàn khác nhau. Nghiên cứu của Alzantot và Srivastava đã chỉ ra rằng các thuật toán nhận dạng giọng nói cũng dễ bị các loại tấn công này.
Trong bài báo, nhóm đã sử dụng một hệ thống phân loại giọng nói tiêu chuẩn được tìm thấy trong thư viện nguồn mở của Google, TensorFlow. Hệ thống của họ được giao nhiệm vụ phân loại các lệnh một từ, vì vậy nó sẽ nghe một tệp âm thanh và cố gắng gắn nhãn cho nó bằng từ được nói trong tệp.
Sau đó, họ đã mã hóa một thuật toán khác để thử và đánh lừa hệ thống TensorFlow bằng các ví dụ đối nghịch. Hệ thống này đã có thể đánh lừa phân loại lời nói A.I. 87% thời gian sử dụng thứ được gọi là tấn công hộp đen, trong đó thuật toán không có thậm chí phải biết bất cứ điều gì về thiết kế của thứ mà nó đang tấn công.
Có hai cách để gắn kết các loại tấn công này, theo giải thích của Srivastava. Khi đó, tôi là một kẻ thù biết mọi thứ về hệ thống tiếp nhận, vì vậy bây giờ tôi có thể tạo ra một chiến lược để khai thác kiến thức đó, đây là một cuộc tấn công hộp trắng. Thuật toán của chúng tôi không yêu cầu biết kiến trúc của mô hình nạn nhân, biến nó thành một cuộc tấn công hộp đen.
Rõ ràng các cuộc tấn công hộp đen ít hiệu quả hơn, nhưng chúng cũng là những gì rất có thể sẽ được sử dụng trong một cuộc tấn công ngoài đời thực. Nhóm UCLA đã có thể đạt được tỷ lệ thành công cao tới 87% ngay cả khi họ đã điều chỉnh cuộc tấn công của họ để khai thác điểm yếu trong mô hình của họ. Một cuộc tấn công hộp trắng sẽ hiệu quả hơn trong việc gây rối với loại A.I. Tuy nhiên, các trợ lý ảo như Amazon, Alexa aren, những thứ duy nhất có thể được khai thác bằng các ví dụ đối nghịch.
Máy móc đang dựa vào việc tạo ra một loại suy luận từ âm thanh có thể bị đánh lừa, Srivastava nói. Rõ ràng, Amazon Echo và như vậy là một ví dụ, nhưng có rất nhiều thứ khác mà âm thanh được sử dụng để suy luận về thế giới. Bạn có các cảm biến được liên kết với các hệ thống báo động có âm thanh.
Việc nhận ra rằng các hệ thống trí tuệ nhân tạo có tín hiệu âm thanh cũng dễ bị các ví dụ đối nghịch là một bước tiến xa hơn trong việc nhận ra các cuộc tấn công này mạnh đến mức nào. Mặc dù nhóm không thể thực hiện một cuộc tấn công được phát sóng như Alzantot đã mô tả, công việc trong tương lai của họ sẽ xoay quanh việc xem điều đó khả thi đến mức nào.
Mặc dù nghiên cứu này chỉ thử nghiệm các lệnh thoại và hình thức tấn công hạn chế, nó đã làm nổi bật khả năng có thể có trong một phần lớn công nghệ tiêu dùng. Điều này hoạt động như một bước đệm cho nghiên cứu sâu hơn trong việc bảo vệ chống lại các ví dụ bất lợi và giảng dạy A.I. làm thế nào để phân biệt chúng