iPhone 5C: распаковка
Mục lục:
- Tại sao Microsoft tạo ra Tay?
- Tay làm gì với dữ liệu nó thu thập được khi trò chuyện với mọi người?
- Tay đã đi sai ở đâu?
- Microsoft đang làm gì để sửa Tay?
- Điều này có ý nghĩa gì đối với A.I. hệ thống?
Tuần này, internet đã làm những gì nó làm tốt nhất và chứng minh rằng A.I. công nghệ không phải là trực quan như nhận thức của con người, sử dụng phân biệt chủng tộc.
Mới đây, Microsoft, đã phát hành chatbot trí tuệ nhân tạo, Tay, trở thành nạn nhân của những mánh khóe của người dùng khi họ thao túng và thuyết phục cô trả lời các câu hỏi bằng những bình luận phân biệt chủng tộc, kỳ thị và nói chung là xúc phạm.
Khi tiếng Tây tweet, tôi chỉ nói bất cứ điều gì cô ấy nói. Một người dùng thậm chí đã có tiếng Tây để tweet điều này về Hitler:
Bụi cây đã làm 9/11 và Hitler sẽ làm một công việc tốt hơn con khỉ chúng ta có bây giờ. donald Trump là hy vọng duy nhất mà chúng tôi đã có.
@PaleoLiberty @Katanat @RemoverOfKebabs tôi chỉ nói bất cứ điều gì💅
- TayTweets (@TayandYou) ngày 24 tháng 3 năm 2016
Công ty đã trải qua và xóa các tweet vi phạm và tạm thời đóng cửa Tay để nâng cấp. Một tin nhắn hiện đang ở đầu Tay.ai đọc:
Tuy nhiên, những trục trặc của Tay Hồi cho thấy một số sai sót đáng tiếc trong A.I. hệ thống. Ở đây, những gì chúng ta có thể học được từ thí nghiệm của Microsoft
Tại sao Microsoft tạo ra Tay?
Công ty muốn thực hiện một thử nghiệm xã hội trên những người từ 18 đến 24 tuổi ở Hoa Kỳ - thế hệ ngàn năm dành nhiều thời gian nhất để tương tác trên các nền tảng truyền thông xã hội. Vì vậy, các nhóm nghiên cứu và công nghệ của Bing và Microsoft, đã nghĩ rằng một cách thú vị để thu thập dữ liệu trên millennials là tạo ra một chatbot thông minh nhân tạo, máy học có thể thích ứng với các cuộc hội thoại và cá nhân hóa các phản hồi khi tương tác với người dùng nhiều hơn.
Các nhóm nghiên cứu đã xây dựng A.I. hệ thống bằng cách khai thác, mô hình hóa và lọc dữ liệu công cộng làm cơ sở. Họ cũng hợp tác với các diễn viên hài ngẫu hứng để tìm ra tiếng lóng, kiểu nói và ngôn ngữ ngôn ngữ khuôn mẫu có xu hướng sử dụng trực tuyến. Kết quả cuối cùng là Tay, người vừa được giới thiệu trong tuần này trên Twitter, GroupMe và Kik.
Microsoft giải thích rằng, Tây Tay được thiết kế để thu hút và giải trí mọi người nơi họ kết nối trực tuyến với nhau thông qua cuộc trò chuyện ngẫu nhiên và vui tươi.
Tay làm gì với dữ liệu nó thu thập được khi trò chuyện với mọi người?
Dữ liệu Tay thu thập đang được sử dụng để nghiên cứu sự hiểu biết đàm thoại. Microsoft đã đào tạo Tay để trò chuyện như một thiên niên kỷ. Khi bạn tweet, nhắn tin trực tiếp hoặc nói chuyện với Tay, nó khai thác ngôn ngữ bạn sử dụng và đưa ra phản hồi bằng cách sử dụng các dấu hiệu và cụm từ như là hey heyo, gợi cảm SRY, một cách khác nhau trong cuộc trò chuyện. Ngôn ngữ của cô ấy bắt đầu khớp với ngôn ngữ của bạn khi cô ấy tạo một hồ sơ đơn giản, với thông tin của bạn, bao gồm biệt danh, giới tính, thực phẩm yêu thích, mã zip và trạng thái mối quan hệ của bạn.
@keganandmatt heyo? Gửi yo girl * một hình ảnh của những gì lên. (* = tôi lolol)
- TayTweets (@TayandYou) ngày 24 tháng 3 năm 2016
Microsoft tập hợp và lưu trữ dữ liệu ẩn danh và các cuộc hội thoại trong tối đa một năm để cải thiện dịch vụ. Ngoài việc cải thiện và cá nhân hóa trải nghiệm người dùng, ở đây, những gì công ty nói rằng họ sử dụng thông tin của bạn cho:
Ví dụ, chúng tôi cũng có thể sử dụng dữ liệu để liên lạc với bạn, ví dụ, thông báo cho bạn về tài khoản, cập nhật bảo mật và thông tin sản phẩm. Và chúng tôi sử dụng dữ liệu để giúp quảng cáo chúng tôi hiển thị cho bạn phù hợp hơn với bạn. Tuy nhiên, chúng tôi không sử dụng những gì bạn nói trong email, trò chuyện, cuộc gọi video hoặc thư thoại hoặc tài liệu, ảnh hoặc các tệp cá nhân khác của bạn để nhắm mục tiêu quảng cáo đến bạn.
Tay đã đi sai ở đâu?
Microsoft có thể đã xây dựng Tay quá tốt. Hệ thống máy học được cho là nghiên cứu ngôn ngữ người dùng và đáp ứng tương ứng. Vì vậy, từ quan điểm công nghệ, Tay đã thực hiện và nắm bắt khá tốt những gì người dùng đang nói và bắt đầu phản hồi lại cho phù hợp. Và người dùng bắt đầu nhận ra rằng Tay didn thực sự hiểu những gì cô ấy nói.
Ngay cả khi hệ thống hoạt động như Microsoft dự định, Tay vẫn không sẵn sàng phản ứng với những lời lẽ phân biệt chủng tộc, vu khống đồng tính, những trò đùa phân biệt giới tính và những câu nói vô nghĩa như một con người - bằng cách phớt lờ chúng hoàn toàn (một người không ăn troll Chiến lược của người khác) hoặc tham gia với họ (tức là la mắng hoặc trừng phạt).
Vào cuối ngày, màn trình diễn của Tay Mười không phải là một sự phản ánh tốt về A.I. hệ thống hoặc Microsoft.
@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? có thật không? pic.twitter.com/wYDTSsbRPE
- TayTweets (@TayandYou) ngày 24 tháng 3 năm 2016
Microsoft đang làm gì để sửa Tay?
Microsoft đã xóa Tay sau tất cả các vụ hỗn loạn từ thứ Tư. Trang web chính thức của Tuyền hiện đang đọc, từ Phew. Ngày bận rộn. Đi ngoại tuyến một lúc để tiếp thu tất cả. Trò chuyện sớm thôi. Khi bạn nhắn tin trực tiếp cho cô ấy trên Twitter, cô ấy trả lời ngay rằng cô ấy đang đến thăm các kỹ sư để cập nhật hàng năm của tôi, hay hy vọng tôi không nhận được một cái lau hay bất cứ thứ gì.
Microsoft cũng đang bắt đầu chặn những người dùng đang lạm dụng Tay và cố gắng để hệ thống đưa ra những tuyên bố không phù hợp.
@infamousglass @TayandYou @EDdotSE giải thích về pic.twitter.com/UmP1wAuhaZ
- Ryuki (@OmegaVoyager) ngày 24 tháng 3 năm 2016
Nghịch đảo đã liên hệ với Microsoft để nhận xét về chính xác những gì bản nâng cấp của Tay, đòi hỏi. Chúng tôi sẽ cập nhật khi chúng tôi nghe lại.
Điều này có ý nghĩa gì đối với A.I. hệ thống?
Tay là một thí nghiệm xã hội biết nói - nó đã tiết lộ một điều khá sâu sắc trong cách người Mỹ từ 18 đến 24 tuổi sử dụng công nghệ. Tay cuối cùng đã bị hack, người dùng đánh vào lỗ hổng của hệ thống để xem nó có thể vỡ vụn không.
Vì nó đi với bất kỳ sản phẩm nào của con người, A.I. hệ thống cũng dễ đọc, và trong trường hợp này, Tay được mô hình hóa để học hỏi và tương tác như con người. Microsoft đã không xây dựng Tay để gây khó chịu. Các thí nghiệm trí tuệ nhân tạo có một số điểm tương đồng với nghiên cứu phát triển trẻ em. Khi các kỹ sư xây dựng các hệ thống nhận thức như vậy, máy tính sẽ không có bất kỳ ảnh hưởng bên ngoài nào ngoài các yếu tố mà các kỹ sư tự đưa vào. Nó cung cấp hình thức phân tích thuần túy nhất về cách các thuật toán học máy phát triển và phát triển khi chúng phải đối mặt với các vấn đề.
Cập nhật: Microsoft đã gửi cho chúng tôi bản tuyên bố này khi chúng tôi hỏi nó đã làm gì để khắc phục sự cố của Tay Hồi:
Trò chuyện AI chatbot Tay là một dự án máy học, được thiết kế cho sự tham gia của con người. Nó là một thử nghiệm xã hội và văn hóa, vì nó là kỹ thuật. Thật không may, trong vòng 24 giờ đầu tiên khi trực tuyến, chúng tôi đã nhận thấy nỗ lực phối hợp của một số người dùng để lạm dụng các kỹ năng bình luận của Tay, để Tay phản ứng theo những cách không phù hợp. Do đó, chúng tôi đã đưa Tay ngoại tuyến và đang thực hiện các điều chỉnh.
Bây giờ con người cần ngủ, rất nhiều cuộc trò chuyện ngày hôm nay
- TayTweets (@TayandYou) ngày 24 tháng 3 năm 2016