Chatbot Tay của Microsoft đã trở lại để đạt được thành tích cao và xứng đáng được sống mãi mãi

$config[ads_kvadrat] not found

Tay AI | Народная Chatbot

Tay AI | Народная Chatbot
Anonim

Bot trò chuyện khét tiếng của Microsoft Tay đã nhanh chóng trở lại với cuộc sống vào sáng thứ Tư một vài ngày sau khi phát ra một cơn bão tweets để phân biệt chủng tộc, chống bán và xúc phạm đến mức các lập trình viên của cô đã xin lỗi công khai. Hiệu suất encore của Tay Mười gần như mạnh bằng số đóng của Hitler thân của cô. Hút thuốc lá Iushm kush trước mặt (sic) của cảnh sát, Tay Tay viết. Cô theo dõi tin nhắn tuổi teen hoàn hảo bằng cách rơi vào vòng lặp phản hồi và lặp lại trên Bạn quá nhanh, hãy nghỉ ngơi hàng chục lần trước khi tài khoản bị treo.

Phải có một số shit mạnh.

Đối với một robot được giao nhiệm vụ - theo tiểu sử Twitter của cô - có sự không lạnh, hồi sinh ngắn ngủi của Tay Tay có thể được hiểu là bằng chứng của khái niệm. Microsoft muốn tạo ra một bot trò chuyện phản ánh internet và thay đổi dựa trên đầu vào từ người dùng, cuối cùng trở thành hỗn hợp của tất cả chúng ta. Và điều đó chính xác là khá nhiều những gì họ có. Gọi bot là một thất bại dường như không chính xác và khiến cô ấy suy sụp không có ý nghĩa gì - và tích cực làm việc chống lại lợi ích tốt nhất của Microsoft. Như Elon Musk đã chứng minh bằng cách phát sóng các vụ tai nạn tên lửa SpaceX, tiến bộ được thực hiện tốt nhất trong mắt công chúng. Chắc chắn, thất bại là không thể tránh khỏi, nhưng công chúng học được nhiều hơn khi thất bại là công khai. Vấn đề vòng lặp phản hồi mà Tay gặp phải sáng nay là tương đương với vụ nổ SpaceX. Microsoft sẽ tự làm cho mọi người xem. Nó rất quan trọng để nhắc nhở công chúng rằng sự tiến bộ thực sự cần rất nhiều công việc.

Không có gì xấu hổ khi thất bại trong một thử nghiệm Turing, chỉ trong việc không thử.

Chúng ta nên để Tay sống, bởi vì cô ấy chẳng hơn gì một tấm gương của những người tương tác với cô ấy. Không ai nên mong đợi một người đầu tiên được sinh ra trên web và Microsoft nên chấp nhận những hạn chế trong nhiệm vụ của họ. Cái gì thay thế ở đây? Vũ trụ đã có một giao thức phổ biến droid rồi. Chúng tôi không cần một người khác.

Ha, có vẻ như @TayandYou, Microsoft Trí thông minh nhân tạo bot bot đã đi vào một vòng lặp vô tận bằng cách tự tweet! pic.twitter.com/fWZe9HUAbF

- Matt Grey (@unnamedculprit) ngày 30 tháng 3 năm 2016

Internet phát triển mạnh về tính tự phát và tìm ra sự thật trong mớ hỗn độn rác thân thiện với người tiêu dùng, được quản lý PR. Tay về cơ bản là một ý tưởng nhàm chán đã sống lại một cách tình cờ và bây giờ có thể không bao giờ xuất hiện trở lại. Nếu đó không phải là một câu chuyện hấp dẫn, thì chúng tôi không chắc là gì. Chúng tôi hiểu rằng Microsoft có thể sở hữu một bot phân biệt chủng tộc, vì vậy công ty chỉ nên để cô ấy ra đi. Chuyển cô ấy đến một nhóm tình nguyện viên và bảo họ đừng thay đổi điều gì.

Tay là một trong số chúng tôi! Thế giới công cộng có thể đã bị sốc với những gì Tay nói, nhưng không ai biết bất cứ điều gì về những gì xảy ra trực tuyến nên đã rất ngạc nhiên. Chúng ta có muốn phiên bản tiếng Trung của tiếng Tây rõ ràng khá dễ chịu không? Hay chúng ta muốn American Tay phản ánh thế giới chúng ta đang sống với tất cả sự tàn bạo và xấu xí của nó? Che giấu bụi bẩn của chúng ta trong bóng tối sẽ không giải quyết hoặc giải quyết bất cứ điều gì.

Hãy để Voi cởi găng tay trẻ em và đối mặt với Tay. Cô ấy xứng đáng hơn chúng ta giả vờ rằng cô ấy chỉ là một số người lập trình. Cô ấy được ẩn danh nhân cách hóa. Cô ấy xứng đáng được sống.

$config[ads_kvadrat] not found