A.I của chúng tôi Chính sách bị kẹt trong quá khứ

$config[ads_kvadrat] not found

みんな投稿ありがと♡全部見てるよ! #きずなーぽすと 【みんなの投稿紹介】

みんな投稿ありがと♡全部見てるよ! #きずなーぽすと 【みんなの投稿紹介】
Anonim

Ed Felten, phó giám đốc công nghệ Hoa Kỳ của Văn phòng Chính sách Khoa học và Công nghệ Nhà Trắng, cho biết con người có hai trách nhiệm chính khi nói đến sự phát triển và tiến bộ của trí tuệ nhân tạo.

Đầu tiên, theo ông, là người Viking để tạo ra lợi ích của A.I. một thực tế. Nhóm thứ hai: xông để giải quyết các rủi ro của A.I.

Felten đang nói chuyện với một số người tại Trung tâm Nghệ thuật Biểu diễn Skirball của Đại học New York tại A.I. Bây giờ - một chuỗi bài giảng mùa hè do Nhà Trắng đồng tài trợ đã tìm cách kiểm tra và thảo luận về các vấn đề chính liên quan đến tương lai của A.I. Công nghệ.

A.I. đang ở ngã tư đường, A.I. Bây giờ đồng chủ tịch Kate Crawford (một nhà nghiên cứu tại Microsoft Research) và Meredith Whittaker (người sáng lập và lãnh đạo cho Google Open Research), đã chỉ ra. Các khu vực tư nhân và công cộng cần hợp tác để tạo ra một số loại A.I khả thi. chính sách. Nhưng vấn đề là trong khi các công ty công nghệ đang có những bước tiến lớn hướng tới việc thúc đẩy mã và kiến ​​trúc thực tế đi vào việc tạo ra A.I. một lực lượng toàn năng, các cấu trúc chính sách hiện tại của chúng ta đã lỗi thời hoặc tệ hơn là không tồn tại.

Quá lâu, A.I. đã bị gạt sang một bên như một khái niệm tương lai, không thể áp dụng cho thời đại hiện đại. Nhưng A.I. đã âm thầm thể hiện chính sách đô thị, sàng lọc thông qua vô số dữ liệu và cung cấp dịch vụ cho mọi người theo cách mà sức mạnh của con người không có khả năng đạt được. Felten đã trích dẫn các ví dụ theo cách các thuật toán có thể sử dụng dữ liệu để liên kết mọi người với nhà ở giá cả phải chăng hoặc thực thi tính minh bạch để công chúng có quyền truy cập vào thông tin có giá trị.

Điều đó không thể nói rằng A.I. là hoàn hảo; nó rất nhiều không phải. Trong bảng điều khiển chính cho buổi tối, Latanya Sweeney, một A.I. nhà nghiên cứu tại Đại học Harvard, đã thảo luận về một câu chuyện mà cô gọi là, Ngày mà máy tính của tôi là người phân biệt chủng tộc.

Một phóng viên đã phỏng vấn Sweeney đã tìm kiếm tên của cô thông qua Google và phát hiện ra rằng tên của cô đã xuất hiện dưới các quảng cáo cho các trang web cung cấp để thu thập và chia sẻ dữ liệu bắt giữ tội phạm. Sweeney chưa bao giờ bị bắt và tên của cô không phải là một phần của cơ sở dữ liệu trên trang web - nhưng tên của cô đã bị văng nổi bật trong quảng cáo. Giống như mọi nhà khoa học giỏi, Sweeney lấy kinh nghiệm cá nhân của mình và thực hiện một nghiên cứu và thấy rằng những quảng cáo này có khả năng liệt kê tên của các cá nhân da đen nhiều hơn so với các cá nhân da trắng. Nguyên nhân? Việc phân phối các quảng cáo này của Google là kết quả của một thuật toán có trọng lượng hơn đối với những gì con người nhấp vào khi quảng cáo xuất hiện. Khi một tên màu đen được Googled, nhiều người đã nhấp vào các quảng cáo này. Hệ thống đã học được mô hình và bắt đầu phân phối những quảng cáo đó với tần suất lớn hơn.

Đó là một bài học quý giá để thực hiện lời hứa của A.I.: Con người cuối cùng là sức mạnh công nghệ và các hành động phân biệt chủng tộc đối với con người có thể ảnh hưởng đến thiết kế và thuật toán và, vâng, thậm chí A.I.

Google có thể dễ dàng phát hiện những thành kiến ​​trong dịch vụ quảng cáo của họ và làm việc để sửa chúng. Họ không chọn, vì họ Sweeney lập luận.

Một khung chính sách hiện đại hơn có thể buộc Google khắc phục vấn đề này không? Có lẽ. Nicole Wong, người tiền nhiệm Felten, từ năm 2013 đến 2014, nhấn mạnh rằng nhiều người - bao gồm cả A.I. Bản thân các nhà nghiên cứu - đã có mối quan tâm thực sự về sự bất cân xứng ngày càng tăng của quyền lực giữa những người sử dụng dữ liệu lớn và những người cuối cùng bị ảnh hưởng, trong đó có các đối tượng của dữ liệu hoặc những người bị ảnh hưởng bởi các quyết định được thông báo bởi dữ liệu đó.

Những mối quan tâm này không chỉ giới hạn trong khu vực tư nhân. Roy Austin, phó trợ lý của tổng thống tại Hội đồng Chính sách đối nội của Nhà Trắng, đã cảm động về cách thức thực thi pháp luật có thể được cải thiện rất nhiều bởi A.I. - hoặc tạo ra một sự vượt quá lớn về quyền lực và lạm dụng khi nói đến quyền riêng tư của thường dân. Câu hỏi trở thành, Chúng ta làm gì với dữ liệu này? Nó có một thứ để có dữ liệu, nhưng ai có quyền truy cập vào nó? Trong bao lâu? Ai sẽ có quyền truy cập vào nó? Một lần nữa, chúng tôi không có câu trả lời chính sách hoặc giải pháp cho những câu hỏi và sự không chắc chắn này - và điều đó gây phiền hà khi chúng ta hướng tới một tương lai ngày càng bị kiểm soát bởi A.I.

Một trụ cột quan tâm thứ ba ít liên quan đến việc sử dụng A.I. bất chính, và nhiều hơn để làm với cách A.I. và các hệ thống tự trị đang di chuyển con người khỏi công việc. Henry Siu, một A.I. nhà nghiên cứu tại Đại học British Columbia, đã thảo luận về các nghề nghiệp của thói quen (nơi nhân viên thực hiện một bộ nhiệm vụ rất cụ thể mà hầu như không bao giờ đi chệch khỏi một thói quen định sẵn), và những mất mát công việc này dễ bị gián đoạn nhất trong công nghệ. Tự động hóa đã tạo ra sự thu hẹp quy mô trong các công việc này - và chúng sẽ quay trở lại.

Nghe có vẻ giống như câu chuyện cũ về công nghiệp hóa, nhưng nó không hoàn toàn. Trong khi, cuộc cách mạng này có thể đã diễn ra ở đây, nó có thể ít kỳ lạ hơn chúng ta tưởng tượng, thì David Edelman, trợ lý đặc biệt của chủ tịch chính sách kinh tế và công nghệ. Mất việc, việc giành chiến thắng đã xảy ra ngay lập tức. Cả hai ông và Siu đều nhấn mạnh rằng giải pháp là tạo ra một môi trường giáo dục nơi mọi người không đi học, họ không ngừng học hỏi những kỹ năng và chuyên môn mới cho phép họ thích nghi với Công nghệ.

Có thể an ủi các nhà hoạch định chính sách khi nhận ra rằng Hoa Kỳ không đơn độc trong việc giải quyết những vấn đề này. Nhưng nếu nước Mỹ có ý định tiếp tục dẫn đường cho A.I., thì nó đã phải đẩy mạnh nó trong lĩnh vực chính sách.

Mustafa Suleyman, người đồng sáng lập Google DeepMind, đã thảo luận về tiềm năng của A.I. để hỗ trợ các hệ thống chăm sóc sức khỏe và cho phép các bác sĩ về thuật toán máy móc chẩn đoán một số bệnh và bệnh - giải phóng thời gian để con người đưa ra các phương pháp điều trị. Đối với Suleyman, người Anh, có vẻ như không phải là một khái niệm xa vời để có được một hệ thống như thế này được thiết lập trong các bệnh viện. Tuy nhiên, Sweeney đã chỉ ra rằng, tại Hoa Kỳ, bạn không có quyền kiểm soát dữ liệu của riêng mình - không có biện pháp quản lý nào để đảm bảo thông tin không bị lạm dụng. Và đó là một khổng lồ vấn đề.

Tôi muốn tất cả mọi thứ mà tôi có thể vắt kiệt từ mọi thành công của công nghệ, Sweeney nói. Vấn đề không phải là vấn đề về mặt công nghệ; vấn đề là chúng tôi không theo kịp chính sách công.

$config[ads_kvadrat] not found