A.I. Viện nghiên cứu chỉ ra cách tạo thuật toán có trách nhiệm

$config[ads_kvadrat] not found

Язык Си для начинающих / #1 - Введение в язык Си

Язык Си для начинающих / #1 - Введение в язык Си
Anonim

Viện nghiên cứu AI Now đã công bố các khuyến nghị mới cho việc triển khai có trách nhiệm các thuật toán trong phạm vi công cộng vào thứ Tư.Lời khuyên của họ nhắm vào một nhóm đặc nhiệm được thành lập bởi Hội đồng thành phố New York vào tháng 1 đang nghiên cứu sử dụng trí tuệ nhân tạo của chính phủ.

Báo cáo của AI Now, Đánh giá tác động thuật toán: Hướng tới tự động hóa có trách nhiệm trong các cơ quan công cộng, phác thảo sự cần thiết phải minh bạch khi triển khai các thuật toán. Các thuật toán có tác động rất lớn đến cuộc sống hàng ngày của chúng ta, nhưng tác động của chúng đôi khi không được chú ý. Chẳng hạn, vì chúng được đưa vào cơ sở hạ tầng của các nền tảng truyền thông xã hội và video, nên rất dễ quên rằng các chương trình thường xác định nội dung nào được đẩy tới người dùng internet. Nó chỉ có khi có sự cố xảy ra, như video lý thuyết âm mưu lọt vào đầu danh sách xu hướng YouTube YouTube, chúng tôi xem xét kỹ các quy trình quyết định tự động hình thành trải nghiệm trực tuyến.

Và thuật toán aren lồng bị giới hạn trong các nền tảng internet. Các tổ chức chính phủ đã trở nên ngày càng phụ thuộc vào các thuật toán, trong các lĩnh vực từ giáo dục đến tư pháp hình sự. Trong một thế giới lý tưởng, các thuật toán sẽ loại bỏ sự thiên vị của con người khỏi các quyết định khó khăn, như xác định liệu một tù nhân có nên được tạm tha hay không. Tuy nhiên, trên thực tế, thuật toán chỉ hiệu quả như những người tạo ra chúng.

Ví dụ, một cuộc điều tra bởi Cộng hòa chứng minh rằng các thuật toán đánh giá rủi ro được sử dụng trong phòng xử án là sai lệch chủng tộc. Để làm cho vấn đề tồi tệ hơn, nhiều thuật toán được sử dụng trong khu vực công thuộc sở hữu tư nhân và một số công ty từ chối chia sẻ mã bên dưới phần mềm của họ. Điều đó làm cho không thể hiểu được tại sao các thuật toán được gọi là hộp đen này lại mang lại kết quả nhất định.

Một giải pháp tiềm năng được cung cấp bởi AI Now? Đánh giá tác động thuật toán. Những đánh giá này thiết lập một định mức về tính minh bạch hoàn toàn, có nghĩa là các cơ quan chính phủ đang sử dụng thuật toán sẽ cần phải công khai khi nào và cách họ đang sử dụng chúng. Bản thân yêu cầu này sẽ đi một chặng đường dài để làm sáng tỏ những công nghệ nào đang được triển khai để phục vụ công chúng, và nơi tập trung nghiên cứu trách nhiệm giải trình, báo cáo cho biết.

Một chính sách cởi mở xung quanh các thuật toán cũng sẽ mở ra cơ hội cho công dân xem xét và phản đối việc sử dụng chúng. Bạn có muốn một thuật toán cung cấp cho bạn điểm đánh giá rủi ro dựa trên các yếu tố ngoài tầm kiểm soát của bạn, đặc biệt là khi điểm số đó có thể giúp xác định xem bạn có đi tù không? Có thể có có thể không. Dù bằng cách nào, điều quan trọng là phải biết chính xác các biến đang được phân tích bởi thuật toán.

Ngoài ra, AI Now khuyên bạn nên thiết lập một tiêu chuẩn pháp lý để mọi người vận động hành lang chống lại các thuật toán không công bằng.

Ví dụ: nếu một cơ quan không tiết lộ các hệ thống nằm trong phạm vi của những quyết định tự động hoặc nếu nó cho phép các nhà cung cấp đưa ra các yêu cầu bí mật thương mại quá mức và do đó chặn truy cập hệ thống có ý nghĩa, công chúng nên có cơ hội nêu ra mối quan ngại với một cơ quan giám sát của cơ quan, hoặc trực tiếp tại tòa án của pháp luật nếu cơ quan từ chối khắc phục những vấn đề này sau thời gian bình luận công khai.

Về cơ bản, các khuyến nghị thực hiện theo một nhiệm vụ bao quát: Nếu bạn sử dụng thuật toán, don Patrick sẽ mờ ám về nó.

Đọc các báo cáo đầy đủ ở đây.

$config[ads_kvadrat] not found