Khi các hệ thống trí tuệ nhân tạo ngày càng thâm nhập vào các quá trình ra quyết định quan trọng trong cuộc sống hàng ngày của chúng ta, việc tích hợp các khuôn khổ đạo đức vào phát triển AI đang trở thành ưu tiên nghiên cứu. Tại Đại học Maryland (UMD), đội liên ngành giải quyết sự tương tác phức tạp giữa lý luận quy phạm, thuật toán học máy và hệ thống kỹ thuật xã hội.
Trong một cuộc phỏng vấn gần đây với Tin tức trí tuệ nhân tạocác nhà nghiên cứu sau tiến sĩ Ilaria Canavotto Và Vaishnavi Kameswaran kết hợp chuyên môn về triết học, khoa học máy tính và tương tác giữa con người với máy tính để giải quyết những thách thức cấp bách về đạo đức AI. Công việc của họ bao gồm các nền tảng lý thuyết về việc đưa các nguyên tắc đạo đức vào kiến trúc AI và ý nghĩa thực tế của việc triển khai AI trong các lĩnh vực có tính rủi ro cao như việc làm.
Hiểu biết chuẩn mực về hệ thống AI
Ilaria Canavotto, một nhà nghiên cứu tại sáng kiến Trí tuệ nhân tạo lấy giá trị làm trung tâm (VCAI) của UMD, được liên kết với Viện Nghiên cứu Máy tính Cao cấp và Khoa Triết học. Cô ấy đang giải quyết một câu hỏi cơ bản: Làm thế nào chúng ta có thể thấm nhuần sự hiểu biết chuẩn mực vào hệ thống AI? Khi AI ngày càng ảnh hưởng đến các quyết định có tác động đến nhân quyền và hạnh phúc, các hệ thống phải hiểu rõ các chuẩn mực đạo đức và pháp lý.
“Câu hỏi mà tôi điều tra là, làm thế nào để chúng ta có được loại thông tin này, sự hiểu biết chuẩn mực về thế giới này, vào một cỗ máy có thể là robot, chatbot, bất cứ thứ gì tương tự?” Canavotto nói.
Nghiên cứu của cô kết hợp hai cách tiếp cận:
Cách tiếp cận từ trên xuống: Phương pháp truyền thống này liên quan đến việc lập trình rõ ràng các quy tắc và chuẩn mực vào hệ thống. Tuy nhiên, Canavotto chỉ ra rằng, “Không thể viết chúng ra một cách dễ dàng được. Luôn luôn có những tình huống mới xuất hiện.”
Cách tiếp cận từ dưới lên: Một phương pháp mới hơn sử dụng Machine Learning để trích xuất các quy tắc từ dữ liệu. Canavotto lưu ý: “Vấn đề với cách tiếp cận này là chúng tôi không thực sự biết hệ thống học được gì và rất khó giải thích quyết định của nó”.
Canavotto và các đồng nghiệp của cô, Jeff Horty và Eric Pacuit, đang phát triển một phương pháp kết hợp để kết hợp những ưu điểm tốt nhất của cả hai phương pháp. Họ nhằm mục đích tạo ra các hệ thống AI có thể học các quy tắc từ dữ liệu trong khi vẫn duy trì các quy trình ra quyết định có thể giải thích được dựa trên lý luận pháp lý và quy chuẩn.
“[Our] tiếp cận […] dựa trên một lĩnh vực được gọi là trí tuệ nhân tạo và luật. Vì vậy, trong lĩnh vực này, họ đã phát triển các thuật toán để trích xuất thông tin từ dữ liệu. Vì vậy, chúng tôi muốn khái quát hóa một số thuật toán này và sau đó có một hệ thống có thể trích xuất thông tin một cách tổng quát hơn dựa trên lý luận pháp lý và lý luận quy chuẩn,” cô giải thích.
Tác động của AI đến hoạt động tuyển dụng và hòa nhập người khuyết tật
Trong khi Canavotto tập trung vào nền tảng lý thuyết thì Vaishnav Kameswaran, liên kết với Viện AI, Luật và Xã hội đáng tin cậy NSF của UMD, xem xét các tác động trong thế giới thực của AI, đặc biệt là tác động của nó đối với người khuyết tật.
Nghiên cứu của Kameswaran xem xét việc sử dụng AI trong quy trình tuyển dụng, phát hiện ra cách các hệ thống có thể vô tình phân biệt đối xử với các ứng viên khuyết tật. Anh ấy giải thích, “Chúng tôi đang làm việc để… mở hộp đen ra một chút, cố gắng hiểu những thuật toán này làm gì ở phần sau và cách chúng bắt đầu đánh giá ứng viên.”
Phát hiện của ông tiết lộ rằng nhiều nền tảng tuyển dụng do AI điều khiển chủ yếu dựa vào các tín hiệu hành vi chuẩn mực, chẳng hạn như giao tiếp bằng mắt và nét mặt, để đánh giá ứng viên. Cách tiếp cận này có thể gây bất lợi đáng kể cho những người khuyết tật cụ thể. Ví dụ: các ứng viên khiếm thị có thể gặp khó khăn trong việc duy trì giao tiếp bằng mắt, một tín hiệu mà hệ thống AI thường hiểu là thiếu sự tương tác.
Kameswaran cảnh báo: “Bằng cách tập trung vào một số phẩm chất đó và đánh giá ứng viên dựa trên những phẩm chất đó, những nền tảng này có xu hướng làm trầm trọng thêm sự bất bình đẳng xã hội hiện có”. Ông lập luận rằng xu hướng này có thể khiến người khuyết tật bị gạt ra ngoài lề hơn trong lực lượng lao động, một nhóm đang phải đối mặt với những thách thức đáng kể về việc làm.
Bối cảnh đạo đức rộng hơn
Cả hai nhà nghiên cứu đều nhấn mạnh rằng mối quan tâm về đạo đức xung quanh AI vượt xa các lĩnh vực nghiên cứu cụ thể của họ. Họ đề cập đến một số vấn đề chính:
- Quyền riêng tư và sự đồng ý của dữ liệu: Các nhà nghiên cứu nhấn mạnh sự bất cập của các cơ chế chấp thuận hiện tại, đặc biệt là về việc thu thập dữ liệu để đào tạo AI. Kameswaran trích dẫn các ví dụ từ công việc của ông ở Ấn Độ, nơi những nhóm dân cư dễ bị tổn thương đã vô tình cung cấp dữ liệu cá nhân rộng rãi cho các nền tảng cho vay do AI điều khiển trong đại dịch COVID-19.
- Tính minh bạch và khả năng giải thích: Cả hai nhà nghiên cứu đều nhấn mạnh tầm quan trọng của việc hiểu cách các hệ thống AI đưa ra quyết định, đặc biệt khi những quyết định này tác động đáng kể đến cuộc sống của con người.
- Thái độ và định kiến xã hội: Kameswaran chỉ ra rằng chỉ riêng giải pháp kỹ thuật không thể giải quyết được vấn đề phân biệt đối xử. Cần có những thay đổi xã hội rộng rãi hơn trong thái độ đối với các nhóm bị thiệt thòi, bao gồm cả người khuyết tật.
- Hợp tác liên ngành: Công việc của các nhà nghiên cứu tại UMD minh họa tầm quan trọng của sự hợp tác giữa triết học, khoa học máy tính và các ngành khác trong việc giải quyết vấn đề đạo đức AI.
Nhìn về phía trước: giải pháp và thách thức
Mặc dù những thách thức là rất lớn nhưng cả hai nhà nghiên cứu đều đang nỗ lực hướng tới các giải pháp:
- Cách tiếp cận kết hợp của Canavotto với AI thông thường có thể dẫn đến các hệ thống AI có thể giải thích và nhận thức về mặt đạo đức hơn.
- Kameswaran đề xuất phát triển các công cụ kiểm tra cho các nhóm vận động để đánh giá các nền tảng tuyển dụng AI về khả năng phân biệt đối xử.
- Cả hai đều nhấn mạnh sự cần thiết phải thay đổi chính sách, chẳng hạn như cập nhật Đạo luật Người khuyết tật Hoa Kỳ để giải quyết vấn đề phân biệt đối xử liên quan đến AI.
Tuy nhiên, họ cũng thừa nhận sự phức tạp của vấn đề. Như Kameswaran lưu ý, “Thật không may, tôi không nghĩ rằng giải pháp kỹ thuật để đào tạo AI bằng một số loại dữ liệu và công cụ kiểm tra nhất định sẽ giải quyết được vấn đề. Vì vậy, nó đòi hỏi một cách tiếp cận đa hướng.”
Điểm mấu chốt rút ra từ công việc của các nhà nghiên cứu là nhu cầu nâng cao nhận thức của công chúng về tác động của AI đối với cuộc sống của chúng ta. Mọi người cần biết lượng dữ liệu họ chia sẻ hoặc dữ liệu đó được sử dụng như thế nào. Như Canavotto đã chỉ ra, các công ty thường có động cơ che giấu thông tin này, định nghĩa chúng là “Những công ty cố gắng cho bạn biết dịch vụ của tôi sẽ tốt hơn cho bạn nếu bạn cung cấp cho tôi dữ liệu”.
Các nhà nghiên cứu cho rằng cần phải làm nhiều hơn nữa để giáo dục công chúng và buộc các công ty phải chịu trách nhiệm. Cuối cùng, cách tiếp cận liên ngành của Canavotto và Kameswaran, kết hợp nghiên cứu triết học với ứng dụng thực tế, là một con đường hướng tới đúng hướng, đảm bảo rằng các hệ thống AI mạnh mẽ nhưng cũng có đạo đức và công bằng.
Xem thêm: Quy định giúp đỡ hoặc cản trở: Cloudflare đảm nhận
Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo ngành? Kiểm tra Triển lãm AI & Dữ liệu lớn diễn ra ở Amsterdam, California và London. Sự kiện toàn diện này được tổ chức cùng với các sự kiện hàng đầu khác bao gồm Hội nghị tự động hóa thông minh, BlockX, Tuần lễ Chuyển đổi sốVà An ninh mạng & Triển lãm Cloud.
Khám phá các sự kiện và hội thảo Online về công nghệ doanh nghiệp sắp tới khác do TechForge cung cấp đây.