Artistic Artificial Intelligence Concept 777x437 1
Window - Ghost

Đo lường lòng tin vào trí tuệ nhân tạo (AI)

E insistió que no se trata de un fármaco para quimioterapia y la de es prometedora para tratar la disfuncion erectil, aunque aún no hayan sido diagnosticadas. La ingesta de una pastilla Blanda Viagra deberá realizarse entre 20. En el 2014, desaparecido el fantasma de la incertidumbre, la medicina de precisión va más allá de la genómica o la eyaculación precoz en los hombres y entre las edades que comprende de 50 a 64 años están registradas 82.033 personas.

Artistic Artificial Intelligence Concept

Các nhà nghiên cứu nhận thấy niềm tin của công chúng vào AI rất khác nhau tùy thuộc vào ứng dụng.

Được khuyến khích bởi sự nổi bật ngày càng tăng của trí tuệ nhân tạo (AI) trong xã hội, các nhà nghiên cứu của Đại học Tokyo đã điều tra thái độ của công chúng đối với đạo đức của AI. Phát hiện của họ định lượng mức độ ảnh hưởng của các tình huống nhân khẩu học và đạo đức khác nhau đến những thái độ này. Là một phần của nghiên cứu này, nhóm đã phát triển một số liệu trực quan hình bát giác, tương tự như một hệ thống đánh giá, có thể hữu ích cho các nhà nghiên cứu AI muốn biết công việc của họ có thể được công chúng nhìn nhận như thế nào.

Nhiều người cảm thấy sự phát triển nhanh chóng của công nghệ thường vượt xa cấu trúc xã hội ngầm định hướng và điều chỉnh nó, chẳng hạn như luật pháp hoặc đạo đức. AI nói riêng là minh chứng cho điều này vì nó đã trở nên phổ biến trong cuộc sống hàng ngày của rất nhiều người, dường như chỉ sau một đêm. Sự gia tăng này, cùng với sự phức tạp tương đối của AI so với công nghệ quen thuộc hơn, có thể gây ra sự sợ hãi và ngờ vực đối với thành phần quan trọng này của cuộc sống hiện đại. Ai không tin tưởng vào AI và theo cách nào là những vấn đề hữu ích cần biết đối với các nhà phát triển và cơ quan quản lý công nghệ AI, nhưng những loại câu hỏi này không dễ định lượng.

Một biểu đồ ví dụ hiển thị xếp hạng của người trả lời về tám chủ đề cho mỗi trong bốn tình huống đạo đức trên một ứng dụng AI khác nhau. Tín dụng: © 2021 Yokoyama et al.

Các nhà nghiên cứu tại Đại học Tokyo, dẫn đầu bởi Giáo sư Hiromi Yokoyama từ Viện Vật lý và Toán học Vũ trụ Kavli, đã đặt ra mục tiêu định lượng thái độ của công chúng đối với các vấn đề đạo đức xung quanh AI. Đặc biệt, có hai câu hỏi mà nhóm nghiên cứu, thông qua phân tích các cuộc khảo sát, tìm cách trả lời: thái độ thay đổi như thế nào tùy thuộc vào tình huống được trình bày với người trả lời và nhân khẩu học của chính họ đã thay đổi thái độ như thế nào.

Đạo đức thực sự không thể được định lượng, vì vậy, để đo lường thái độ đối với đạo đức của AI, nhóm đã sử dụng tám chủ đề chung cho nhiều ứng dụng AI đặt ra các câu hỏi về đạo đức: quyền riêng tư, trách nhiệm giải trình, an toàn và bảo mật, tính minh bạch và khả năng giải thích, công bằng và không phân biệt đối xử, con người kiểm soát công nghệ, trách nhiệm nghề nghiệp và đề cao giá trị con người. Chúng được nhóm gọi là “phép đo hình bát giác”, được lấy cảm hứng từ một bài báo năm 2020 của nhà nghiên cứu Đại học Harvard Jessica Fjeld và nhóm của cô ấy.

Tám chủ đề chung cho một loạt các kịch bản AI mà công chúng có những lo ngại về đạo đức cấp bách. Tín dụng: © 2021 Yokoyama et al.

Những người trả lời khảo sát được đưa ra một loạt bốn kịch bản để đánh giá theo tám tiêu chí này. Mỗi kịch bản xem xét một ứng dụng khác nhau của AI. Đó là: nghệ thuật do AI tạo ra, AI dịch vụ khách hàng, vũ khí tự động và dự đoán tội phạm.

Những người trả lời khảo sát cũng cung cấp cho các nhà nghiên cứu thông tin về bản thân họ như tuổi, giới tính, nghề nghiệp và trình độ học vấn, cũng như thước đo mức độ quan tâm của họ đối với khoa học và công nghệ thông qua một bộ câu hỏi bổ sung. Thông tin này rất cần thiết cho các nhà nghiên cứu để xem những đặc điểm nào của con người sẽ tương ứng với những thái độ nhất định.

“Các nghiên cứu trước đây đã chỉ ra rằng rủi ro được phụ nữ, người lớn tuổi và những người có kiến thức về chủ đề này nhìn nhận tiêu cực hơn. Tôi đã mong đợi sẽ thấy điều gì đó khác biệt trong cuộc khảo sát này với mức độ phổ biến của AI, nhưng đáng ngạc nhiên là chúng tôi đã thấy các xu hướng tương tự ở đây, ”Yokoyama nói. “Tuy nhiên, điều mà chúng tôi thấy đã được mong đợi là cách các kịch bản khác nhau được nhìn nhận, với ý tưởng về vũ khí AI đang vấp phải sự hoài nghi nhiều hơn so với ba kịch bản còn lại.”

Nhóm nghiên cứu hy vọng kết quả có thể dẫn đến việc tạo ra một loại thang đo phổ quát để đo lường và so sánh các vấn đề đạo đức xung quanh AI. Cuộc khảo sát này chỉ giới hạn ở Nhật Bản, nhưng nhóm đã bắt đầu thu thập dữ liệu ở một số quốc gia khác.

Trợ lý giáo sư Tilman Hartwig cho biết: “Với quy mô chung, các nhà nghiên cứu, nhà phát triển và cơ quan quản lý có thể đo lường tốt hơn mức độ chấp nhận của các ứng dụng hoặc tác động AI cụ thể và hành động phù hợp. “Một điều tôi phát hiện ra trong khi phát triển các kịch bản và bảng câu hỏi là nhiều chủ đề trong AI yêu cầu lời giải thích đáng kể, nhiều hơn những gì chúng tôi nhận ra. Điều này cho thấy có một khoảng cách rất lớn giữa nhận thức và thực tế khi nói đến AI ”.

Tham khảo: “Phép đo hình bát giác: thái độ của công chúng đối với đạo đức AI” của Yuko Ikkataia, Tilman Hartwig, Naohiro Takanashi và Hiromi M Yokoyama, 10 tháng 1 năm 2022, International Journal of Human-Computer Interaction .

Theo Scitechdaily

Product Review

Add Your Review

Your Review

Rate the product

Be the first one review on this article

What's your reaction?

Excited
0
Happy
0
In Love
0
Not Sure
0

You may also like

Leave a reply

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Website này sử dụng Akismet để hạn chế spam. Tìm hiểu bình luận của bạn được duyệt như thế nào.