Новини

Вимірювання довіри до штучного інтелекту (ШІ)

Вимірювання довіри до штучного інтелекту (ШІ)

Дослідники виявили, що довіра суспільства до ШІ сильно різниться залежно від програми.

Підштовхнувшись до зростання популярності штучного інтелекту (ШІ) у суспільстві, дослідники Токійського університету досліджували ставлення суспільства до етики ШІ. Їхні висновки кількісно визначають, як різні демографічні та етичні сценарії впливають на це ставлення. У рамках цього дослідження команда розробила восьмикутну візуальну метрику, аналогічну рейтинговій системі, яка може бути корисною дослідникам ШІ, які хочуть знати, як їхня робота може бути сприйнята громадськістю.

Багато людей вважають, що швидкий розвиток технологій часто випереджає розвиток соціальних структур, які неявно керують і регулюють його, наприклад, закон або етика. ШІ, зокрема, є прикладом цього, оскільки він став настільки поширеним у повсякденному житті багатьох людей, здавалося б, за одну ніч. Це поширення в поєднанні з відносною складністю ШІ в порівнянні з більш звичними технологіями може викликати страх і недовіру до цього ключового компонента сучасного життя. Хто не довіряє штучному інтелекту і яким чином – це питання, про які було б корисно знати розробникам і регуляторам технології AI, але подібні питання нелегко визначити кількісно.

AI Восьмикутна діаграма

Приклад діаграми, що показує оцінки респондента восьми тем для кожного з чотирьох етичних сценаріїв для різного застосування ШІ. Авторство: © 2021 Yokoyama et al.

Дослідники Токійського університету на чолі з професором Хіромі Йокояма з Інституту фізики та математики Всесвіту Кавлі вирішили кількісно оцінити ставлення суспільства до етичних проблем навколо ШІ. Було два запитання, зокрема, команда шляхом аналізу опитувань намагалася дати відповідь: як змінюється ставлення залежно від сценарію, представленого респонденту, і як демографічні показники самого респондента змінили ставлення.

Етику неможливо визначити кількісно, ​​тому для вимірювання ставлення до етики ШІ команда використовувала вісім тем, спільних для багатьох програм ШІ, які піднімали етичні питання: конфіденційність, підзвітність, безпека та безпека, прозорість і зрозумілість, справедливість і недискримінація, людські контроль над технологіями, професійна відповідальність та пропаганда людських цінностей. Вони, які група назвала «вимірюваннями восьмикутника», були натхненні роботою дослідника Гарвардського університету Джессіки Ф’єльд та її команди 2020 року.

Вимірювання AI восьмикутника

Вісім тем, спільних для широкого кола сценаріїв AI, щодо яких громадськість має нагальні етичні занепокоєння. Авторство: © 2021 Yokoyama et al.

Респондентам було запропоновано серію з чотирьох сценаріїв, щоб судити за цими вісьмома критеріями. Кожен сценарій розглядав різне застосування ШІ. Це були: мистецтво, створене штучним інтелектом, штучний інтелект обслуговування клієнтів, автономна зброя та передбачення злочинів.

Варто знати  Головний недолік iPhone, який потрібно виправити

Респонденти опитування також надали дослідникам інформацію про себе, таку як вік, стать, рід занять та рівень освіти, а також виміряти рівень їхнього інтересу до науки і техніки за допомогою додаткового набору запитань. Ця інформація була важливою для дослідників, щоб побачити, які характеристики людей будуть відповідати певним установкам.

«Попередні дослідження показали, що ризик більш негативно сприймається жінками, людьми похилого віку та тими, хто більше знає предмет. Я очікував побачити щось інше в цьому опитуванні, враховуючи, наскільки поширеним став ШІ, але на диво ми побачили подібні тенденції», — сказав Йокояма. «Однак ми побачили те, що очікувалося, так це те, як сприймалися різні сценарії, коли ідея зброї штучного інтелекту зустрічалася з набагато більшим скептицизмом, ніж інші три сценарії».

Команда сподівається, що результати можуть призвести до створення свого роду універсальної шкали для вимірювання та порівняння етичних проблем навколо ШІ. Це опитування було обмежено Японією, але команда вже почала збирати дані в кількох інших країнах.

«За допомогою універсальної шкали дослідники, розробники та регулятори могли б краще вимірювати сприйняття конкретних додатків або впливів ШІ та діяти відповідно», — сказав доцент Тілман Хартвіг. «Одна річ, яку я виявив під час розробки сценаріїв та анкети, — це те, що багато тем у ШІ потребують значного пояснення, більше, ніж ми усвідомлювали. Це свідчить про величезну прірву між сприйняттям і реальністю, коли справа доходить до ШІ».

Посилання: «Вимірювання восьмикутника: ставлення громадськості до етики ШІ» Юко Іккатайя, Тілман Хартвіг, Наохіро Таканаші та Хіромі М Йокояма, 10 січня 2022 р. Міжнародний журнал взаємодії людини з комп’ютером.

Підписуйтесь на наш телеграм-канал, щоб не пропускати новини!

Підписатися
Сповістити про
guest
0 Коментарі
Вбудовані Відгуки
Переглянути всі коментарі