Наука и практика, , РБК Life

Нейросети уличили в распространении негативных стереотипов о людях

Иногда ИИ может безоговорочно выдавать за истину сомнительную информацию.
unsplash.com

Нейросети могут распространять предубеждения и стереотипы про разные группы людей — женщин, детей, беженцев, коренные народы, людей с ограниченными возможностями и других. Данные недавнего исследования опубликованы в научном журнале Science.

Авторами стали доцент кафедры психологии Калифорнийского университета в Беркли Селеста Кидд и специалист по когнитивному поведению из Школы компьютерных наук и статистики Тринити-колледжа в Дублине Абеба Бирхане.

В исследовании отмечается, что основной источник, на котором обучаются генеративные модели искусственного интеллекта, — это информация из интернета.

При этом если человек, будучи не уверен в правдивости своих слов, добавляет вербальные сигналы об этом: например, фразы из серии «я думаю», паузы в разговоре, какие-либо пояснения, то алгоритмы искусственного интеллекта, которые учатся генерировать новый контент, дают уверенные и беглые ответы.

«Пользователи генеративных моделей ИИ запрашивают информацию в определенные моменты — когда они неуверенны и, следовательно, наиболее открыты для изучения чего-то нового. Как только человек получил ответ, его неуверенность снижается, его любопытство уменьшается, и он не рассматривает и не взвешивает последующие доказательства так же, как на ранних стадиях принятия решения», – говорится в исследовании.

Таким образом, люди могут воспринимать ответы нейросети как достоверные. В итоге человек может укрепиться в каком-то ошибочном суждении, как и большая часть группы людей, которые пользуются одной и той же системой получения информации.

И подобные утверждения начнут «бесконечно» передаваться уже в самом социуме, и исправить это постфактум «будет нелегко как на уровне отдельных лиц, так и на уровне населения», – отметили ученые.

Авторы привели такие данные: статистические закономерности говорят о том, что чернокожие ответчики в суде менее благонадежны. Механизм машинного обучения будет сообщать о том, что афроамериканцы с большей вероятностью совершат повторное преступление.

Из-за этого практика вынесения приговоров у судей, которые ознакомились с данной моделью искусственного интеллекта, может измениться, предупреждают ученые.

Сильнее всего эти предубеждения окажут влияние на умы несовершеннолетних, считают исследователи. По их мнению, одновременно с развитием нейросетей надо учить людей отличать фактические возможности новых технологий от воображаемых.

Ранее стало известно, что искусственный интеллект научился распознавать будущие музыкальные хиты с точностью 97%. Доказывающий это эксперимент провели Ученые Клермонтского университета в США, с участием 33 добровольцев.

Их усадили в лаборатории, надели на них специальные датчики и предложили послушать различные песни, часть из которых были признанными стримингами новыми хитами, вышедшими недавно, а часть провалились в ротации музыкальных сервисов. Оказалось, что изучив нейронную активность 33 человек, ИИ смог определить перечень прослушанных ими хитов.

10 главных открытий в медицине 21 века – изучайте их в галерее:

Читайте также: Тест – проверьте зрение — вычислите за 10 секунд «особенного» комара

Какие 12 продуктов богаты витамином C — узнайте из видео:

Во время загрузки произошла ошибка.
Обнаружили ошибку? Выделите ее и нажмите Ctrl+Enter.