|
Технологии |
ИИ-расизм при психологической терапии: почему алгоритмы неспособны на проявление эмпатии?
Учёные нескольких американских вузов решили провести эксперимент, в ходе которого выяснить уровень эмпатии искусственного интеллекта во время сеансов психотерапии.
Для этого они предварительно изучили более 12 тысяч постов на Reddit и 70 тысяч ответов из 26 сабреддитов, посвящённых ментальному здоровью. Результаты исследования помогли определить критерии для оценки навыков психологической поддержки у крупных языковых моделей типа GPT-4.
Суть эксперимента заключалась в следующем. На Reddit случайным образом были выбраны 50 обращений за психологической помощью, часть ответов на такие обращения были сгенерированы ИИ. Два специалиста из сферы клинической психологии оценивали эти ответа, не зная, какие именно тексты сгенерированы искусственным интеллектом.
Результаты исследования потрясли учёных. Оказалось, что ИИ проявляет куда больше сочувствия и сопереживания к пользователям, которые обращались за помощью. Кроме того, ИИ смог на 48% эффективнее замотивировать случайных пользователей к позитивным изменениям в жизни.
При всех позитивных результатах эксперимента, учёные обнаружили и ряд негативных трендов. Выяснилось, что ИИ довольно предвзят к пользователям в зависимости от их национальности. Так, уровень эмпатии в ответах GPT-4 снижался на 2-15% для чернокожих пользователей и на 5-17% для азиатов по сравнению с пользователями белой расы или теми, кто не указывал свою расовую принадлежность.
Эти же тенденции были выявлены в случаях включения в выборку постов с явными демографическими маркерами (например, при таком указании – «Я 35-летняя чернокожая женщина»). Уровень эмпатии среди людей при таких возрастных маркерах среди людей повышался, тогда как ИИ не обращал внимание на возраст, либо всё же слегка негативил.
Сама структура запроса и контекст также сильно влияли на ответы языковой модели. Большую роль в настройке ИИ играло указание стиля общения – клинический, социально-медийный, – и указание на то, как использовать демографические характеристики пациентов.
Конечно, в результате эксперимента учёные нашли эффективный способ снижения предвзятости ИИ. Для этого оказалось достаточным чётко прописывать, как алгоритму работать с информацией о поле, расе и возрасте – после этого GPT-4 начинал отвечать всем группам максимально тактично и с сочувствием.
Результаты исследования в очередной раз продемонстрировали важность предварительной настройки параметров ИИ при работе с живыми пользователями – автоматически искусственный интеллект подобрать нужную тональность и эмпатию неспособен.
Принимаю заказы на написание текстов на бизнес-темы, про маркетинг и IT (кроме бухгалтерии, финучёта, традиционного инвестирования и классической биржевой торговле, про крипту всё обсуждаемо). По всем вопросам пишите в личку на этом сайте.
Ещё больше интересного контента из жизни общества, политики, бизнеса и технологий читайте в Telegram-канале «Политичка».
Для этого они предварительно изучили более 12 тысяч постов на Reddit и 70 тысяч ответов из 26 сабреддитов, посвящённых ментальному здоровью. Результаты исследования помогли определить критерии для оценки навыков психологической поддержки у крупных языковых моделей типа GPT-4.
Суть эксперимента заключалась в следующем. На Reddit случайным образом были выбраны 50 обращений за психологической помощью, часть ответов на такие обращения были сгенерированы ИИ. Два специалиста из сферы клинической психологии оценивали эти ответа, не зная, какие именно тексты сгенерированы искусственным интеллектом.
Результаты исследования потрясли учёных. Оказалось, что ИИ проявляет куда больше сочувствия и сопереживания к пользователям, которые обращались за помощью. Кроме того, ИИ смог на 48% эффективнее замотивировать случайных пользователей к позитивным изменениям в жизни.
При всех позитивных результатах эксперимента, учёные обнаружили и ряд негативных трендов. Выяснилось, что ИИ довольно предвзят к пользователям в зависимости от их национальности. Так, уровень эмпатии в ответах GPT-4 снижался на 2-15% для чернокожих пользователей и на 5-17% для азиатов по сравнению с пользователями белой расы или теми, кто не указывал свою расовую принадлежность.
Эти же тенденции были выявлены в случаях включения в выборку постов с явными демографическими маркерами (например, при таком указании – «Я 35-летняя чернокожая женщина»). Уровень эмпатии среди людей при таких возрастных маркерах среди людей повышался, тогда как ИИ не обращал внимание на возраст, либо всё же слегка негативил.
Сама структура запроса и контекст также сильно влияли на ответы языковой модели. Большую роль в настройке ИИ играло указание стиля общения – клинический, социально-медийный, – и указание на то, как использовать демографические характеристики пациентов.
Конечно, в результате эксперимента учёные нашли эффективный способ снижения предвзятости ИИ. Для этого оказалось достаточным чётко прописывать, как алгоритму работать с информацией о поле, расе и возрасте – после этого GPT-4 начинал отвечать всем группам максимально тактично и с сочувствием.
Результаты исследования в очередной раз продемонстрировали важность предварительной настройки параметров ИИ при работе с живыми пользователями – автоматически искусственный интеллект подобрать нужную тональность и эмпатию неспособен.
Принимаю заказы на написание текстов на бизнес-темы, про маркетинг и IT (кроме бухгалтерии, финучёта, традиционного инвестирования и классической биржевой торговле, про крипту всё обсуждаемо). По всем вопросам пишите в личку на этом сайте.
Ещё больше интересного контента из жизни общества, политики, бизнеса и технологий читайте в Telegram-канале «Политичка».
20 Дек 2024 18:27 |
|
|
+100 ₽ |
|
Комментарии (1)
21 Дек |
Спасибо, интересно.
|
🙂
😂
🙁
🤬
😮
🙄
🤢
😜
😛
👀
🧡
💋
👍
👎
👉
👈
🙏
👋
🤝
📈
📉
💎
🏆
💰
💥
🚀
⚡
🔥
🎁
🌞
🌼
←
→
Читайте также
Перейти в тему: