Главная
Прогнозы
Графики
Главная
Прогнозы
Графики
Тренды
Все темы
Инвестиции
Недвижимость
Экономика
Бизнес
Комментарии
Авторы
Вход
Регистрация
НастройкиСправка
Главная
Прогнозы
Графики
Тренды
Все темы
Инвестиции
Недвижимость
Экономика
Бизнес
Комментарии
Авторы
Вход
Регистрация
НастройкиСправка
Avatar
Русский Бомж Subscribers18
Прочее
Многие не способны распознать, что текст создан ИИ, а не человеком
фото создано нейросетью Алиса от Яндекса

В феврале 2026 года в журнале Computers in Human Behavior вышла статья, посвящённая влиянию генеративного ИИ на нормы повседневного общения. Исследователи, психологи Цзяци Чжу и Андрас Мольнар из Мичиганского университета, анализировали не сами тексты, созданные ИИ, а реакцию людей на такие коммуникации.

Они изучали, как люди оценивают своих собеседников, когда в разговоре может быть задействован искусственный интеллект.

Появление исследования совпало с растущей популярностью инструментов, таких как ChatGPT и другие генеративные модели, которые всё чаще применяются для создания личных и рабочих текстов.

В академической сфере вопрос использования искусственного интеллекта активно обсуждается и регламентируется, в то время как в повседневной жизни эти практики остаются в неопределённой зоне - люди редко признаются, что обращаются к алгоритмам для написания текстов.

Результаты проведенного исследования продемонстрировали, что люди не могут распознать "руку" искусственного интеллекта в сообщениях и склонны доверять таким текстам.

Но вот какой феномен, даже если получатель был в восторге от получаемых текстов, а потом выясняется, что сообщения были созданы нейросетью, то это негативно сказывается на восприятии отправителя.

Каким образом проводилось исследование?

Исследование включало два онлайн-эксперимента, которые проводились с перерывом примерно в семь месяцев. В первом эксперименте участвовали 647 жителей Соединенных Штатов, во втором — 654 человека.

Участникам предлагали прочитать короткие тексты, основанные на типичных сценариях повседневного общения: от благодарственных писем и откликов на вакансии до рабочих комментариев.

Основное требование проводимого эксперимента - предоставление разной информации о происхождении текста.

Участники случайным образом распределялись на четыре группы: первая получала информацию, что сообщение написал человек, вторая - что текст сгенерирован искусственным интеллектом, третья - что источник неизвестен, а четвертая не получала никакой информации. Последний вариант моделировал реальную ситуацию, когда люди обычно не осведомлены о способе создания текста.

На втором этапе учёные увеличили разнообразие сценариев, включив в них более личные и цифровые формы коммуникации, такие как публикации в социальных сетях, сообщения с извинениями и профили на платформах для знакомств. (Р.Б.)

Участников исследования также просили оценить не только общие впечатления об отправителе, но и предполагаемые усилия, затраченное время и искренность собеседника.

Итоги эксперимента

Результат оказался удивительным: люди с трудом различают тексты, созданные ИИ и по умолчанию считают их человеческими. В условиях, когда источник сообщения не раскрывался, участники оценивали автора так же положительно, как и когда были уверены, что текст написан человеком.

Когда использование нейросети стало очевидным, ситуация кардинально менялась. Люди значительно хуже оценивали автора, если знали, что сообщение было создано с помощью искусственного интеллекта. В описаниях таких отправителей часто появлялись отрицательные характеристики, а уровень доверия, искренности и симпатии сильно снижались.

Упоминание о возможном применении нейросетей почти не оказывало значительного влияния. В условиях неопределенности мнения оставались ближе к «человеческому» варианту, чем к «ИИ». Это указывает на то, что само по себе подозрение не оказывает столь сильного воздействия на восприятие, как прямое знание подлога.

Во втором эксперименте учёные выяснили, почему возникают такие различия. Когда участники думали, что текст создан ИИ, они считали, что автор потратил меньше времени и умственных ресурсов и что сообщение хуже передаёт его настоящие эмоции. Именно эти аспекты - ощущение «недостаточных усилий» и неискренности, объясняли более низкую оценку.

Также выяснилось, что даже те, кто сам часто применяет генеративный ИИ, не всегда замечают его использование другими людьми. Несмотря на личный опыт работы с подобными технологиями, участники не стали более подозрительными к предложенным текстам, которые были сгенерированы нейросетью.

P.S. А вы, сумеете отличить кем был написан текст или сообщение, которые вы ежедневно читаете - живым человеком или все-таки это "железяка" постаралась?

Вот как-то так...

Ваш друг - Р.Б.
24 Апр 2026 13:13
137
1
Комментарии (0)
Читайте так же в теме «Прочее»:
Loading...
Перейти в тему:
ИнвестицииНедвижимостьЭкономикаБизнесПрочее
Читать в Telegram