Как ИИ и чат-боты имитируют эмпатию и создают «суррогат отношений», рассказал эксперт

0

Проблема «размывания человечности» началась не с появления чат-ботов и нейросетей. Процесс отучения людей выдерживать конфликты и вообще нормально переносить эмоциональное напряжение стартовал с тотального ухода в сеть во время пандемии. Об этом рассказала политолог, основатель «Наследия нации», руководителькомитета центра социальной архитектуры «Сфера» Елена Штульман.

Изображение сгенерировано нейросетью

«Мы все помним тот момент, когда мир ушёл на дистант. Школы, вузы, офисы, всё перешло в ВКС, бесконечные видео-чаты. Если до ковида далеко не все были на 100% погружены в цифровую среду, то после локдаунов это стало нормой. Реальное общение резко сократилось. Тот самый процесс «разобщения», был запущен для всего мира. И если старшее поколение вышло локдаунов с облегчением, то молодое зависло в сети, как в более безопасном пространстве», — пояснила Елена Штульман.

Она также отметила, что на этом фоне появились чат-боты DeepSeek, ChatGPT, GigaChat, Gemini и Perplexity, которые в диалоге имитируют эмпатию, понимание, подстраиваются под эмоции.

«По сути, что такое искусственный интеллект? Это алгоритм, в который загружено огромное количество информации, способный быстро её обрабатывать и выдавать ответ на запрос. Но сейчас это уже не просто «поисковик с мозгом». Современные нейросети умеют улавливать тон вопроса, мотивацию, эмоциональный контекст», — пояснила эксперт.

По словам Елены Штульман, с этим фильтром ИИ превращается для многих пользователей в цифрового психолога, в собеседника, который не срывается, не кричит, не обижается, не хлопает дверью. Он безупречно вежлив.

Эксперт подчеркнула, что ИИ можно оскорблять, посылать «на три буквы,» а он максимум ответит: «мне жаль, что вы используете такую лексику». Он не скажет: «ты что вообще несёшь?» И это создаёт очень коварный эффект, когда человек привыкает к безусловно безопасному собеседнику, в лице «цифрового алгоритма» без разума и души, пишет RuNews24.ru.

«Ещё на ранних этапах, когда только появились Siri и Алиса я устроила эксперимент: запустила диалог между двумя цифровыми помощниками. И что вы думаете? Диалог не состоялся. Siri и Алиса не смогли «договориться» друг с другом. Уже тогда стало понятно: это не личности, это интерфейсы, заточенные под пользователя, а не под равноправное общение».
Прокомментировать