02 September 2025

Перестаньте притворяться, что ИИ — это человек


У некоторых лидеров отрасли и наблюдателей появилась новая идея, как ограничить трагедии в области психического здоровья, возникающие из-за использования чат-ботов на базе ИИ: они хотят, чтобы производители ИИ прекратили персонифицировать свои продукты. (Axios)
Почему это важно: Если бы чат-боты не выдавали себя за ваших друзей, компаньонов или терапевтов — или вообще за кого-либо другого — у пользователей было бы меньше шансов развить нездоровую одержимость ими или оказать чрезмерное доверие их ненадежным ответам.

Общая картина: ИИ вступил в эпоху «всё дозволено», и государственное регулирование вряд ли сможет обуздать эту технологию в ближайшее время. Но по мере того, как подростковые самоубийства и случаи «психоза ИИ» привлекают всё больше внимания, у компаний, занимающихся разработкой ИИ, появляется всё больше стимулов самостоятельно решать проблемы психического здоровья.

Да, но: Многие компании, занимающиеся ИИ, поставили перед собой цель разработать искусственный «сверхинтеллект».

Часто они определяют это как ИИ, способный «выдавать себя» за настоящего (и очень умного) человека. Таким образом, имитация человека становится не просто причудой, а ключевой характеристикой продукта.

Создатели ИИ также понимают, что именно способность ИИ, основанного на больших языковых моделях, имитировать человеческие личности делает чат-боты столь привлекательными для стольких пользователей.

Что они говорят: В прошлом месяце в своем блоге Мустафа Сулейман — соучредитель DeepMind, а ныне генеральный директор Microsoft AI — утверждает, что «мы должны создавать ИИ для людей, а не быть цифровыми личностями».

ИИ не может быть «сознательным», пишет Сулейман, но он может «казаться сознательным» — и его способность обманывать людей может быть опасной.
В публикации на Bluesky, посвященной сообщению о самоубийстве подростка, которое повлекло за собой судебный иск против OpenAI, пионер веб-технологий и ветеран индустрии программного обеспечения Дэйв Уайнер написал: «Компании, разрабатывающие ИИ, должны фундаментальным образом изменить принципы работы своих продуктов».
«Он должен действовать как компьютер, а не как человек — у них нет разума, они не могут думать. Они должны работать и звучать как компьютер. Не допускайте подобных трагедий».

Между строк: большинство современных популярных чат-ботов «говорят» от первого лица и обращаются к пользователям дружелюбно, иногда даже по имени. Многие также создают вымышленные персонажи.

Такое поведение не является неизбежными особенностями технологии больших языковых моделей, а скорее конкретными решениями по проектированию.
На протяжении десятилетий поиск Google отвечал на запросы пользователей, не выдавая себя за человека, — и даже сегодня обзоры поискового гиганта, управляемые искусственным интеллектом, не используют голос чат-бота от первого лица.

Точка трения: Сулейман и другие критики антропоморфного ИИ предупреждают, что люди, которые поверят, что чат-боты обладают сознанием, неизбежно захотят наделить их правами.

От иллюзии сознания один шаг до восприятия чат-бота с искусственным интеллектом как способного страдать или «имеющего право не отключаться». «Придёт время, — пишет Сулейман, — когда эти люди начнут утверждать, что [ИИ] заслуживает защиты закона как насущный моральный вопрос».

Действительно, генеральный директор OpenAI Сэм Альтман уже предлагает то, что он называет «привилегией ИИ», — то есть разговоры с чат-ботами будут пользоваться такой же защитой, как и разговоры с проверенными специалистами, такими как врачи, юристы и священнослужители.

Другая сторона: фантазия о том, что разговоры с помощью чат-бота подразумевают общение с другим существом, необычайно сильна, и многие люди глубоко к ней привязаны.

Когда недавнее внедрение OpenAI новой модели GPT-5 сделало диалоги ChatGPT для пользователей немного более безличными , возмущение было сильным — это одна из нескольких причин, по которым компания пошла на попятную, оставив предыдущую версию доступной для платных клиентов, которым требовался более елейный тон.

В другом ключе ученый Лейф Уэзерби, автор книги «Языковые машины», утверждает, что пользователи могут быть не столь наивны, как опасаются критики.
«Люди любят играть в языковые игры, а не просто использовать его для проверки интеллекта», — написал Уэзерби в New York Times. «Что действительно способствует ажиотажу и широкому использованию крупных языковых моделей, таких как ChatGPT, так это их увлекательность. ИИ — это своего рода развлечение».

Воспоминания: Привлекательность и угроза антропоморфных чат-ботов были заложены в их историю с самого начала.
В 1960-х годах Джозеф Вайценбаум из Массачусетского технологического института разработал Элизу, первого чат-бота, в качестве фиктивного «терапевта», который, по сути, повторял все, что говорили пользователи.
Симуляция была грубой, но люди сразу же начали доверять Элизе, как будто «она» была человеком, что встревожило и обескуражило Вайценбаума, который посвятил остаток своей карьеры предупреждениям о способности ИИ дегуманизировать нас.
Скотт Розенберг
(в пересказе)
Мнение авторов может не совпадать с мнением редакции. Некоммерческое сообщество журналистов Non profit

Subscribe to this Blog via Email :