07 December 2025

Когда галлюцинации ИИ приравниваются к клевете


Все — или, надеюсь, все — уже знают, что чат-боты с искусственным интеллектом склонны к «галлюцинациям» или к сбивчивым ответам, которые не совсем соответствуют действительности или точны. Иногда это просто электронное письмо с досадной ошибкой или абзац в студенческом эссе, следующий за ошибочным ходом мыслей. (The Daily Upside)
Фотоиллюстрация Коннора Лина / The Daily Upside, фото Nastco через iStock
Но что происходит, когда эти галлюцинации не только фактически неверны, но и наносят вред реальным жизням и реальному бизнесу?

Именно с этой дилеммой сталкивается законодательство о диффамации, принципы которого основаны на комментариях, устных или письменных, живых людей, в эпоху искусственного интеллекта. Ситуация становится ещё более запутанной, учитывая, что правовые границы свободы слова в гигантских социальных сетях последних двух десятилетий всё ещё находятся под вопросом. Потребуется ли законодателям столько же времени, чтобы разобраться в новых вопросах, как и в предыдущих?

Цена славы
Уже накопилось несколько громких обвинений против компаний, занимающихся разработкой ИИ. В деле, относящемся к 2023 году в Джорджии, консервативный радиоведущий Марк Уолтерс подал в суд на OpenAI после того, как ChatGPT ложно сообщил другому журналисту, что Уолтерса обвиняют в хищении. В похожем случае в апреле прошлого года праворадикальный инфлюенсер Робби Старбак подал иск против Meta после того, как его генератор изображений Llama создал видимость присутствия Старбака во время штурма протестующими здания Капитолия США 6 января 2021 года. Тем временем, сенатор-республиканец Марша Блэкберн в ноябре в своей колонке в New York Post раскритиковала модель Google Gemma для больших языков с открытым исходным кодом, заявив, что она также ложно обвиняет её в преступлениях. Сенатор Блэкберн до сих пор не подавала исков против Google.

Громкие дела уже прошли через систему: в августе Starbuck достигла неразглашаемого мирового соглашения с Meta, а дело Уолтерса было прекращено в мае, когда судья постановил, что журналист, о котором идет речь, воспринял ответ чат-бота как галлюцинацию, что поставило под сомнение аргумент Уолтерса о клевете.

Но в Миннесоте назревает еще одно дело с участием куда менее известного истца и, по всей видимости, гораздо более доказуемого ущерба, что является залогом успеха дел о клевете.

Электрик Бугалу
Компания Wolf River Electric, относительно малоизвестный подрядчик по установке солнечных панелей в Стране тысячи озёр, утверждает, что модель Gemini от Google неоднократно — и ложно — утверждала, что на компанию подал в суд прокурор штата Миннесота из-за мошеннических практик продаж. Компания утверждает, что эти ложные заявления привели к волне отказов клиентов и упущенным продажам.

«Мы вкладываем много времени и сил в создание хорошей репутации», — недавно заявил основатель компании Джастин Нильсен в интервью газете The New York Times. «Когда клиенты видят такой тревожный сигнал, вернуть их практически невозможно».

Наличие доказуемого ущерба и относительно «обычный» статус Wolf River Electric — вот почему некоторые эксперты-юристы считают этот иск особенно интересным. В делах о диффамации в США частные лица и компании несут меньшее бремя доказывания, чем публичные компании, должностные лица и знаменитости.

«Если вы публичная фигура или должностное лицо, вам необходимо доказать наличие злого умысла, то есть намерения», — заявил The Daily Upside Берни Роудс, адвокат по Первой поправке к Конституции и медиа-праву в юридической фирме Lathrop GPM. «Но для обычного человека или обычной компании, если вспомнить эту компанию из Миннесоты, никакого намерения не требуется».

По его словам, это делает юридический вопрос гораздо более чётким: «Это называется генеративным ИИ, потому что он генерирует контент. В этом отношении генеративный ИИ ничем не отличается от традиционных медиа, которые тоже генерируют контент. И если традиционные медиа ошибаются, их можно подать в суд за клевету… так что когда это происходит с ИИ, правила те же».

230 причин, но ИИ — не одна из них
Означает ли это, что компании, занимающиеся разработкой ИИ, вскоре могут столкнуться с волной исков о клевете, если их чат-боты продолжат совершать ошибки, подобные тем, что совершает Wolf River Electric? Возможно, да, а возможно, и нет.

«Ответственность за клеветнические заявления представляет собой угрозу для компаний, занимающихся искусственным интеллектом, так же, как законы о лицензировании такси представляли угрозу для Uber», — заявил адвокат Дэйв Волковиц изданию The Daily Upside.

В интервью The New York Times в начале этого года Нина Браун, профессор коммуникаций и эксперт по медиа-праву в Сиракузском университете, предсказала, что ответчики из числа технологических компаний попытаются урегулировать любой иск, в котором они могут оказаться уязвимыми, до того, как дело дойдет до суда: «Они не хотят рисковать».

Перевод: Гиганты ИИ-компаний с рыночной капитализацией в несколько триллионов долларов в долгосрочной перспективе будут в порядке, выплачивая незначительные компенсации возможно опороченным местным предприятиям.

Конечно, если только национальные законодатели сначала не создадут федеральные рамки.

«Контроль над речью, произведённой с помощью искусственного интеллекта, — это не тот вопрос, который хотелось бы, чтобы разные присяжные по всей стране решали разные коллегии», — заявил в интервью Politico в начале этого года профессор права Йельского университета Роберт Пост. «Нужно, чтобы национальные стандарты разрабатывались людьми, которые технически хорошо разбираются в том, что имеет смысл, а что нет».

Благодаря разделу 230, положению довольно спорного закона 1996 года, которое освобождает веб-сайты от ответственности за сообщения сторонних пользователей, технологические гиганты не понаслышке знакомы с необходимостью опираться на национальные нормативные акты.

Просто алгоритм: Проще говоря, раздел 230 позволяет истцу подать в суд на пользователя Facebook за клевету, опубликованную на Facebook, но не на сам Facebook. Поскольку чат-ботам требуется участие человека — в конце концов, боты отвечают на конкретные запросы, — вполне возможно, что компании, занимающиеся разработкой ИИ, в конечном итоге смогут утверждать, что раздел 230 распространяется и на результаты работы чат-ботов. Однако несколько юристов, говоривших с The Daily Upside, заявили, что такой аргумент вряд ли будет убедительным.

«Будут ли компании, занимающиеся разработкой ИИ, утверждать, что их чат-боты просто повторяют слова другого пользователя? Скорее всего, нет, учитывая, что компании, занимающиеся разработкой ИИ, стремятся позиционировать свои чат-боты как всё более близкие к настоящему „мышлению“», — сказал Волковиц.

Однако компании, управляющие социальными сетями, также пытались использовать Раздел 230, чтобы оградить себя от ответственности за контент, рекомендуемый их алгоритмами, — нововведение, которое может быть более применимо к моменту развития искусственного интеллекта.

Рассмотрим дело Верховного суда 2023 года Гонсалес против Google, в котором ставился под сомнение тот факт, что раздел 230 защищает YouTube от ответственности за алгоритмическую рекомендацию видеороликов, вербующих террористов.

В конечном итоге Верховный суд США постановил, что другие недостатки жалобы делают ненужным рассмотрение вопросов, связанных с разделом 230, которые пыталась решить семья Нохеми Гонсалес — 23-летней американки, погибшей в результате атаки ИГИЛ в Париже в 2015 году. Это оставляет технологические гиганты открытыми для попыток использовать раздел 230 в качестве защиты в случае предъявления исков в связи с идеями и фактическими утверждениями, которые рекомендуют их чат-боты.

«Я вполне ожидал, что эти компании воспользуются защитой по закону 230, но не думаю, что она работает», — сказал Роудс. «[Поисковая система Google] ничего не генерирует. Её алгоритм выдаёт результаты поиска, но не публикует контент». Пользователям по-прежнему приходится нажимать на ссылки и принимать решения самостоятельно. «Но весь смысл чат-ботов в том, что они будут выполнять всю работу за меня, будут генерировать результаты, которые я увижу».

Судья Верховного суда Нил Горсач размышлял над тем же вопросом во время устных прений по делу «Гонсалес против Google»: «Искусственный интеллект создаёт поэзию. Сегодня он создаёт полемику, которая выходит за рамки простого отбора, анализа или усвоения контента. И это не подлежит защите».

Старое против нового: Другими словами, закон о диффамации в эпоху искусственного интеллекта может вернуться к тому, с чего он всегда был. «Когда только появились блоги, мы думали: „О нет, как же будет применяться закон о диффамации?“ Когда появились социальные сети, мы начали изводить себя вопросами о том, как применять закон о диффамации», — сказал Роудс. «Но закон о диффамации есть закон о диффамации. Вопрос лишь в том, как адаптировать традиционный закон о диффамации к новым форматам».

Возможно, на данный момент ответ можно найти в старом, а не в новом уроке: не верьте всему, что читаете в Интернете.
Автор Брайан Бойл
(в пересказе) 

Мнение авторов может не совпадать с мнением редакции. Cообщество журналистов. Non profit

Subscribe to this Blog via Email :