12 February 2026

Специалисты по искусственному интеллекту бьют тревогу


Ведущие эксперты по искусственному интеллекту из OpenAI, Anthropic и других компаний предупреждают о растущей опасности своих технологий, при этом некоторые из них увольняются в знак протеста или публично выражают серьезные опасения. (Axios)

Почему это важно: Ведущие модели искусственного интеллекта, включая Claude от Anthropic и ChatGPT от OpenAI, становятся намного лучше, намного быстрее и даже сами создают новые продукты.

Это воодушевляет оптимистов в отношении ИИ — и до смерти пугает многих людей, которым поручено обеспечивать их безопасность в обществе.
Главные новости: В понедельник исследователь-антрополог объявил о своем уходе, отчасти для того, чтобы писать стихи о «том месте, где мы сейчас находимся».

На этой неделе также уволился исследователь из OpenAI, сославшись на этические соображения. Другой сотрудник OpenAI, Хиеу Фам, написал на X: «Я наконец-то почувствовал экзистенциальную угрозу, которую представляет ИИ».
Джейсон Калаканис, инвестор в сфере технологий и соведущий подкаста "All-In", написал на X: "Я никогда не видел, чтобы столько технологов так решительно, часто и с такой обеспокоенностью выражали свои опасения, как в случае с ИИ".

Вчера среди сторонников ИИ больше всего обсуждался пост предпринимателя Мэтта Шумера, который сравнил нынешнюю ситуацию с кануном пандемии. Он мгновенно стал вирусным, набрав 56 миллионов просмотров за 36 часов, и в нем Шумер изложил риски, связанные с коренным изменением нашей работы и жизни под воздействием ИИ.

Реальность такова: большинство сотрудников этих компаний по-прежнему уверены, что смогут грамотно управлять развитием технологий без ущерба для общества или значительной потери рабочих мест. Но сами компании признают наличие риска.

Издание Anthropic опубликовало доклад, показывающий, что, несмотря на низкий риск, ИИ может быть использован в тяжких преступлениях, включая создание химического оружия. В этом так называемом «докладе о саботаже» рассматривались риски, связанные с ИИ без вмешательства человека, исключительно сам по себе.

В то же время, как вчера сообщила технологическая обозревательница Кейси Ньютон, компания OpenAI распустила свою группу по согласованию задач, созданную для обеспечения того, чтобы искусственный общий интеллект (AGI) приносил пользу всему человечеству.

Уровень угрозы: Последняя волна предупреждений последовала за появлением доказательств того, что эти новые модели способны самостоятельно создавать сложные продукты, а затем улучшать их работу без вмешательства человека.
Последняя модель OpenAI обучилась самостоятельно. Вирусный инструмент Cowork от Anthropic тоже самообучался.

Эти разоблачения, а также признаки того, что ИИ угрожает крупным секторам экономики, включая программное обеспечение и юридические услуги, побудили к активному и серьезному переосмыслению ситуации.
В итоге: революционные изменения в сфере искусственного интеллекта уже произошли, и их влияние ощущается быстрее и шире, чем многие ожидали.
Мэдисон Миллс
(в пересказе) 

Мнение авторов может не совпадать с мнением редакции. Cообщество журналистов. Non profit

Subscribe to this Blog via Email :