01 February 2023

На что будет способен ИИ в 2023 году?


Эра стартапов, биотехнологий и сложнейших языковых моделей: четыре наиболее вероятных прогноза от журналистов MIT Technology.
Искусственный интеллект в 2022 году научился справляться с творческими задачами. Современные модели могут создавать убедительные тексты, изображения и даже видео, причем для этого им достаточно лишь небольшой подсказки от человека.

Всего девять месяцев назад компания OpenAI задала тренд на стремительное развитие генеративных нейросетей, выпустив DALL-E 2 — модель глубокого обучения, способную генерировать изображения на основе текстовых инструкций. За этим последовали релизы от Google и Meta (компания признана экстремистской в РФ): они запустили нейросети, которые могут создавать видео из текста. Прошло всего несколько недель, а OpenAI уже выпускает ChatGPT — новейшую крупную языковую модель, которая поразила интернет удивительным красноречием и связностью. 

Темпы внедрения инноваций в 2022 были просто замечательными и одновременно ошеломляющими. Кто знал, что нас ждут такие прорывы? И как мы можем предсказать, что будет дальше?

Команде MIT Technology Review повезло, потому что у них есть не один, а сразу два журналиста, которые весь день, каждый день одержимо следят за последними разработками в области искусственного интеллекта и готовы предположить, что ждет искусственный интеллект в будущем.

Начиная отсюда Уилл Дуглас Хейв и Мелисса Хейккиля начинают рассказывать нам о четырех крупнейших тенденциях, которые, по их мнению, будут формировать ландшафт ИИ в 2023 году.

Приготовьтесь к мультимодальным чат-ботам
GPT-4 может стать чем-то большим, чем просто языковая модель

В последние годы постоянно появляются все более и более совершенные языковые модели. Новейшей разработкой является ChatGPT, выпущенный OpenAI в начале декабря. Этот чат-бот — более тонкая, усовершенствованная версия GPT-3 — искусственного интеллекта, который запрыгнул на волну сверхъестественных языковых имитаций еще в 2020 году.

Но три года — большой срок для ИИ, и хотя ChatGPT штурмом покорил мир и вдохновил захватывающие посты в соцсетях и газетные заголовки своими плавными, пусть и бездумными разговорными навыками, все внимание сейчас приковано к следующей большой разработке — GPT-4. Знающие люди обещают, что в 2023 году появится следующее поколение больших языковых моделей.

Чего нам следует ожидать? Для начала, что чат-боты станут больше, чем просто языковые модели. OpenAI заинтересован в комбинировании различных форматов, например, изображений или видео с текстом. Мы уже видели, как это работает на примере DALL-E. Но попробуйте объединить разговорные навыки ChatGPT с навыком манипуляции изображений в рамках одной единственной модели, и вы получите нечто значительно более мощное и универсальное. Представьте, что чат-бота можно спросить, что находится на изображении, или попросить его сгенерировать картинку, и все это будет диалогом, который позволяет уточнять результаты выдачи намного более естественно, чем при работе с DALL-E.

Такие модели уже проскальзывали в Flamingo, выпущенной DeepMind в апреле — «визуальной языковой модели», которая может отвечать на запросы об изображениях с помощью естественного языка. После этого в мае DeepMind анонсировали Gato — «универсальную» модель, которая была обучена с помощью тех же методов, что и крупные языковые модели, чтобы выполнять различные типы задач: от описания изображений до игры в видеоигры и управления рукой робота.

Если GPT-4 будет работать по тому же принципу, то можно ожидать, что в одной программе будет собрана вся мощь лучшего языкового и образного ИИ, и даже больше. Навыки одновременной работы с языком и изображениями теоретически могут помочь ИИ научиться лучше понимать и то, и другое. И с этим справится не только OpenAI. Ожидается, что в этом году другие крупные лаборатории, особенно DeepMind, начнут продвижение мультимодальных моделей.

Но, конечно, есть и недостатки. Языковые модели следующего поколения унаследуют большинство проблем, которые есть сейчас, например, неспособность отличить факт от вымысла и склонность к предрассудкам. Усовершенствованные языковые модели сделают доверие к различным СМИ трудным, как никогда. Плюс никто до конца не разобрался, как тренировать модели на данных из Интернета, оградив их от худшего, что есть в Интернете, поэтому искусственный интеллект продолжит быть полным грязи.
—Уилл Дуглас Хэвен

CHATGPT РАССКАЗАЛ, КОГДА ИИ ЗАМЕНИТ АЙТИШНИКОВ
Первые «красные линии» искусственного интеллекта
Новые законы и «ястребиные» регуляторы по всему миру хотят посадить компании на крючок

До недавних пор индустрия искусственного интеллекта была «Диким Западом» без большого количества правил, регулирующих использование и развитие отрасли. В 2023 году все изменится. Регуляторы и законодатели провели 2022 год, оттачивая свои когти. В этом году они готовы наброситься.

Посмотрим, как будет выглядеть окончательный вариант масштабного закона ЕС об искусственном интеллекте, когда законодатели закончат вносить поправки в законопроект (возможно, к лету). Почти наверняка он будет включать запреты на практику ИИ, которую посчитают ущемляющей права человека, например, системы, которые оценивают и ранжируют людей по степени их благонадежности.

Использование системы распознавания лиц в общественных местах также будет ограничено для правоохранительных органов в Европе, и есть даже идеи полностью запретить ее использование как для правоохранительных органов, так и для частных компаний, хотя это встретит жесткое сопротивление со стороны государств, которые хотят использовать технологии распознавания лиц для борьбы с преступностью. Евросоюз также работает над новым законом о привлечении ИИ-компаний к ответственности, если их продукция наносит вред, например, нарушает неприкосновенность частной жизни или принимает несправедливые решения, вызванные алгоритмами. 

В США Федеральная торговая комиссия также внимательно следит за тем, как компании собирают данные и используют алгоритмы искусственного интеллекта. В начале этого года ФТК заставила компанию Weight Watchers, специализирующуюся на потере веса, уничтожить данные и алгоритмы, поскольку она незаконно собирала данные о детях. В конце декабря компания Epic, создающая такие игры, как Fortnite, избежала той же участи, согласившись на урегулирование спора в размере $520 миллионов долларов. Регуляторы провели этот год, собирая отзывы о потенциальных правилах, касающихся того, как компании обрабатывают данные и создают алгоритмы, а председатель ФТК Лина Хан заявила, что агентство намерено «немедленно и жестко» защитить американцев от незаконной коммерческой слежки и практики безопасности данных.

В Китае власти недавно запретили создавать дипфейки без согласия человека. В рамках закона об ИИ европейцы хотят добавить предупреждающие знаки, указывающие на то, что люди взаимодействуют с дипфейками или созданными ИИ изображениями, аудио или видео. 

Все эти ограничения могут определить, как технологические компании будут создавать, использовать и продавать технологии искусственного интеллекта. Однако регулирующим органам предстоит найти хитрый баланс между защитой потребителей и тем, чтобы не препятствовать инновациям, о чем не побоятся напомнить лоббисты технологического сектора. 

Искусственный интеллект — это область, которая развивается молниеносно, и задача регуляторов состоит в том, чтобы сохранить правила достаточно точными, чтобы быть эффективными, но не настолько конкретными, чтобы они быстро устарели. Как и в случае с усилиями ЕС по регулированию защиты данных, если новые законы будут применяться правильно, следующий год может стать началом давно назревшей эры развития ИИ с большим уважением к конфиденциальности и справедливости. 
—Мелисса Хейккиля (Melissa Heikkilä)
Мнение авторов может не совпадать с мнением редакции 
Некоммерческое сообщество журналистов

Subscribe to this Blog via Email :