На этой неделе Google представила две новые модели искусственного интеллекта, находящиеся на переднем крае технологий: Nano Banana Pro (генератор изображений) и Gemini 3 (языковая модель). Первая лидирует в своей категории, а вторая, вероятно, тоже станет лидером. (El Pais)
Из этих запусков я делаю три вывода.
Первое — скорость. Каждый месяц ведущие лаборатории, такие как OpenAI, xAI, Anthropic и Google, выпускают улучшенные модели. Gemini 3 будет конкурировать с Claude Sonnet 4.5, выпущенным в конце сентября, GPT-5.1, обновлённым 10 дней назад, и Grok 4.1, обновлённым в прошлый понедельник.
Второе — постоянное совершенствование. Новые модели более информативны, эффективнее ищут в интернете, допускают меньше ошибок, лучше программируют и решают более сложные задачи. Но эти достижения легко упустить, если не следить за ними. Поэтому мой совет: пробуйте. Всё меняется так быстро, что то, что не работало полгода назад, может работать сейчас. Например, теперь я использую Claude для редактирования текстов: я предоставляю ему возможность находить опечатки и слабые места в тексте. Он даёт мне подсказки: «это слишком длинно», «этот абзац непонятен», «этот пример великолепен» и так далее.
Эти достижения отражаются в бенчмарках — оценках, используемых для сравнения моделей друг с другом. На диаграмме представлены четыре бенчмарка, разработанные Epoch AI , включая ключевые тесты в области науки, программирования, математики и логического мышления.
У каждой модели есть свои сильные стороны, но главное — тенденция: они совершенствуются во всех тестах, не останавливаясь.
Действительно, оценивать эти модели сложно. Уже недостаточно судить по ощущениям, просто потому что они кажутся хорошими. Например, чтобы оценить их математические способности, нужно самому довольно хорошо знать математику (представьте, что вы пытаетесь отличить ученика четвертого класса от Альберта Эйнштейна, просто разговаривая). Существует также проблема «обучения ради теста». Лаборатории готовят их к хорошим результатам на этих экзаменах. И это, вероятно, помогает им стать более способными в целом… но также очевидно, что существуют кратчайшие пути, уловки, которые работают на тестах, но не с реальными задачами. Это дилемма, знакомая каждому ученику: учиться ради знаний или ради сдачи? Наконец, есть сложность специализации: одни модели лучше подходят для дизайна, другие — для письма или программирования.
Третий урок? Самый важный: модели ещё не достигли своего пика. Год назад эта гипотеза была широко распространена. После GPT-4 возникли сомнения в эффективности «предобучения» — первой фазы обучения, когда модели обучаются на огромных объёмах текста. Некоторые эксперты говорили о том, что уперлись в стену. И это повторилось несколько месяцев спустя, с GPT-5. Но этот пессимизм оказался беспочвенным. Легко недооценить темпы прогресса, сравнивая одну модель с другой, поскольку они выпускаются очень быстро. Но если сравнить текущую модель с лучшими моделями год назад, скачок очевиден.
Ориол Виньялс на этой неделе подчеркнул: «Никаких стен не видно». Вице-президент по исследованиям Google DeepMind и один из руководителей Gemini написал в Твиттере, объясняя секрет их последней версии: «Всё просто: мы улучшили пред- и пост-обучение». Затем он сразу же перешёл к опровержению теории «стен»: «Вопреки распространённому мнению, что возможности масштабирования исчерпаны, команда достигла радикального скачка. Разница между [Gemini] 2.5 и 3.0 столь же велика, как и любая другая, которую мы когда-либо видели». Затем он добавил ещё одно потенциальное направление. Этапы пост-обучения, где инновации происходили в течение последнего года, всё ещё имеют большой потенциал для совершенствования. По словам Виньялса, это «неизведанная территория».
Это не означает, что крупномасштабные языковые модели не имеют ограничений. Это не исключает будущих узких мест и не предотвращает потенциальный пузырь ИИ (только на этой неделе Nvidia опубликовала выдающиеся результаты, но акции технологических компаний всё равно упали). Но это указывает на нечто важное: к 2026 году следует ожидать прогресса.
Мой практический совет: используйте новые модели. Если год назад кто-то сказал вам: «ИИ для этого не годится», это может быть неправдой. Другие ограничения сохранятся. Но единственный способ узнать — провести собственные тесты. Многие из нас интересуются всем этим профессионально. Но есть и ещё более важная причина: интересно узнать, насколько далеко могут зайти самообучающиеся алгоритмы.
Kiko Llaneras
(в пересказе)
