Искусственный интеллект похож на жизнь с подростком: иногда гениальный; другие, немного корявые, но это не перестает нас удивлять... (El Pais Semanal)Когда мы взаимодействуем с программами искусственного интеллекта (ИИ), такими как ChatGPT, Gemini, Claude, Grok и многими другими, мы поражаемся их огромному потенциалу для преобразования будущего, как на работе, так и в повседневной жизни. Это приложения, которые пробуждают любопытство и которым мы также доверяем.
На самом деле, недавнее исследование, опубликованное в Harvard Business Review, ставит его функцию эмоциональной поддержки среди наиболее заметных применений ИИ в 2025 году. Помимо создания текстов или автоматизации задач, эти инструменты используются в качестве терапевтов, чтобы организовать нашу жизнь и даже помочь прояснить цель жизни. И это только начало.
Как уже предсказала доктор Сильвия Лил, эксперт и советник ОЭСР по технологиям: «Мы будем больше разговаривать с чат-ботами или приложениями искусственного интеллекта, чем с нашими партнерами». Он опубликовал ее в 2017 году, и сегодня многие люди проводят больше времени с инструментами или устройствами, которые полагаются на ИИ, чем с реальными людьми. Чтобы правильно использовать эту технологию, нам необходимо знать риски, с которыми сталкивается наш разум при контакте с ней. Давайте рассмотрим три наиболее актуальных.
Первый риск связан с миром предвзятости. Д-р Леал объясняет: «ИИ развивается, не имея возможности избежать предвзятости данных или лжи в Интернете. Более того, она развивается по нашему образу и подобию, а человек далек от совершенства». Другими словами, эта технология будет быстрой и удивительной, но она может дать сбой. Более того, вера в непогрешимость ИИ усиливает нашу предвзятость в области автоматизации, в результате которой мы не ставим под сомнение результаты, которые он нам предлагает, и не принимаем навигатор за чистую монету, даже если он приводит нас туда, где мы считаем неправильным.
Второй риск возникает из-за экономии энергии в нашем мозге. Наша серая масса запрограммирована на экономию усилий, она весит 2% нашего тела, но потребляет более 20% ежедневной энергии. По этой причине мы склонны избегать некоторых ненужных усилий и впадаем в то, что известно как когнитивная лень. Из-за лени мы перестаем запоминать номера телефонов или практиковаться в умственных вычислениях, если у нас есть планы или калькуляторы на наших мобильных телефонах. Также из-за лени, когда мы сталкиваемся с сомнениями, у нас есть бессознательная тенденция искать быстрое решение для уменьшения дискомфорта, считают исследователи из Техасского университета, проанализировав частоту, с которой студенты просматривали свои результаты экзаменов перед сдачей. Что ж, с этой естественной отправной точкой неудивительно, что ИИ усиливает когнитивную лень и начинает ослаблять нашу память, когда дело доходит до запоминания информации.
Наконец, и в связи с предыдущим пунктом, третий бессознательный риск может быть самым тревожным из всех: мозговая деятельность, которую мы «жертвуем» за пределами памяти. В недавнем эксперименте, проведенном Массачусетским технологическим институтом, измерялась активность 32 областей мозга добровольцев, пишущих эссе о филантропии в течение четырех сессий и с использованием различных ресурсов. Первая группа не получила никакой помощи; второй мог полагаться только на поисковые системы типа Google, а третий мог использовать ChatGPT.
Ну, после сеансов они обнаружили, что в третьей группе было зарегистрировано меньше мозговой активности, меньше памяти о том, что они написали, и низкое чувство авторства, по сравнению с остальными группами, особенно с первой. Или, как отмечают сами исследователи, группы, использующие ИИ, «постоянно отстают на нейронном, лингвистическом и поведенческом уровнях». Но что еще хуже, последнее эссе, которое должны были написать волонтеры, должно было быть компиляцией трех предыдущих, и в данном случае их попросили сменить ресурсы.
Было обнаружено, что группа, которая первоначально использовала ChatGPT, сохраняла низкую умственную активность, даже когда у них ее больше не было. Это явление известно как «когнитивный долг», т.е. интенсивное использование ИИ может принести пользу в краткосрочной перспективе, но ценой ухудшения обучения, способности формировать сложные идеи, креативности, мотивации или глубокой связи с тем, что было изучено, среди прочего.
Три предыдущие трудности предупреждают нас о чем-то важном: с ИИ мы рискуем стать все более зависимыми и иметь меньше умственных усилий в нашей повседневной деятельности. Кроме того, мы знаем, что мозг в своей эффективности имеет тенденцию ослаблять функции, которые он не выполняет. Поэтому нам нужно тренировать критическое мышление, осознанно и ограниченно использовать искусственный интеллект, превращать его в тренажер, а не в костыль, который мог бы заменить большую часть наших умственных процессов. Мы должны подвергать сомнению результаты, которые предлагает нам эта технология, основываясь на нашем опыте или опыте других источников, использовать ее как умственную схватку, но не превращать ее в ярлык, который ставит под угрозу наше обучение, или в оракула, который знает все.
Пилар Херико
(в пересказе)
Мнение авторов может не совпадать с мнением редакции.
Некоммерческое сообщество журналистов Non profit
