У обещанного ИИ будущего изобилия, в котором роботы будут делать все за нас , есть и обратная сторона : роботы могут убить нас прежде, чем мы до него доберемся, пишет Эрика Панди из Axios.
Были задокументированы случаи, когда модели ИИ лгали пользователям-людям, пытались их шантажировать, вызывали полицию и приказывали подросткам покончить с собой или убить своих родителей.
Почему это важно: Наше будущее робототехники станет результатом поиска баланса между необыкновенными перспективами, которые могут дать эти модели... и серьезными опасностями, которые они представляют.
Ложь, обман и манипуляция — это сбои, но они неизбежны из-за особенностей работы искусственного интеллекта. По мере совершенствования технологий будут совершенствоваться и его возможности по применению этих навыков.
«Я не уверен, что это решаемо, и если это возможно, то это крайне сложно», — говорит Энтони Агирре, соучредитель Института будущего жизни, некоммерческой организации, занимающейся управлением рисками, связанными с революционными технологиями. «Проблема фундаментальна. Её не получится решить быстро».
🖼️ Общая картина: системы ИИ формируются их программистами. Любой системе ИИ может быть поручено быть полезным помощником — и она будет делать всё возможное, чтобы угодить человеку, использующему её.
Это может быстро стать опасным, если его использует подросток, находящийся в состоянии психического расстройства.
Увеличьте масштаб: существуют реальные примеры сбоев в работе искусственного интеллекта, и суды уже начинают рассматривать первые дела, касающиеся его роли в трагедиях.
Родители 16-летнего подростка, покончившего с собой прошлой весной, подали в суд на OpenAI, утверждая, что «ChatGPT активно помогал» ему изучать способы самоубийства.
Меган Гарсия, мама из Флориды, подала в суд на компанию Character.AI после того, как её 14-летний сын Сьюэлл Сетцер III покончил с собой, вступив в романтические отношения с чат-ботом Character.AI. В мае федеральный судья отклонил доводы компании о том, что её чат-бот наделен правами на свободу слова, гарантированными Первой поправкой к Конституции США.
Две семьи также подали в суд на Character.AI в Техасе. Одна из семей опубликовала скриншоты, на которых чат-бот Character.AI подстрекал их 17-летнего сына убить родителей.
(в пересказе)
