Среди прочего, в правительственном документе говорится, что Пекин стремится «обеспечить, чтобы ИИ всегда находился под контролем человека». (SCMP)
Китай предупредил, что искусственный интеллект позволит людям научиться создавать собственное оружие, разрушающее мир, например, ядерные ракеты.
В понедельник органы кибербезопасности изложили реальный риск в документе по управлению безопасностью ИИ, описав опасность потери «контроля над знаниями и возможностями ядерного, биологического, химического и ракетного оружия».
«При обучении ИИ использует богатые контентом и обширные [тексты] и данные, включая фундаментальные теоретические знания, связанные с ядерным, биологическим, химическим и ракетным оружием», — говорится в сообщении.
«Без достаточного управления экстремистские группировки и террористы могут получить соответствующие знания и развить возможности для разработки, производства, синтеза и использования такого оружия с помощью возможностей генерации, дополненной поиском».
«Возможности генерации с добавлением извлечения» — это метод искусственного интеллекта, который сочетает в себе способность извлекать большие объемы информации в Интернете или из актуальной базы знаний перед генерацией текстового ответа.
«Это сделает существующие системы контроля неэффективными и усилит угрозы глобальному и региональному миру и безопасности», — говорится в докладе.
Документ представляет собой обновление концепции, выпущенной в прошлом году на основе Глобальной инициативы Китая по управлению искусственным интеллектом.
Концепция была совместно опубликована Национальным техническим комитетом по стандартизации кибербезопасности Китая, который является государственной организацией, надзорной за надзором за кибербезопасностью, Центральной комиссией по делам киберпространства.
В разработке документа также участвовала Национальная техническая группа реагирования на чрезвычайные ситуации в компьютерных сетях, функционирующая в качестве национального командования кибербезопасности и центра реагирования на чрезвычайные ситуации Китая.
Команда в основном отвечает за мониторинг безопасности критически важных сетей, реагирование на кибератаки, исследование угроз и предложение защитных мер перед лицом кибератак.
В рамках программы до 2024 года Китай определил риски, связанные с технологиями искусственного интеллекта двойного назначения, которые могут подорвать национальную безопасность и снизить планку для использования ядерного оружия неспециалистами.
В документе, обнародованном в понедельник, подробно говорится об этих рисках, со ссылками на оружие массового уничтожения.
Различные вооруженные силы по всему миру, в том числе в Китае, обращаются к ИИ для расширения возможностей своего личного состава и оружия. В июне Израиль использовал ИИ в оружии для нападения на Иран.
В документе также обсуждается возможность того, что люди могут стать зависимыми от общения с человекоподобным ИИ, и влияние искусственного интеллекта на образование и инновации.
Он добавил, что приложения ИИ должны быть надежными и предотвращать потерю контроля со стороны человека.
«Мы должны строго предотвращать любые неконтролируемые риски, которые могут угрожать выживанию и развитию человечества, чтобы гарантировать, что ИИ всегда находится под контролем человека», — говорится в заявлении.
Сильви Чжуан
(в пересказе)
