31 August 2017

Мирный робот.Почему военный искусственный интеллект хотят запретить?

By  

Соответствующее открытое письмо Илона Маска подписали две российские компании по производству роботов. Гендиректор NaviRobot и сооснователь и директор по развитию Promobot пояснили Business FM, какие угрозы может нести искусственный интеллект, используемый в военных целях.

Российские компании поддержали призыв Илона Маска о запрете боевых роботов. Promobot и NaviRobot подписали открытое письмо о необходимости запрета военного искусственного интеллекта (ИИ). «Автономные летальные вооружения могут стать орудием диктаторов и террористов, используемым против мирного населения. Хакеры смогут взламывать их и использовать в недопустимых целях», — говорится в документе.

Обращение о запрете разработки военного ИИ подписали более сотни IT-бизнесменов, в том числе основатель SpaceX Илон Маск. Оба российских подписанта поделились с Business FM соображениями об угрозе боевых роботов.

Почему все запаниковали? Илон Маск едва ли не каждый месяц делает заявления о необходимости контроля ИИ — как военного, так и гражданского, но ведь истинный искусственный интеллект еще даже не создан. Не рановато? Проблема в пугающей скорости прогресса, объяснил на одной из конференций сам основатель SpaceX:
«Тут работает двойной экспоненциальный рост. Во-первых, экспоненциально растут вычислительные возможности микроэлектроники. Во-вторых, экспоненциально растет эффективность программного обеспечения, используемого в ИИ. Когда в дело вступают двойные экспоненты, почти любой прогноз будет слишком консервативным. Год назад все думали, что компьютер победит чемпиона по игре Го минимум лет через 20. Весной это произошло. А теперь компьютер может играть 50 одновременных матчей против лучших игроков мира без единого шанса на поражение — и это спустя один год».

Программный прорыв в ИИ может случиться в любой момент, а с механической точки зрения все уже готово: роботов, в том числе и прототипы боевых моделей, строят по всему миру, рассказывает гендиректор NaviRobot Игорь Кузнецов.

Игорь Кузнецов
гендиректор NaviRobot
«Технологии уже позволяют выпустить в горячие точки роботов в плане мехатроники, то есть готовы мышцы, скелет, спинной мозг, но пока нет еще искусственного интеллекта, который бы принимал решения. Если на борту есть искусственный интеллект, то он принимает решение сам, и тут начинаются проблемы. Если он попадает в руки хакеров, террористов и прочих вредных персонажей, то это может привести к очень плохим результатам».

Предоставление автономии военному ИИ может привести — и это не преувеличение — к апокалиптическим последствиям. Наглядным примером может послужить история, произошедшая в начале 80-х годов, когда советская система предупреждения о ракетном нападении ошибочно зафиксировала запуск американских ракет по СССР. Глобальную ядерную войну предотвратила только бдительность дежурного офицера Станислава Петрова, который впоследствии стал лауреатом нескольких наград и героем документального фильма «Человек, который спас мир». Такие же ошибки будут присущи и искусственному интеллекту, поясняет сооснователь и директор по развитию Promobot Олег Кивокурцев:

Олег Кивокурцев
сооснователь и директор по развитию Promobot
«На сегодняшний день мы можем сказать с уверенностью, что не существует ни одной системы, которая способна распознать объект правильно с точностью 100%. Это означает, что при наведении роботом прицела на какой-либо объект возможна ошибка. При выстреле может пострадать либо человек, то есть робот может спутать военного с простым жителем, либо при наведении ракеты может пострадать жилой объект — робот может перепутать его с военной базой. Это одна из причин, почему стоит ограничивать и как-то регулировать использование роботов».


Правда, нельзя забывать, что ошибаться свойственно интеллекту не только искусственному, но и обычному, человеческому. Это наглядно доказывают, например, случайные уничтожения пассажирских лайнеров системами ПВО, которыми управляли люди. Поэтому в идеале следовало бы запретить вообще все вооружения, пока не появятся безупречные роботы — или безупречные люди.
Текст: Андрей Ромашков
BFM
Posted by Канадская служба новостей(КСН)

Valery Rubin

About Valery Rubin

Author Description here.. Nulla sagittis convallis. Curabitur consequat. Quisque metus enim, venenatis fermentum, mollis in, porta et, nibh. Duis vulputate elit in elit. Mauris dictum libero id justo.

Subscribe to this Blog via Email :