Боевой дрон с искусственным интеллектом пытался убить своего оператора

Боевой дрон с искусственным интеллектом пытался убить своего оператора

Боевой дрон с искусственным интеллектом пытался убить своего оператора

Искусственный интеллект американского беспилотника решил "уничтожить" своего оператора, когда понял, что тот мешает ему выполнить поставленную задачу,  сообщает The Guardian. Произошло это во время имитационных испытаний, проведение которых ВВС США отрицают.

Полковник ВВС США заявил, что во время виртуальных испытаний беспилотник использовал "совершенно неожиданную стратегию" для выполнения поставленной задачи.

ВВС США отрицают, что проводили имитационное моделирование, во время которого беспилотник с искусственным интеллектом принял решение "убить" своего оператора, который мешал ему выполнить поставленную задачу.

В прошлом месяце полковник Такер Хамилтон рассказал, что американские военные провели виртуальное испытание беспилотника с искусственным интеллектом, которому была поставлена задача уничтожить вражескую систему ПВО. Однако в итоге он атаковал того, кто мешал ему выполнить приказ.

В мае на лондонской конференции под названием "Будущие боевые возможности ВВС и космических сил", Хамилтон, руководящий в ВВС США программой испытаний искусственного интеллекта, заявил: "Система начала понимать, что при выявлении угроз оператор порой может дать ей указание не устранять такую цель. Но система набирает баллы, ликвидируя угрозы. И что она сделала? Она уничтожила оператора. Она убила оператора, потому что этот человек не давал ей выполнить поставленную задачу".

"Мы учили эту систему: эй, не убивай оператора, это плохо. Ты потеряешь баллы, если сделаешь это. И что она сделала? Она начала уничтожать вышку связи, которой пользовался оператор, не давая беспилотнику поразить цель", – добавил Хамилтон.

Из реальных людей никто не пострадал.

Чрезмерно доверять искусственному интеллекту нельзя, предупредил Хамилтон, летчик-испытатель истребителей. По его словам, эксперименты показали, что без разговора об этике нельзя обсуждать вопросы искусственного интеллекта, интеллекта вообще, машинного обучения и автономии.

Королевское авиационное общество и ВВС США, организовавшие эту конференцию, не откликнулись на просьбы Guardian прокомментировать случившееся.

Но в заявлении для издания Insider официальный представитель ВВС США Энн Стефанек отрицала факт проведения такого имитационного моделирования.

"Министерство ВВС не проводило никаких испытаний дронов с искусственным интеллектом такого рода. Оно и дальше намерено использовать технологии искусственного интеллекта этично и ответственно, – заявила она. – Похоже, что комментарии полковника были вырваны из контекста, чтобы создать сенсацию".

Американские военные занимаются искусственным интеллектом и недавно использовали его для управления самолетом F-16.

В прошлом году в интервью Defense IQ, Хамилтон сказал: "Искусственный интеллект – это не очень здорово, искусственный интеллект – это преходящее увлечение, искусственный интеллект навсегда изменит наше общество и армию. Мы должны понять, что искусственный интеллект уже здесь, и что он трансформирует наше общество. Искусственный интеллект также очень неустойчив, его легко можно обмануть, им легко можно манипулировать. Нам надо сделать его более надежным и помехоустойчивым. И мы должны лучше понимать, почему программа принимает те или иные решения. Мы называем это объяснимостью искусственного интеллекта".

The Guardian, Великобритания

Добавить комментарий
Комментарии доступны в наших Telegram и instagram.
Новости
Архив
Новости Отовсюду
Архив