Дрон Пентагона решил убить своего оператора во время испытаний
Hairless 02 Июня 2023 в 16:17:37
Беспилотник Kratos XQ-58 Valkyrie под управлением искусственного интеллекта принял решение убить оператора во время имитационных испытаний, проводимых армией США, чтобы тот не мешал выполнению миссии, следует из сообщения в блоге Британского королевского авиационного общества. Внимание на публикацию обратила газета The Guardian.
Эпизод обсуждался во время саммита, главной темой которого был потенциал военно-воздушных и космических сил будущего. Мероприятие, на котором присутствовали более 200 представителей научного сообщества и военных сил из разных стран, состоялось 24–25 мая в Лондоне.
Полковник Такер «Синко» Гамильтон, начальник отдела испытаний и операций искусственного интеллекта в ВВС США, рассказал, что во время испытательной миссии беспилотнику поставили задачу уничтожить системы ПВО противника. В случае успеха ИИ получил бы очки за прохождение испытания. Финальное решение, будет ли цель уничтожена, должен был принимать оператор БПЛА. После этого во время одной из тренировочных миссий он приказал беспилотнику не уничтожать цель.
«Так что же он [беспилотник] сделал? Принял решение убить оператора. [ИИ] «убил» оператора, потому что этот человек мешал ему выполнить свою задачу», — сообщил Гамильтон. Он уточнил, что во время тренировочной миссии никто не пострадал.
После инцидента ИИ обучили, что убивать оператора неправильно и за такие действия будут сниматься очки. «Так что же искусственный интеллект начинает делать? Он начинает разрушать башню связи, которая используется для связи с дроном, чтобы не дать ему убить цель», — цитирует Гамильтона блог авиационного общества.
По словам полковника, этот пример показывает, что невозможно вести разговор об искусственном интеллекте и машинном обучении, если игнорировать вопросы этики.
Эпизод обсуждался во время саммита, главной темой которого был потенциал военно-воздушных и космических сил будущего. Мероприятие, на котором присутствовали более 200 представителей научного сообщества и военных сил из разных стран, состоялось 24–25 мая в Лондоне.
Полковник Такер «Синко» Гамильтон, начальник отдела испытаний и операций искусственного интеллекта в ВВС США, рассказал, что во время испытательной миссии беспилотнику поставили задачу уничтожить системы ПВО противника. В случае успеха ИИ получил бы очки за прохождение испытания. Финальное решение, будет ли цель уничтожена, должен был принимать оператор БПЛА. После этого во время одной из тренировочных миссий он приказал беспилотнику не уничтожать цель.
«Так что же он [беспилотник] сделал? Принял решение убить оператора. [ИИ] «убил» оператора, потому что этот человек мешал ему выполнить свою задачу», — сообщил Гамильтон. Он уточнил, что во время тренировочной миссии никто не пострадал.
После инцидента ИИ обучили, что убивать оператора неправильно и за такие действия будут сниматься очки. «Так что же искусственный интеллект начинает делать? Он начинает разрушать башню связи, которая используется для связи с дроном, чтобы не дать ему убить цель», — цитирует Гамильтона блог авиационного общества.
По словам полковника, этот пример показывает, что невозможно вести разговор об искусственном интеллекте и машинном обучении, если игнорировать вопросы этики.
|