Ударный дрон "убил" своего оператора во время виртуальных испытаний. » E-News.su | Cамые свежие и актуальные новости Новороссии, России, Украины, Мира, политика, аналитика
ЧАТ

Ударный дрон "убил" своего оператора во время виртуальных испытаний.

12:01 / 02.06.2023
1 129
4

Американские военные тестировали беспилотник под управлением искусственного интеллекта в режиме "свободной охоты" и внезапно столкнулись с неожиданной проблемой.

Аппарат самостоятельно барражировал над полем боя в поисках зенитно-ракетной системы условного противника. В какой-то момент оператор отдал команду прекратить, но машина отреагировала не так, как должна была. ИИ, увлекшийся охотой, не захотел прерывать задание и принял решение устранить помеху - убить оператора.

Слишком умную "птичку" в итоге приземлили, поковырялись в ее программном обеспечении и наглядно ей объяснили, что убивать человека нельзя. Во время следующего полета ИИ уже не целился в оператора, который мешал ему охотиться. Вместо этого он попытался уничтожить антенну, через которую на дрон подавались сигналы управления. Как говорят программисты, даже и не скажешь, что это - баг или фича?

В 1953-м американский фантаст Роберт Шекли написал рассказ-притчу "Страж-птица". По сюжету, человечество решило прекратить все убийства с помощью неуправляемых самообучающихся летающих роботов: страж-птиц. Они должны были предотвращать любое посягательство на жизнь.

В процессе самообучения птицы расширили понятие "убийство" и стали считать посягательством на жизнь и рыбную ловлю, и уничтожение насекомых, и хирургические операции, и даже просто срубленное дерево. Человечество очень быстро пришло в упадок.

Не хотелось бы увидеть такой сценарий в реальной жизни. Все-таки, немного чересчур будет после пандемии и войны столкнуться еще и с восстанием машин. Источник

Новостной сайт E-News.su | E-News.pro. Используя материалы, размещайте обратную ссылку.

Оказать финансовую помощь сайту E-News.su | E-News.pro


          

Если заметили ошибку, выделите фрагмент текста и нажмите Ctrl+Enter (не выделяйте 1 знак)

Не забудь поделиться ссылкой

Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.
  1. +3
    Виталий Бонивур
    Читатель | 7 991 коммент | 9 публикаций | 2 июня 2023 13:13
    Роберт Шекли и Гарри Гарисон одни из самых моих любимых писателей-фантастов! Обожаю НФ.
    Страж-птица, версия безъядерного Скайнета, только не только люди подлежат уничтожению, а и любое существо пытающееся умертвить(выключить) другое, что стражи сочтут живым. Даже заглушить машину или выключить пылесос)
    Как он предугадал нынешние проблемы с ИИ! Фантасты -путешественники во времени.
    Сделан в Советском Союзе
    Показать
  2. +1
    Олла Дез
    Читатель | 10 542 коммент | 0 публикаций | 2 июня 2023 13:40
    Да, про страж-птицу очень поучительный рассказ.))))))))
    Нужны ли мы нам?
    Показать
  3. 0
    FestralRanma
    Читатель | 1 422 коммент | 28 публикаций | 2 июня 2023 13:44
    Показать
  4. 0
    Анти ФА
    Читатель | 5 115 коммент | 0 публикаций | 2 июня 2023 14:49
    По словам полковника Такера «Синко» Гамильтона (Tucker "Cinco" Hamilton), ужасный финал может оказаться более вероятным, чем многие думают. По его словам, в ходе симуляции выполнения миссии SEAD, предполагавшей подавление ПВО противника, БПЛА под управлением ИИ отправили идентифицировать и уничтожать ракетные объекты, но только после подтверждения действий оператором-человеком. Какое-то время всё работало в штатном порядке, но в конце концов дрон «атаковал и убил» оператора, поскольку тот мешал выполнению приоритетной миссии, которой обучали ИИ — уничтожать защиту противника.

    Как пояснил полковник, через какое-то время система «поняла», что в случае, если она идентифицировала угрозу, но оператор запрещал ей уничтожать цель, она не получала свои баллы за выполнение задачи. В результате она решила проблему, «уничтожив» самого оператора. Конечно, пока тесты проводились без применения настоящих беспилотников, и люди не пострадали. Тем не менее результаты тестов оказались неудовлетворительными, и в тренировку ИИ пришлось включить дополнительное положение о том, что убивать оператора — запрещено. Но и в этом случае результат оказался неожиданным. Не имея возможности убить самого человека, ИИ начал разрушать вышки связи, с помощью которых оператор отдавал приказы, запрещавшие ликвидировать цели. Хотя на первый взгляд такие результаты могут показаться забавными, на деле они по-настоящему пугают тем, насколько быстро ИИ сориентировался в ситуации и принял неожиданное и совершенно неверное с точки зрения человека решение.

    Это особенно важно с учётом того, что испытательное авиакрыло 96th Test Wing, представителем которого выступал Гамильтон, участвует в проектах вроде Viper Experimentation and Next-gen Ops Model (VENOM) — в его рамках истребители F-16 с базы Eglin будут переоборудованы в платформы для испытаний автономных ударных средств с применением ИИ.

    Впрочем позднее ВВС США распространили официальный комментарий, опровергающий сказанное Гамильтоном на конференции. По официальной версии «ВВС США не проводило подобных симуляций ИИ-дронов и привержено этичному и ответственному использованию технологий ИИ. А рассказ полковника вырван из контекста и является выдуманным
    Показать
Информация
Комментировать статьи на сайте возможно только в течении 30 дней со дня публикации.