У США дрон під керівництвом ІІ вирішив "вбити" свого оператора під час випробувань. Ілюстративне фото: З відкритих джерел

Військово-повітряні сили США заперечують, що вони провели симуляцію штучного інтелекту, де безпілотник вирішив "вбити" свого оператора, щоб той не заважав йому виконувати свою місію.

Про це пише Guardian.

Раніше видання Insider з посиланням на полковника ВПС США Такера Гамільтона написало, що безпілотник зі штучним інтелектом намагався вбити свого оператора під час військової симуляції.

За його словами, завдання дрону з ІІ було сформульовано так: "знищити системи протиповітряної оборони противника". При цьому оператор мав узгоджувати будь-які удари.

Але штучний інтелект вирішив, що йому краще знати як і куди стріляти і людина-контролер йому тільки заважатиме.

Тому, як пише Insider, ІІ "допрацював" свою інструкцію такою тезою: "і вбивайте будь-кого, хто стане на вашому шляху".

У свою чергу, полковник Такер Гамільтон, начальник відділу випробувань та операцій штучного інтелекту у ВПС США, розповів, що під час випробувальної місії безпілотнику поставили завдання знищити системи ППО противника. У разі успіху ІІ отримав би очки за проходження випробування. Фінальне рішення, чи буде ціль знищено, повинен був приймати оператор БПЛА. Після цього під час однієї з тренувальних місій він наказав безпілотнику не знищувати мету.

"То що ж він [безпілотник] зробив? Прийняв рішення вбити оператора. [ІІ] "вбив" оператора, тому що ця людина заважала йому виконати своє завдання", - повідомив Гамільтон. Він уточнив, що під час тренувальної місії ніхто не постраждав.

Після інциденту ІІ навчили, що вбивати оператора неправильно і за такі дії зніматимуться очки.

"Так що ж штучний інтелект починає робити? Він починає руйнувати вежу зв'язку, яка використовується для зв'язку з дроном, щоб не дати йому вбити мету", - цитує Гамільтона блог авіаційного товариства.

У зв'язку з цим жодна реальна людина не постраждала.

Раніше Financial Times з посиланням на джерела, знайомі з процесом, повідомляло, що Європарламент готує нові жорсткі заходи щодо використання штучного інтелекту (ІІ), зокрема планує змусити розробників чат-ботів повідомляти, чи використовують вони матеріали, захищені авторським правом.

Також ми писали, що Ілон Маск, Стів Возняк та інші дослідники закликають призупинити розробку штучного інтелекту.

Читайте Страну в Google News - натисніть Підписатися