Перейти до основного вмісту

Чи збереже штучний інтелект етичні норми на війні?

Проте ШІ не всім до вподоби

Можливо, автономна зброя, яку розробляє Пентагон, буде кращою за людей у прийнятті моральних рішень. А можливо роботи стануть неконтрольованим кошмаром майбутніх воєн.

Містечко Вест-Пойнт. Курсанти скупчились навколо мініатюрної арени. Вони спостерігають за роботизованим танком заввишки з маленьку пляшку і металевим списом. Танк оточений різнокольоровими повітряними кульками, що символізують терористів або цивільних. Він діє автономно, використовуючи лише мініатюрну камеру для виявлення червоних кульок. Курсанти здригаються від хлопків і різких звуків у кімнаті: «боєць «ІДІЛ» на землю».

Цей раптовий вибух є елементом занять із військового етикету. Програму викладають другокурсникам у Військовій академії США. Курсанти за допомогою алгоритмів програмують танки. Вони самі вирішують порядок поводження машин із ворогом. Робота роблять більш-менш агресивним під час виконання місії, але мінімізують ризик заподіяння ненавмисної шкоди.

Такі заняття зумовлені активним розвитком смертоносної автономної зброї. Заняття з кульками змушують замислитися курсантів щодо етичних рішень, з якими вони стикнуться як командири на місцях. Викладачі Вест-Пойнт вважають застосування роботів-військових неминучим. Завдання — підготувати майбутніх офіцерів застосовувати їх.

Кожен студент шукає свій підхід, що створює варіативність вирішення проблеми. Навіть маленький вітерець кондиціонера може випадково наштовхнути «цивільну кульку» на спис танка. Тоді він сфокусується на цій мішені і вже не зможе знайти ворога. Деякі програмують роботів занадто толерантними, і вони взагалі нікого не вбивають. Знайти золоту середину дуже важко. Треба зрозуміти, якими моральними цінностями ми наділяємо себе і що вкладається в слово «ворог». Головне, щоб курсанти знайшли для себе відповіді на ці складні питання.

Курсанти Вест-Пойнт допомагають американським військовим не втрачати першість у розробці зброї на основі штучного інтелекту. Комп’ютерні алгоритми, що керують зброєю і ведуть її до цілі, можуть стати новим еволюційним етапом воєн. І невизначеність курсантів щодо надання повноважень роботам і взаємодії в конфліктних ситуаціях чудово демонструють етичну проблему сучасних технологій. Розподіл між повною автономією машин і втручанням людини.

Вже сьогодні ВМС США експериментують із кораблями, які самостійно проходять тисячі миль, полюючи на підводні човни і кораблі противника. Прикривають гарматним вогнем морську піхоту, яка штурмує пляж. У свою чергу ВПС розробляє безпілотники, які зможуть самостійно визначати і вражати цілі, без «пілотів», що сидітимуть за тисячу миль від місця подій перед екраном монітора.

Застосування штучного інтелекту на війні зустрічає і непідтримку. Мері Уерем, співробітник неурядової організації Human Rights Watch, закликає розглянути моральні наслідки застосування штучного інтелекту як зброї. Основний аргумент — брак співчуття й етичних норм у машин. Використовуючи їх для вбивства, людство переступає через моральні норми. Роботи не можуть всебічно оцінити ситуацію, створюючи ризик для цивільного населення, що є ключовою вимогою міжнародного права. Широке використання автономної зброї робить війни небезпечнішими. Уерем вважає, що випадкові помилки, зроблені машинами, можуть призвести до великого колапсу. Хто тоді понесе відповідальність: той, хто дав команду на застосування ШІ? Фірма-виробник? Чи, можливо, конструктор? Сьогодні у 26 країнах із 28 опитаних, у тому числі США, Китаї та Росії, більша частина населення проти застосування штучного інтелекту на війні.

Окрім моральної головоломки, розробники стикнулися з проблемою непередбачуваності комп’ютерного мислення. Машини шукають найкоротший шлях виконання завдання, а не етичний. Наприклад, у 2018 році самохідний автомобіль Uber збив на смерть жінку в Арізоні. Урядове розслідування тривало 2 роки. Виявилось, що автомобіль був цілком справним. Він був запрограмований пропускати людей лише на пішохідних переходах. Оскільки жінка переходила в недозволеному місці, машина не сприйняла її як пішохода.

Така проблема досить поширена для штучного інтелекту. Неможливо передбачити все, що може статися на полі бою. Що робити, якщо незначні зміни — бруд, що закриває нормальний камуфляж, кров на формі, —заплутають комп’ютер. Через такі неточності він може сприйняти свої війська за ворожі.

Останніми роками, у технологіях відбувся великий прогрес, і зупинятися не збирається. Застосування штучного інтелекту на війні тепер має лише часові рамки — як скоро. Тому питання «скільки повноважень дати машині на полі бою» не має простої відповіді. Машини можуть реагувати швидше, ніж люди, і не відчувати втоми від війни. Обстановка бойових дій інколи змушує командира прийняти хибне рішення. Коли вбивають близького друга, у пориві гніву солдат може порушити наказ і завалити місію. Машини ж навпаки є беземоційними. Вони завжди сконцентровані на завданні й не відходять від загального плану. 

Моральний бік війни — складне питання. У кожного різні думки, а тому й різні думки щодо застосування штучного інтелекту. Можливо, один із курсантів Військової академії знайде компроміс, навколо якого об’єднаються. Або ж штучний інтелект на війні стане ще одним яблуком розбрату в суспільних дискусіях.

Рубрика "Гринлайт" наполняется материалами внештатных авторов. Редакция может не разделять мнение автора.

У самурая нет цели, есть только путь. Мы боремся за объективную информацию.
Поддержите? Кнопки под статьей.