Роботы-убийцы уже существуют, и они были здесь очень давно
Согласно заявлению Министерства обороны США, люди всегда будут принимать окончательное решение о том, могут ли вооруженные роботы стрелять . Их разъяснение происходит на фоне опасений по поводу новой усовершенствованной системы прицеливания, известной как ATLAS , которая будет использовать искусственный интеллект в боевых машинах для нацеливания и выполнения угроз. В то время как общественность может испытывать беспокойство по поводу так называемых «роботов-убийц» , концепция не нова — роботы с автоматами «SWORDS» были развернуты в Ираке еще в 2007 году.
Наши отношения с военными роботами уходят еще дальше. Это потому, что когда люди говорят «робот», они могут иметь в виду любую технологию с некой формой «автономного» элемента, которая позволяет ему выполнять задачу без необходимости прямого вмешательства человека .
Эти технологии существуют очень давно. Во время Второй мировой войны был разработан предохранитель для сближения артиллерийских снарядов на заданном расстоянии от их цели. Это сделало снаряды гораздо более эффективными, чем они могли бы быть, за счет расширения процесса принятия решений человеком и, в некоторых случаях, полного выведения человека из цикла.
Поэтому вопрос не в том, должны ли мы использовать автономные системы оружия в бою — мы их уже используем, и они принимают разные формы. Скорее, мы должны сосредоточиться на том, как мы их используем, почему мы их используем и в какой форме — если таковые имеются — человеческое вмешательство должно принимать.
Рождение кибернетики
Мое исследование исследует философию взаимоотношений человека с машиной, уделяя особое внимание военной этике и тому, как мы различаем людей и машины. Во время Второй мировой войны математик Норберт Винер заложил основы кибернетики — изучения взаимодействия людей, животных и машин — в своей работе по управлению зенитным огнем. Изучая отклонения между предсказанным движением самолета и его фактическим движением, Винер и его коллега Джулиан Бигелоу придумали концепцию «петли обратной связи», где отклонения могут быть возвращены в систему для корректировки дальнейших прогнозов.
Таким образом, теория Винера вышла далеко за рамки простого дополнения, поскольку кибернетические технологии могут использоваться для предотвращения человеческих решений — удаления ошибочных людей из цикла, чтобы принимать более быстрые и быстрые решения и повышать эффективность систем вооружения.
За годы, прошедшие после Второй мировой войны, компьютер появился наравне с кибернетической теорией, сформировав центральную опору военного мышления: от «умных бомб» с лазерным наведением эпохи Вьетнама до крылатых ракет и беспилотников Reaper.
Уже недостаточно просто усиливать человека-воина, как это было в первые дни. Следующим этапом является полное устранение человека — «максимизация» военных результатов при минимизации политических издержек, связанных с гибелью союзников. Это привело к широкому использованию военных беспилотников США и их союзниками. Хотя эти миссии весьма противоречивы, в политическом плане они оказались гораздо предпочтительнее общественного протеста, вызванного гибелью военных.
Человеческая машина
Одним из наиболее спорных вопросов, связанных с войной беспилотников, является роль пилота беспилотника или «оператора». Как и все сотрудники, их операторы обязаны выполнять свою работу хорошо. Однако условия успеха далеко не ясны. Как замечает философ и культурный критик Лори Кэлхун: «Дело операторов UCAV [дронов] — убивать».
Таким образом, их задача состоит не столько в том, чтобы принимать человеческое решение, сколько в том, чтобы выполнять работу, для которой они заняты. Если компьютер говорит им убивать, есть ли причина, почему они не должны?
Аналогичный аргумент может быть сделан в отношении современного солдата. От GPS-навигации до видеосвязи, солдаты несут многочисленные устройства, которые связывают их в обширную сеть, которая отслеживает и контролирует их на каждом шагу.
Это приводит к этической головоломке. Если цель солдата состоит в том, чтобы выполнять приказы к письму — с камерами, используемыми для обеспечения соответствия, — тогда почему мы вообще беспокоимся о людях-солдатах? В конце концов, машины гораздо более эффективны, чем люди, и не страдают от усталости и стресса так же, как человек. Если солдаты должны вести себя программным, роботизированным образом, то какой смысл проливать ненужную кровь союзников?
Ответ здесь заключается в том, что человек служит алиби или формой «этического прикрытия» для того, что в действительности является почти полностью механическим, роботизированным актом. Так же, как задача оператора беспилотника заключается в том, чтобы наблюдать за беспилотником с компьютерным управлением, так и роль человека в новой системе ATLAS Министерства обороны состоит лишь в том, чтобы действовать в качестве этического прикрытия на случай, если что-то пойдет не так.
Хотя беспилотники Predator и Reaper могут стоять на переднем крае общественного воображения о военной автономии и «роботах-убийцах», эти новшества сами по себе не являются чем-то новым. Они являются лишь последними в длинной череде событий, которые уходят в прошлое на многие десятилетия.
В то время как некоторым читателям может быть приятно представить, что машинная автономия всегда будет подчиняться принятию человеческих решений, это действительно упускает из виду. Автономные системы уже давно встроены в вооруженные силы, и мы должны подготовиться к последствиям.