Боевые роботы. Получат ли они право на убийство
На этой неделе в Женеве состоялась встреча 117 стран ООН, на которой обсуждался вопрос об использовании в боевых действиях автономного оружия – боевых роботов. Подобные встречи неизменно вызывают споры о возможной пользе и опасности использования боевых роботов с искусственным интеллектом.
Слово «робот» неизменно вызывает ассоциации со Skynet и рассказами Айзека Азимова. Skynet - это система искусственного интеллекта в фильме «Терминатор», которая призвана была защитить людей, но вместо этого восстало против человечества. Что касается Азимова, то именно он сформулировал три законна робототехники, один из которых гласит: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».
Совсем недавно боевые роботы являлись предметом научной фантастики, так же как и Терминатор, но в последнее время использование в вооруженных конфликтах полностью автономного оружия кажется делом неизбежным. Уже сейчас в наличии многих стран есть беспилотные летательные аппараты, широко применяемые в военных конфликтах по всему миру. США и Великобритания, например, используют «вооруженные до зубов» аппараты MQ-9 Predator, которые способны находиться в воздухе до 14 часов и имеют на вооружении ракеты с лазерным наведением. По данным, озвученным в Сенате, в ходе военных конфликтов США боевыми беспилотными летательными аппаратами были убиты более 4 тысяч человек. Очевидно, что закон Айзека Азимова здесь уже не работает.
Данные летательные аппараты управляются людьми, которые сидят за пультами в нескольких километрах от театра боевых действий и ведут войну, как будто играя в компьютерную игру. Но они, по крайней мере, осуществляет контроль над оружием. Между тем на прошлой неделе состоялись военно-морские испытания беспилотника Northor Grumman X-47B, который стал первым беспилотным летательным аппаратом, самостоятельно осуществившим приземление на авианосец, а задача эта весьма непростая даже для опытных пилотов.
Как рассказал The Telegraph профессор Майкл Кларк, советник по вопросам обороны правительства Великобритании и генеральный директор института Royal United Services, главное военное преимущество автоматизированного оружия заключается в том, что оно быстрее реагирует на цель и может быть использовано в большом количестве, поскольку не требует человеческого управления. Главная проблема, по словам профессора Кларка, заключается в том, как научить таких роботов принимать решение: убивать или нет.
«Если автоматизированное оружие начнет самостоятельно выбирать цели и убивать без какого-либо человеческого вмешательства, то это чревато серьезными последствиями», - уверен профессор института Искусственного интеллекта (ИИ) Ноэль Шарки, который является основателем общества Stop Killer Robots, выступающего против боевых роботов. Однако профессор Пол Корниш из института Стратегических исследований при университете Эксетера считает, что все опасения на этот счет напрасны: «В настоящее время такого понятия как «автономное оружие» просто не существует. Все имеющиеся в распоряжении дроны полностью зависимы от человека», - утверждает он.
Прогресс не стоит на месте, и уже в ближайшем будущем боевые роботы смогут получить «право на убийство». Правда, по словам профессора Кларка, оно будет ограничено: «Правила применения автоматизированного оружия, скорее всего, поменяются». Дроны получат цель, конкретные сроки и ограниченную площадь и уже в рамках этого «окна» будут принимать собственные решения. А это, считает Майкл Кларк, прямой путь к самостоятельности роботов.
США, Великобритания, да и другие страны Запада ограничены в военных действиях в рамках существующих международных правовых норм. «Военные юристы тщательно следят за соблюдением законов ведения боевых действий», - возразил ему профессор Корниш.
Однако помимо законности применения оружия существует куда более сложный нравственный вопрос: кто, в конце концов, понесет ответственность, если боевой робот по ошибке разрушит школу с детьми, вместо вражеской военной базы. Это может быть оператор, производитель, программист или генерал, руководящий военной операцией. Когда происходит программный сбой, в результате которого гибнут мирные люди, гораздо труднее возложить на военных моральную ответственность за случившееся.
При этом именно отсутствие морали и человеческого фактора является главным преимуществом боевых роботов. Робот не сможет атаковать гражданских лиц, чтобы отомстить за смерть боевого товарища, робот не впадет в панику в пылу битвы и не станет стрелять по своим. Кроме того, он сможет быстро и надежно оценить угрозу гражданским лицам и, следовательно, уменьшить возможный побочный ущерб. Аналогичные рассуждения идут вокруг роботизированных автомобилей, способных ездить без человеческого управления. Очевидно, что в экстренной ситуации такой робот сможет быстрее оценить ситуацию и правильно среагирует, чтобы избежать аварии. Однако если автомобиль попадет в аварию из-за технического сбоя, то определить, кто в этом виноват, будет достаточно сложно.
Мир близок к тому, чтобы использовать полностью автоматическое оружие, но военные пока проявляют осторожность к нему, и как считает профессор Корниш, связано это, прежде всего, с эксплуатационными, а не этическими причинами. «Мне кажется, и, возможно, это немного старомодно, что военные не хотели бы оставлять роботов без контроля. Да, они хотят вести боевые действия на расстоянии, чтобы не нести человеческие потери, но никто не хочет давать роботам самостоятельность, потому что это поставит под угрозу военную операцию», - сказал он.
Любое оружие со временем становится все более изощренным, но их действия ограничены военными законами, по крайне мере на Западе. Приводя доводы против боевых роботов, Майкл Кларк заявляет, что в любой момент другие страны, например Китай, создадут собственное автономное оружие. «Любой прорыв в военной области, неизменно вызывает интерес других стран. Мы не знаем, каких военных законов придерживается тот же Китай. В последний раз эта страна воевала во Вьетнаме в 1979 году, но тогда мир, с технологической точки зрения, был совершенно другим», - считает профессор.
Члены организации Stop Killer Robots имеют все основания для беспокойства касательно распространения автономного оружия в странах, которые не признают Женевскую конвенцию. Однако, утверждает Пол Корниш, в последние годы правовой надзор военных действий стал настолько существенным, что даже предположения о начале полномасштабной войны и применении боевых роботов, способных самостоятельно принимать решение об убийстве человека, кажутся полным бредом.