Нотки человеческого разума: американцы хотят изменить военный искусственный интеллект

17

Нотки человеческого разума: американцы хотят изменить военный искусственный интеллект

Источник: vgtimes.ru

Цифровая дегуманизация отменяется?

Для начала предостережение от борцов с военным искусственным интеллектом:

«Машины не видят в нас людей, человек для них лишь фрагмент кода, который нужно обработать и отсортировать. От умных домов до использования собак-роботов полицейскими, технологии искусственного интеллекта и автоматизированного принятия решений стали играть большую роль в нашей жизни. На крайнем конце ряда цифровых устройств находятся роботы-убийцы. Если мы допустим связанную с ними дегуманизацию, мы вскоре станем бороться за то, чтобы защитить себя от решений, принятых машиной и в других сферах нашей жизни. Нам нужно запретить прежде всего автономные системы оружия, чтобы предотвратить сползание к цифровой дегуманизации».

Пацифисты, требующие заморозить все работы по боевому искусственному интеллекту, делятся на два типа. Первый – это пересмотревшие «Терминаторов» и прочие аналоги. Вторые – оценивающие будущее по современным возможностям боевых роботов. Прежде всего, крылатой беспилотной техники, снаряженной ударными системами.

Эпизодов ошибочных или намеренных уничтожений гражданских лиц бепилотниками хватает. На Ближнем Востоке американские дроны уничтожили не одну свадебную церемонию. Операторы летающих роботов идентифицировали праздничную стрельбу в воздух как маркер партизанских перестрелок. Если специально обученный человек не в состоянии с нескольких сот метров определить детали цели, то что говорить об искусственном интеллекте. На данный момент машинное зрение по адекватности восприятия картинки не идет ни в какое сравнение с человеческим глазом и мозгом. Разве что не устает, но и это решается своевременной сменой оператора.

Над военным искусственным интеллектом явно сгущаются тучи. С одной стороны, появляется все больше свидетельств скорого технологического прорыва в этой области. С другой – все больше голосов раздается в пользу ограничения или даже запрета работ в этом направлении.

Несколько примеров.

В 2016 году появилась петиция, в которой видные мыслители и тысячи других людей потребовали не давать искусственному интеллекту летальное оружие. В числе подписантов Стивен Хокинг и Илон Маск. За семь последних лет петиция собрала более 20 тыс. подписей. Помимо сугубо гуманистических опасений, связанных с возможностью бесконтрольного уничтожения людей, есть и юридические нестыковки.

Кого будут судить в случае фиксации военных преступлений, совершенных искусственным интеллектом? Оператора дрона, который сжег несколько селений с мирными жителями, легко найти и наказать соответственно. Искусственный интеллект – это продукт коллективного труда программистов. Здесь очень сложно привлечь кого-то одного. Как вариант, можно судить компанию-производитель, например, ту же Boston Dynamics, но тогда кто же будет связываться с производством автономных дронов. Мало у кого будет желание оказаться на скамье подсудимых второго Нюрнбергского трибунала.


Источник: koreyaportal.com
Вероятно, именно по этой причине промышленники и программисты стараются затормозить развитие боевых навыков искусственного интеллекта.

Например, в 2018 году около двух сотен IT-компаний и почти пять тысяч программистов обязались не работать по боевым автономным системам. В Google уверяют, что через пять лет они совершенно откажутся от военных контрактов в сфере искусственного интеллекта. По легенде, такой пацифизм не случаен – программисты, узнав, что пишут коды для военных систем, пригрозили массово уволиться. В итоге нашли полюбовный вариант – действующие контракты завершаются, а новые не заключаются. Не исключено, ближе к дате отказа от работ по боевому ИИ несговорчивых «программеров» просто уволят, заменив на не менее талантливых. К примеру, из Индии, которая давно славится своими дешевыми интеллектуальными ресурсами.

Еще есть контора «Остановим роботов-убийц» (Stop Killer Robots), призывающая мировых лидеров подписать что-то вроде Конвенции о запрете боевого ИИ. Пока безуспешно.

Все вышесказанное заставляет военных чиновников искать обходные пути. Не ровен час на выборах выиграет президент США, не только обещающий всеобщую ЛГБТ-благодать, но и запрет на совершенствование военного искусственного интеллекта.

Человеческое мышление для ИИ

Пентагон, судя по всему, на пороге некого прорыва в ИИ. Либо его в этом убедили. По-другому нельзя объяснить появление новой директивы, регламентирующей очеловечивание автономных боевых систем. Кэтлин Хикс, заместитель министра обороны США, комментирует:

«Учитывая значительный прогресс в области технологий, происходящий вокруг нас, обновление нашей директивы об автономии систем вооружения поможет нам оставаться мировым лидером не только в разработке и развертывании новых систем, но и в области безопасности».
Слышали все, кто трепещет перед автономными роботами-убийцами? Американский искусственный интеллект отныне будет самым гуманным. Как и сами американцы, впрочем.


Источник: robroy.ru
Проблема в том, что никто толком не понимает, как привить роботам с оружием пресловутое «человеческое суждение в отношении применения силы». Точная формулировка из обновленной в конце прошлого января Концепции:

«Автономные и полуавтономные системы вооружения будут разработаны таким образом, чтобы командиры и операторы могли осуществлять надлежащий уровень человеческого суждения в отношении применения силы».
Вот, например, если при зачистке дома штурмовик сначала бросает гранату в комнату, а потом заходит сам. Это человеческое суждение? Безусловно, и никто его не вправе судить, особенно если он предварительно выкрикнул «Есть кто?». А если по такой же схеме отработает автономный робот?

Человеческое суждение – слишком широкое понятие, чтобы можно было ставить какие-либо границы. Расстрел русских пленных бойцами ВСУ – это тоже человеческое мышление?

Дополнение к Директиве Пентагона 3000.09 об автономных боевых системах полно банальностей. Например,

«лица, разрешающие использование, руководство использованием или эксплуатацию автономных и полуавтономных систем вооружения, должны делать это с надлежащей осмотрительностью и в соответствии с законами войны, применимыми договорами, правилами безопасности систем вооружения и применимыми правилами ведения боевых действий».
До этого, видимо, работали неосмотрительно и не в соответствии с законами войны.

При этом в американской и европейской печати нет ни намека на критику январской инициативы Пентагона. Под лживой гуманизацией искусственного интеллекта скрывается не что иное, как попытка замаскировать происходящее. Теперь у военных США будет твердый козырь в борьбе с противниками искусственного интеллекта в армии. Посмотрите, у нас не простой ИИ, а с «надлежащим уровнем человеческого суждения».

Учитывая то, что до сих пор нет четкого и общепризнанного определения «искусственного интеллекта», всё буквотворчество вокруг него воспринимается с иронией. По меньшей мере.

Как заставить математические алгоритмы, работающие с большими массивами данных, играть в человеческие суждения?

На этот главный вопрос в обновленной Директиве 3000.09 ответа нет.
Ссылка на источник

Читайте также

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here
Перетащите ползунок, чтобы вставить комментарий