Александр Розов (alex_rozoff) wrote,
Александр Розов
alex_rozoff

Categories:

Кто стреляет из авиа-пушки и кто отвечает за последствия? Забавно знать проблему заранее

"...Впору вспомнить закон диалектики о развитии по спирали - историко-эмпирический и философский принцип, согласно которому, новый виток прогресса начинается с ревизии каких-то негативных деклараций прошлого витка. Прошлый виток прогресса авиации породил реактивные сверхзвуковые машины и ракетное оружие дальнего действия. При этом, естественно, возникла негативная декларация: винтовые машины и авиапушки - не годятся. На той технико-технологической ступени было так. А сейчас новая ступень начала ревизию.
…Человеку трудно стрелять в воздушном бою. Время его реакции не бывает менее 100 миллисекунд, а самолет противника на перекрестных курсах пройдет сектор выстрела примерно за 20 миллисекунд. Слишком быстро. Не успеешь прикинуть упреждение, и надавить гашетку. Но даже примитивный стрелковый робот-автомат (вроде таких, что тестировались в 1970-х, на заре робототехники) не просто успеет выстрелить, но даже наведет ствол оружия на цель (если она проходит в стороне от расчетной линии огня)...
Вопрос: почему такие стрелковые системы (известные с 1970-х) не ставятся на любые истребители? Почему оружейники отдают авиационную пушку под контроль пилота (игнорируя тот факт, что человеку не хватает скорости реакции в воздушном бою)? В поисках ответа, придется рассмотреть основы бюрократии влияющей на инженерию истребительной авиации. Известно, что на войне случаются эксцессы (т.е. что-нибудь попадает не туда). При эксцессе по правилам бюрократического государства, следует собрать судебную коллегию, и мурыжить людей, чтобы восстановить ритуальную (т.н. «юридическую») справедливость. Но если эксцесс совершен компьютером, то кого тут назначать юридически виновным? Программиста? Бюрократия против таких фокусов кибернетики, и ТАКОЕ не получит «зеленый свет» в бюрократическом государстве.
Бюрократия делает так: пилоту дается кнопка, нажатие на которую производит запуск самонаводящейся ракеты. Ракетой управляет кибер, но за пуск отвечает человек. Если случился эксцесс, то уже готов виновный! Так ракетное оружие воздушного боя было объявлено главным, а авиапушка - чем-то вспомогательным и редко применяемым..."
(24.09.2016. Серия Меганезия. Апостол Папуа и другие гуманисты. I. Мидгардсорм)
https://www.proza.ru/2016/09/24/1035

Прошло 3 года, и вот я читаю сегодняшнюю военно-техническую фактографию:
13.11.2019 "Роботы-убийцы — это уже не фантастика, а реальность".

(цитирую по: https://hi-news.ru/robots/roboty-ubijcy-eto-uzhe-ne-fantastika-a-realnost.html) Роботы-убийцы предназначены для принятия решений о лишении жизни или сохранении ее самостоятельно, без человеческого контроля. Этот тревожный признак специалисты РАХ назвали «третьей революцией в войне» после изобретения пороха и атомной бомбы. Как активисты, так и государства призывают к созданию свода международных правил, регулирующих создание подобного оружия, или даже прямого запрета на его исплозование. Но некоторые страны, в том числе США, Китай и Российская Федерация, до сих пор не приняли мер по данному вопросу.
Специалисты РАХ выявили по меньшей мере 30 мировых производителей оружия, которые не имеют политики против разработки вышеобозначенных видов систем вооружения. В их число входят американские оборонные фирмы Lockheed Martin, Boeing и Raytheon, китайские государственные конгломераты AVIC и CASC, израильские фирмы IAI, Elbit и Rafael, российский Ростех и турецкая STM.
До тех пор, пока государства не договорились коллективно создать какой-то режим регулирования или, в идеале, превентивный запрет, есть вероятность, что компании будут разрабатывать и производить, а в конечном итоге и использовать оружие, которое не имеет достаточного человеческого контроля. — сказал автор доклада Фрэнк Слипер.
Активисты не считают при этом, что военное применение той или иной системы искусственного интеллекта является проблемой. Проблема именно в том, что такие системы могут стать неподконтрольны человеку. А какое мнение имеете вы по данному вопросу? Выскажитесь в комментариях и в нашем чате в Телеграм.
К примеру, американские военные уже разрабатывают пушку с искусственным интеллектом, которая будет самостоятельно выбирать и поражать цели, а также танки с искусственным интеллектом, которые, смогут «идентифицировать и поражать цели в три раза быстрее, чем любой человек». А STM, турецкая государственная оборонная компания, уже вовсю производит оснащенного искусственным интеллектом робота под названием KARGU. В комплекте с возможностями распознавания лиц, KARGU может автономно выбирать и атаковать цели, используя координаты, предварительно выбранные оператором. Сообщается, что Турция намерена использовать KARGU в Сирии.
PAX больше всего обеспокоены потенциальным развертыванием ИИ в наступательных системах, которые будут выбирать и атаковать цели самостоятельно, без человеческого надзора. Группа задается вопросом о том, каким образом это оружие будет проводить различие между военными и гражданскими лицами. У тому же, юристы до сих пор не знают, кто будет нести ответственность, если автономное оружие нарушит международное право.
В то время как развитие автономного оружия продолжается, РАХ считают, что еще есть возможность предотвратить возможную катастрофу. Группа заявила, что компании-производители могут сыграть решающую роль в этом, и должны выступить против производства полностью автономного летального оружия. Что касается систем вооружения с поддержкой искусственного интеллекта, то представители РАХ заявляют, что оборонные фирмы должны следовать некому своду правил, который еще предстоит разработать. (конец цитаты).

Глобальная бюрократия предельно примитивна - и потому полностью предсказуема.
Такие дела...
Subscribe

Recent Posts from This Journal

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic
  • 175 comments
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →

Recent Posts from This Journal