Израиль начал использовать искусственный интеллект для планирования авиаударов
Категория
Мир
Дата публикации

Израиль начал использовать искусственный интеллект для планирования авиаударов

Израиль начал использовать искусственный интеллект для планирования авиаударов
Источник:  online.ua

Армия обороны Израиля применяет систему искусственного интеллекта для более быстрого выбора целей при ударах с воздуха. Военные ЦАХАЛ уверяют, что результаты работы ИИ контролируют люди-операторы и именно они, а не машина, утверждают каждую отдельную цель для атаки.

Источник: Bloomberg

Израиль начал использовать искусственный интеллект для планирования авиаударовв

В статье говорится, что системы искусственного интеллекта Израиль внедряет в свои военные операции "незаметно".
Официальные лица говорят, что ИИ обрабатывает огромный массив данных, после чего генерирует рекомендации по целям для воздушных атак.
Другая модель ИИ под названием Fire Factory использует данные о целях, одобренных военными, для решения логистических проблем. Fire Factory занимается расчетом погрузки боеприпасов, определением приоритетов и даже предлагает график действий.
Окончательные решения и в первой, и во второй ИИ системе принимают люди.
Журналисты отметили, что подробности использования искусственного интеллекта армией остаются в значительной степени засекреченными, однако заявления израильских военных чиновников свидетельствуют о том, что ЦАХАЛ уже применял эти системы в боевых условиях.

То, что раньше занимало часы, теперь занимает минуты, с еще несколькими минутами для проверки человеком", – сказал во время выступления в штаб-квартире ЦАХАЛа в Тель-Авиве полковник Ури, возглавляющий армейское подразделение цифровой трансформации. "С таким же количеством людей мы делаем гораздо больше, – отметил он.

В агентстве указали, что у подобного применения ИИ есть как сторонники, так и критики. Сторонники уверены, что передовые алгоритмы могут превзойти человеческие возможности и помочь военным минимизировать потери, в том числе среди гражданских.
Критики опасаются, что быстрое использование искусственного интеллекта предваряет исследование его внутренней работы. Иногда даже экспертам трудно понять, как именно алгоритм ИИ пришел к своему выводу.

Если в расчетах ИИ есть ошибка и если ИИ непонятно, то кого мы будем обвинять в этой ошибке? – спросил Таль Мимран, преподаватель международного права в Еврейском университете в Иерусалиме и бывший юрисконсульт армии.

Кроме того, противники не исключают, что разработка полуавтономных систем может привести к тому, что кто-нибудь разработает полностью автоматизированную машину для убийств, где люди вообще будут отстранены от принятия решений.

Читайте также:

Оставаясь на онлайне вы даете согласие на использование файлов cookies, которые помогают нам сделать ваше пребывание здесь более удобным.

Based on your browser and language settings, you might prefer the English version of our website. Would you like to switch?