19.01.2024, 09:08 122631

Взяться за оружие: ChatGPT разрешили применять в военных целях

Взяться за оружие: ChatGPT разрешили применять в военных целях
Фото: Depositphotos
Американская компания OpenAI обновила политику использования чат-бота ChatGPT на основе искусственного интеллекта (ИИ) - из документа исчез прямой запрет на применение этой технологии в военных целях. По мнению экспертов, в перспективе ИИ может радикально изменить военные конфликты, но при этом его применение в бою сопряжено с большим количеством рисков. Подробности о том, почему ChatGPT разрешили применять в военных целях и чем может обернуться это решение, сообщает издание "Известия".

Большие перемены

На изменения в политике использования ChatGPT обратило внимание издание The Intercept. Как отмечается в публикации его журналистов, до 10 января на странице с правилами применения разработок OpenAI было специальное положение, запрещавшее использование ИИ для "деятельности, сопряженной с высоким риском физического вреда", - в том числе "разработки оружия" и "военных действий".

Эти нормы исключали возможность использования ChatGPT любыми военизированными государственными органами, включая министерство обороны. Однако в новой версии правил использования чат-бота пункт о недопустимости его применения как в армии, так и в военном деле исчез. В то же время сохранился запрет на применение нейросетей OpenAI для причинения вреда себе или другим, включая создание или использование оружия.

Как пояснили в OpenAI, политика использования ChatGPT была изменена из-за необходимости упростить свод правил и принципов. В компании отметили, что требование "не причинять вред себе и другим" по-прежнему остается очень широким. Кроме того, его уточняет отдельный запрет на разработку и использование оружия с помощью чат-бота.

Любое применение наших технологий, в том числе военными, для разработки или использования оружия, нанесения вреда другим людям или уничтожения собственности, а также участие в несанкционированной деятельности, нарушающей безопасность какой-либо службы или системы, запрещено", - подчеркнули в OpenAI.


Навстречу Пентагону

Как отмечает в беседе с "Известиями" основатель и СЕО Mirey Robotics, эксперт по ИИ Андрей Наташкин, нельзя сказать, что компания OpenAI открыто заявила о том, что ее разработки будут использоваться в военных целях. Она просто поменяла политику использования данных и, скорее всего, не очень хотела акцентировать на этом внимание.

Факт того, что из документа исчез прямой запрет на использования чат-бота в военных целях, подметили журналисты, после чего представителям компании пришлось давать комментарии", - рассказывает эксперт.


По словам Наташкина, такая позиция абсолютно понятна: крупные IT-компании не раз оказывались в центре скандалов из-за контактов с военными. К примеру, в 2017 году сотрудничать с минобороны США стала корпорация Google - ее разработки в сфере машинного обучения должны были использоваться для различных задач американских военных, в том числе для более точного поражения целей дронами и распознавания лиц.

При этом решение Google о сотрудничестве с военными вызвало бурную негативную реакцию как среди сотрудников корпорации, так и во внешней среде, отмечает Андрей Наташкин. В итоге под давлением общественности компания публично отказалась от сотрудничества, а в ее политике появился прямой запрет на использовании ИИ-разработок для военных задач.

В 2022 году другая крупная американская компания, Boston Dynamics, заявила, что не будет передавать свои разработки военным, хотя ранее у нее был подобный кейс", - отмечает специалист.


В то же время возможность подобного сотрудничества крайне заманчива для различных компаний, поскольку Пентагон и правительство США являются крупнейшими заказчиками, говорит главный специалист отдела комплексных систем защиты информации компании "Газинформсервис" Дмитрий Овчинников. По словам эксперта, корпорация Boeing и многие компании в Кремниевой долине выросли как раз на военных заказах. А Apple многие из своих инновационных продуктов создает, опираясь на те технологии, которые были разработаны на основе грантов и инвестиций правительства США в интересах американской армии.

Боевые перспективы

Финансовая составляющая - это та причина, по которой заключение контракта с Пентагоном является заветной мечтой для руководства многих компаний, говорит Дмитрий Овчинников. Впрочем, есть и другая причина - невозможность полного контроля использования чат-ботов, в том числе ChatGPT.

Да, можно составить множество ограничений и заставить пользователей подписывать лицензионное соглашение, но фактически ChatGPT может быть использован в военных целях без ведома создателей. - Так зачем же ставить ограничение, которое нельзя проконтролировать?" - поясняет собеседник "Известий".


По словам Овчинникова, нейросети и ИИ уже сегодня активно применяются военными в алгоритмах обработки спутниковых фотографий. Кроме того, примитивным ИИ оснащены многие головки наведения баллистических и противокорабельных ракет. Между тем Андрей Наташкин указывает на то, что использование ИИ в военных целях потенциально несет в себе большие риски.

В первую очередь встает вопрос о контроле технологий и ответственности за ошибки, цена которых - человеческие жизни. Причем подобные случаи есть уже сегодня", - говорит эксперт.


В качестве примера Наташкин приводит инцидент, который произошел в 2020 году в Ливии, где боевой дрон в автоматическом режиме выследил и атаковал цель. Официально вся информация по этому происшествию была засекречена - обрывочные данные содержатся лишь в отчете Совета Безопасности ООН, опубликованном год спустя. Из этого документа известно, что атака произошла в Ливии, дрон был произведен в Турции, а поражена была "человеческая цель". Этот случай стал первым реальным примером того, как ИИ нанес удар без контроля со стороны человека.

Дмитрий Овчинников считает, что в будущем использование ИИ в военной сфере будет только нарастать. К примеру, общим искусственным интеллектом может быть оснащен рой ракет, за счет чего он будет более надежно поражать цели и подавлять противоракетную оборону (ПРО) противника.

Обратная сторона

Между тем коммерческий директор компании "Код безопасности" Федор Дбар, говоря о перспективах применения ИИ в военной сфере, призывает разделять понятия нейросетей и технологий, подобных ChatGPT. Нейросети используются в военном деле давно и активно: это и системы наведения высокоточного оружия, и работа с широкополосным форматом связи, и шифрование, и различные системы управления боем или дронами.

В то же время важно понимать, что такие технологии, как ChatGPT, - это "гражданский" вариант применения нейросетей, который малопригоден для каких-либо задач военного назначения. В целом все угрозы военного применения чат-ботов сильно переоценены", - считает собеседник "Известий".


По мнению Дбара, разговоры о том, что ИИ или нейросети могут представлять угрозу для человечества, сегодня относятся к разряду дилетантства. В настоящее время цифровые технологии не угрожают планете. Как поясняет эксперт, все инструменты на основе ИИ создают программисты, которые в процессе разработки среди прочего закладывают в свои продукты механизмы безопасности.

С точки зрения угроз для человечества куда опаснее выглядит вероятность ядерной войны или падения астероида на Землю", - подчеркивает специалист.


Федор Дбар дополняет, что на сегодняшний день нет ни особого искусственного интеллекта, ни нейросети, которая могла бы полностью управлять какой-либо системой. Конечно, в шахматах компьютер может двигать фигуры и продумывать стратегию, но в реальности (особенно в военной сфере) такого сейчас нет - и подобная технология вряд ли появится в обозримом будущем. Поэтому нейросети - именно нейросети, а не чат-боты - могут быть лишь элементом какой-либо военной инфраструктуры, но не полноценными "командующими", заключает эксперт.
 
Нашли ошибку в тексте?

Выделите ошибку и одновременно нажмите Ctrl + Enter


Если Вы располагаете информацией по теме данного материала, отправляйте нам видео или новости на почту.

новости по теме

Читаемое

Новости RT

    Новости Китая

      Ваше мнение

      В Казахстане онлайн-мошенничество приняло катастрофический характер. На сегодняшний день онлайн-кредитование является не только удобным благом цифровизации, но и распространенным способом мошенников для обмана и грабежа граждан. Считаете ли вы, что в Казахстане необходимо запретить онлайн-кредитование и микрозаймы МФО под сумасшедшие проценты?