На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

ИА Реалист

288 подписчиков

Свежие комментарии

ЦАХАЛ создает искусственный интеллект для шпионажа

ИЕРУСАЛИМ (ИА Реалист). Управление военной разведки, входящее в состав генерального штаба Армии обороны Израиля (ЦАХАЛ) создает мощную модель искусственного интеллекта, похожего на ChatGPT, обучение которой проводится на анализе обширной коллекции перехваченных палестинских сообщений. По данным The Guardian, израильский ИИ будет использоваться для шпионажа, значительно расширив его возможности.

Совместное расследование с израильско-палестинским изданием +972 Magazine и ивритоязычным изданием Local Call показало, что подразделение «8200» обучило модель искусственного интеллекта понимать разговорный арабский язык, используя большие объемы телефонных разговоров и текстовых сообщений, полученных в ходе обширного наблюдения за оккупированными территориями. По словам источников, знакомых с проектом, подразделение приступило к созданию модели для создания сложного инструмента, похожего на чат-бот, способного отвечать на вопросы о людях, за которыми оно следит, и предоставлять информацию об огромных объемах данных наблюдения, которые оно собирает. Элитное агентство по прослушиванию, сопоставимое по своим возможностям с Агентством национальной безопасности США (АНБ), ускорило разработку системы после начала войны в Газе в октябре 2023 г. Во второй половине прошлого года модель все еще проходила обучение. Неясно, была ли она уже развернута. Попытки создать большую языковую модель (LLM) — систему глубокого обучения, которая генерирует текст, подобный человеческому, — были частично раскрыты в малоизвестном публичном выступлении бывшего технолога военной разведки, который заявил, что курировал проект. «Мы попытались создать максимально возможный набор данных и собрать все данные, которые когда-либо имело государство Израиль на арабском языке», — заявил бывший чиновник Чакед Роджер Джозеф Сайедофф на военной конференции по ИИ в Тель-Авиве в прошлом году. По его словам, эта модель требовала «психотических объемов» данных. Три бывших сотрудника разведки, осведомленных об инициативе, подтвердили существование LLM и поделились подробностями о его создании. Несколько других источников рассказали, как подразделение «8200» использовало модели машинного обучения меньшего масштаба в годы, предшествовавшие запуску амбициозного проекта, и какой эффект уже оказала такая технология. «ИИ усиливает мощь. Речь идет не только о предотвращении обстрелов, я могу отслеживать активистов по правам человека, контролировать палестинское строительство в Зоне C на Западном берегу. У меня больше инструментов, чтобы знать, чем занимается каждый человек на Западном берегу», — рассказал изданию источник, знакомый с разработкой моделей ИИ подразделения «8200» в последние годы. Проект также иллюстрирует, как подразделение «8200», как и многие разведывательные агентства по всему миру, стремится использовать достижения в области искусственного интеллекта для выполнения сложных аналитических задач и осмысления огромных объемов информации, которые они регулярно собирают и которые все чаще не поддаются обработке исключительно человеком. Однако интеграция систем, таких как LLM, в анализ разведданных несет в себе риски, поскольку такие системы могут усугублять предвзятость и склонны совершать ошибки, предупреждают эксперты и борцы за права человека. Их непрозрачная природа также может затруднить понимание того, как были сделаны выводы, сгенерированные ИИ. Старший исследователь по наблюдению в Human Rights Watch (HRW) Зак Кэмпбелл, выразил тревогу, что подразделение «8200» будет использовать LLM для принятия важных решений о жизни палестинцев, находящихся под военной оккупацией. «Это машина для догадок. И в конечном итоге эти догадки могут быть использованы для обвинения людей», — полагает эксперт. Представитель ЦАХАЛ отказался отвечать на вопросы Guardian о соблюдении прав человека, но заявил, что военные «используют различные методы разведки для выявления и пресечения террористической деятельности враждебных организаций на Ближнем Востоке». Подразделение «8200» в последние годы разработало ряд инструментов на базе ИИ. Такие системы, как The Gospel («Евангелие» ― платформа, определяющая цели для бомардировки) и Lavender («Лаванда» – искусственный интеллект, определяющий потенциальные цели, связанные с ХАМАС), были в числе тех инструментов, которые интегрировали в боевые операции в войне в Газе. На протяжении почти десятилетия подразделение также использовало ИИ для анализа перехватываемых и сохраняемых сообщений, применяя ряд моделей машинного обучения для сортировки информации по предопределенным категориям, обучения распознаванию закономерностей и составления прогнозов. После того, как OpenAI выпустила ChatGPT в конце 2022 г., эксперты по ИИ в подразделении «8200 задумались о создании более обширного инструмента, похожего на чат-бота. ChatGPT, который сейчас является одним из самых широко используемых LLM в мире, подкреплен так называемой «фундаментальной моделью» — универсальным ИИ, обученным на огромных объемах данных и способным отвечать на сложные запросы. Первоначально подразделение «8200» боролось за создание модели такого масштаба. По словам источников, небольшая группа экспертов вскоре приступила к созданию программы LLM, понимающей арабский язык, но фактически ей пришлось начинать с нуля, поскольку выяснилось, что существующие коммерческие и открытые модели арабского языка обучались с использованием стандартного письменного арабского языка, используемого в официальных коммуникациях, литературе и средствах массовой информации, а не разговорного арабского языка. «В интернете нет расшифровок звонков или разговоров в WhatsApp. Их нет в количестве, необходимом для обучения такой модели», — сказал один источник. Он добавили, что задача состояла в том, чтобы «собрать все разговорные арабские тексты, которые когда-либо были у подразделения, и поместить их в централизованное место». Они сказали, что данные для обучения модели в конечном итоге состояли примерно из 100 млрд слов. Один хорошо информированный источник, знакомый с проектом, рассказал Guardian, что этот обширный пул коммуникаций включал разговоры на ливанском, а также на палестинских диалектах. Сайедофф сказал в своей презентации, что команда, создающая LLM, «сосредоточилась только на диалектах, которые нас ненавидят». Подразделение также стремилось обучить модель понимать специфическую военную терминологию групп боевиков, сообщили источники. Но массивный сбор данных для обучения, по-видимому, включал большие объемы сообщений с небольшой или нулевой разведывательной ценностью о повседневной жизни палестинцев. «Кто-то звонит кому-то и говорит выйти, потому что его ждут возле школы, это просто разговор, это неинтересно. Но для такой модели это золото», — сказал один из источников. Подразделение «8200» не единственное среди разведывательных агентств, экспериментирующих с технологией генеративного ИИ. В США ЦРУ развернуло инструмент, похожий на ChatGPT, для просеивания информации из открытых источников. Разведывательные агентства Великобритании также разрабатывают собственные LLM, которые, как говорят, также обучаются с использованием наборов данных из открытых источников. Однако несколько бывших сотрудников служб безопасности США и Великобритании заявили, что разведывательное сообщество Израиля, по всей видимости, идет на больший риск, чем его ближайшие союзники, при интеграции новых систем на основе искусственного интеллекта в анализ разведданных. Один из бывших руководителей западной разведки заявил, что обширный сбор израильской военной разведкой содержания палестинских коммуникаций позволяет ей использовать ИИ способами, «которые были бы неприемлемы» для разведывательных служб в странах с более строгим контролем за использованием полномочий по наблюдению и обработкой конфиденциальных персональных данных. Кэмпбелл из Human Rights Watch заявил, что использование материалов наблюдения для обучения модели ИИ является «инвазивным и несовместимым с правами человека», и что как оккупирующая держава Израиль обязан защищать права палестинцев на неприкосновенность частной жизни. «Мы говорим о крайне личных данных, полученных от людей, которые не подозреваются в совершении преступления, которые используются для обучения инструмента, который затем может помочь установить подозрения», — добавил он. Надим Нашиф, директор палестинской группы по защите цифровых прав и пропаганде 7amleh, заявил, что палестинцы «стали объектами в израильской лаборатории по разработке этих технологий и превращению ИИ в оружие, и все это ради поддержания режима апартеида и оккупации, где эти технологии используются для господства над людьми и контроля их жизни».

 

Ссылка на первоисточник
наверх