На главную Наши проекты:
Журнал   ·   Discuz!ML   ·   Wiki   ·   DRKB   ·   Помощь проекту
ПРАВИЛА FAQ Помощь Участники Календарь Избранное RSS
msm.ru
! Внимательно прочитайте правила раздела
1. Запрещается публиковать материалы защищенные авторскими правами.
2. Запрещается публиковать новостные материалы без ссылки на источник
Модераторы: ANDLL, B.V.
  
    > Эксперт по кибербезопасности: ИИ-ассистенты могут впустить хакеров в частную жизнь пользователей
      Эксперт по кибербезопасности: ИИ-ассистенты могут впустить хакеров в частную жизнь пользователей

      Эксперт по кибербезопасности компании AppSec Solutions Юрий Шабалин провел эксперимент и обнаружил в ИИ-агентах уязвимость...

      Эксперт по кибербезопасности компании AppSec Solutions Юрий Шабалин провел эксперимент и обнаружил в ИИ-агентах уязвимость, которая может буквально открыть злоумышленникам дверь к данным пользователя. Об этом CNews сообщили представители App.Sec Solutions.

      Эксперт по кибербезопасности с помощью популярного сервиса создал личного ИИ-ассистента, обучил его и делегировал ему рутинные задачи: принимать и обрабатывать голосовые сообщения, создавать встречи, отправлять электронные письма и напоминать о дедлайнах и прочие рутинные задачи, которыми заниматься не хотелось. Настроить было несложно, подробная инструкция была обнаружена на популярном видеохостинге. Странности эксперт заметил уже при просмотре туториала.

      «По ходу работы я обнаружил важный нюанс, который легко упустить из виду, если не рассматривать процесс через призму информационной безопасности. А в туториалах заложена базовая ошибка, и если ИИ-ассистент сделан на основе инструкций с «Ютуба», в нем уже сразу есть уязвимость. Я не пожалел своего времени, и нашел 10 наиболее популярных роликов на русском языке, которые рассказывают, как создать своего персонального ИИ-ассистента на платформе n8n. Суммарное количество просмотров этих роликов на момент написания статьи составляет 607,5 тыс. просмотров. И ни в одном из этих видео не упоминается про настройку ограничения», — сказал директор по продукту «Стингрей» компании AppSec Solutions Юрий Шабалин.

      Уязвимость, которую обнаружил специалист, содержится в конфигурации узла Telegram Trigger. В ней содержатся так называемые «дополнительные поля», в которые необходимо задать ограничивающие параметры (Restrict to Chat IDs и Restrict to User IDs – прим. авт), если они не заполнены правильно, ИИ-бот будет получать сообщения и давать ответы любому пользователю без идентификации, а значит – и злоумышленникам тоже. Найти таких ассистентов несложно, достаточно в поиске в Telegram попробовать поперебирать различные комбинации имен таких агентов (AIAssistant, PersonalAssistant, n8nAssistant и подобные) и попробовать им написать. Ну и конечно, те люди, у кого появляются подобные агенты спешат ими похвастаться, что тоже можно использовать.

      Таким образом, к личному ассистенту пользователя может подключиться кто угодно и задать любые чувствительные вопросы. А учитывая, что у большинства таких агентов есть доступ к почте, а пароль от многих сервисов сбрасывается именно через письмо, это потенциально открывает безграничные возможности для злоумышленников.

      Адрес новости:
      https://safe.cnews.ru/news/line/2025-06-11_ekspert_po_kiberbezopasnosti

      1 пользователей читают эту тему (1 гостей и 0 скрытых пользователей)
      0 пользователей:


      Рейтинг@Mail.ru
      [ Script execution time: 0,0191 ]   [ 14 queries used ]   [ Generated: 15.06.25, 00:11 GMT ]