На главную Наши проекты:
Журнал   ·   Discuz!ML   ·   Wiki   ·   DRKB   ·   Помощь проекту
ПРАВИЛА FAQ Помощь Участники Календарь Избранное RSS
msm.ru
! Внимательно прочитайте правила раздела
1. Запрещается публиковать материалы защищенные авторскими правами.
2. Запрещается публиковать новостные материалы без ссылки на источник
Модераторы: ANDLL, B.V.
  
    > Более 80% крупнейших финансовых компаний в 2026 внедрят программы обучения Ai Security
      Более 80% крупнейших финансовых компаний в 2026 внедрят программы обучения Ai Security

      Основная причина – рост рисков утечек конфиденциальных данных и сложности в обеспечении безопасности при работе...

      Основная причина – рост рисков утечек конфиденциальных данных и сложности в обеспечении безопасности при работе с языковыми моделями. Стремительное внедрение искусственного интеллекта заставляет финансовый сектор, который наиболее чувствителен к потенциальным атакам, принимать оперативные меры к переобучению сотрудников и внедрению защитных мер. Такие данные приводятся в совместном исследовании Ассоциации ФинТех и ГК Swordfish Security. Его провели с участием более 20 крупнейших игроков финансового рынка России. Об этом CNews сообщили представители Swordfish Security.

      Целью исследования было оценить текущее состояние и перспективы развития безопасности искусственного интеллекта в банковском и смежных секторах. По данным ВЦИОМ, более 60% финтеха так или иначе внедрили ИИ в свои бизнес-процессы и теперь задумались о безопасности. 75% финтех-организаций, которые приняли участие в совместном исследовании, выделяют утечку конфиденциальных данных в качестве ключевой угрозы безопасности при использовании ИИ, 62% — применяют гибридный подход к оценке результатов и выводов в работе с ИИ-решениями и только 12% респондентов внедряют системную оценку этических рисков ИИ. При этом, часть респондентов признались, что уже неоднократно столкнулись с инцидентами, связанными с языковыми моделями.

      Исследование показывает, что участники финтех-рынка в 2026 г. планируют уделять больше внедрению практик AI Security. Так, 88% респондентов сообщили, что в 2026 г. намерены работать над повышение осведомленности и обучением сотрудников в этой области, 75% займутся разработкой внутренней политики по AI Security, 63% займутся интеграцией инструментов защиты, а 62% — проведением аудита или тестирования ИИ-систем.

      «Искусственный интеллект трансформирует подход к кибербезопасности. Модель угроз меняется, поверхность атак становится иной, поэтому уже сегодня нужно обновлять традиционные стратегии и подходы. ИИ требует новой логики безопасности — такой, которая сочетает в себе принципы киберзащиты, управления рисками и этического регулирования. Развитие технологий невозможно остановить, но можно создать процессы, способные сделать это развитие контролируемым, устойчивым и предсказуемым», — отметил руководитель управления информационной безопасности Ассоциации ФинТех Александр Товстолип.

      81% компаний российского финтеха определяют машинное обучение (ML) и большие языковые модели (LLM) как ядро своих ИИ-стратегий. При этом, более четверти респондентов уже несколько раз столкнулись с инцидентами безопасности, связанными с атаками на ИИ-системы.

      «Современная стратегия AI Security строится на постоянном развитии компетенций сотрудников и формировании культуры осведомленности на всех уровнях организации. И хотя ИИ автоматизирует многие процессы, в том числе в кибербезопасности, все-таки роль специалистов ИБ станет в будущем еще значительнее, трансформируясь с фокусом на ИИ. Взаимное проникновение между ИИ и безопасностью изменит роль руководителя ИБ «у штурвала»: именно он задаст курс, примет ключевые решения для безопасной и корректной работы решений на базе ИИ», — сказала руководитель управления стратегии, исследований и аналитики Ассоциации ФинТех Марианна Данилина.

      Более половины финтех-компаний заявляют, что уже внедряют комплексные меры по защите своих ИИ-систем, в том числе с использованием собственных разработок. В число наиболее распространенных практик входят регулярный мониторинг и аудит работы моделей, активное тестирование на уязвимости, обязательное обучение сотрудников основам AI Security, разработка внутренних стандартов и политик безопасности.

      «Разработка безопасного ПО трансформируется в связи с развитием искусственного интеллекта. AI открывает как новые возможности для ускорения всех процессов, так и форсировано формирует новые угрозы для людей и организаций. Высокая ценность ИИ очевидна, но вместе с тем растет запрос на его защиту и кибербезопасность. AI Security – новый виток развития проектирования ИИ, при котором меры безопасности интегрированы в его архитектуру и программный код», – сказал Юрий Сергеев, директор по стратегии и генеральный партнер Swordfish Security.

      Адрес новости:
      https://safe.cnews.ru/news/line/2025-12-16_bolee_80_krupnejshih_finansovyh

      1 пользователей читают эту тему (1 гостей и 0 скрытых пользователей)
      0 пользователей:


      Рейтинг@Mail.ru
      [ Script execution time: 0,0118 ]   [ 14 queries used ]   [ Generated: 17.12.25, 06:06 GMT ]