Каждый десятый из тех, кто пользуется нейросетями, полностью доверяет их советам по финансовым, медицинским и юридическим вопросам
![]() |
Наши проекты:
Журнал · Discuz!ML · Wiki · DRKB · Помощь проекту |
|
| ПРАВИЛА | FAQ | Помощь | Поиск | Участники | Календарь | Избранное | RSS |
| [216.73.216.9] |
|
|
Внимательно прочитайте правила раздела
Каждый десятый из тех, кто пользуется нейросетями, полностью доверяет их советам по финансовым, медицинским и юридическим вопросам
|
Сообщ.
#1
,
|
|
|
|
Каждый десятый из тех, кто пользуется нейросетями, полностью доверяет их советам по финансовым, медицинским и юридическим вопросам
Люди используют нейросети для решения самых разных задач, в том числе для получения медицинских, финансовых и... Люди используют нейросети для решения самых разных задач, в том числе для получения медицинских, финансовых и юридических консультаций. Каждый десятый из тех, кто прибегает к помощи искусственного интеллекта, готов полностью положиться на получаемую от него информацию по запрошенным темам. Такие данные показало исследование «Лаборатории Касперского»*. Об этом CNews сообщили представители «Лаборатории Касперского». Что думают люди о рисках при использовании нейросетей. Каждый третий из тех, кто пользуется нейросетями, считает их безопасными, а большинство (67%) — либо полностью, либо частично небезопасными. Тех, кто не уверен в защищённости нейросетей, беспокоит возможная кража или утечка данных (этот риск назвали 63%), получение недостоверной или устаревшей информации (по мнению 60%), отсутствие стимула думать и принимать решения самостоятельно (это тревожит 54%), получение информации, которая может навредить, например здоровью или рабочим процессам (это пугает 51%), вероятность появления привычки общаться с нейросетью и потери потребности в общении с людьми (об этом сказали 38%). Доверяй, но проверяй. Меры предосторожности при взаимодействии с нейросетями хотя бы иногда соблюдает подавляющее большинство (86%). Из них 63% не делятся персональными или конфиденциальными данными, 53% перепроверяют информацию, 49% не предоставляют доступы к файлам / фотогалерее на своих устройствах, 25% запрещают нейросетям использовать свои переписки для обучения моделей, а 21% вообще удаляют свои переписки с чат-ботами. На смену ИИ-ассистентам идут ИИ-агенты. Общение с цифровыми ассистентами стало распространённой практикой, но в 2025 г. развитие получил новый тренд — применение ИИ-агентов. Они перестали быть инструментами исключительно разработчиков и теперь используются для решения множества интеллектуальных задач, причём не только рабочих, но и бытовых. В отличие от цифровых ассистентов, ИИ-агенты могут самостоятельно взаимодействовать с другими системами, например, веб-сайтами или файлами на диске и способны не только сгенерировать текст для ответа на вопрос, но и самостоятельно, исходя из контекста, принять решение, что необходимо сделать в конкретной ситуации — от отправки электронного письма до оплаты покупки. Хотя ИИ-агенты и имеют огромный потенциал для автоматизации рутины, их применение усугубляет некоторые имеющиеся риски, связанные с мошенничеством и вредоносным ПО, и создаёт новые цифровые угрозы. «ИИ-агенты — это растущий тренд, в 2026 г. они буду развиваться еще активнее. Важно, чтобы и разработчики, и обычные пользователи знали о возможных рисках. Многие уже в курсе, что нейросети могут галлюцинировать, но существуют и другие проблемы, например промпт-инъекции. Число кибератак, в которых LLM — инструмент или цель, растет, поэтому нужно не только повышать осведомленность пользователей об угрозах, но и активно развивать системы для защиты от них, в том числе на базе машинного обучения», — сказал Владислав Тушканов, руководитель группы исследования технологий машинного обучения в «Лаборатории Касперского». * Исследование «ИИ в жизни и на работе» проведено внутренним исследовательским центром «Лаборатории Касперского» летом 2025 г. в крупных городах России. Всего опрошен 1001 человек. Адрес новости: https://safe.cnews.ru/news/line/2026-02-02_kazhdyj_desyatyj_iz_tehkto |