Эксперт по кибербезопасности Ульянов назвал риски использования нейросетей
30 января 2025, 15:09
Использование нейросетей вроде Chat GPT несет в себе определенные риски для конфиденциальности пользователей. Хотя разработчики ИИ внедряют в свои продукты системы защиты, вероятность утечки персональных данных все равно не равняется нулю, как и в любом другом онлайн-сервисе. Основная угроза тут заключается в том, что злоумышленники, получив доступ к чувствительной информации пользователя – например, истории его запросов, документам или данным аккаунтов, если тот делился ими с нейросетью – могут использовать ее в своих мошеннических схемах. Об этом, а также о сценариях утечек и мерах осторожности при использовании ИИ, Общественной службе новостей рассказал руководитель аналитического центра компании Zecurion, эксперт по кибербезопасности Владимир Ульянов.
Ранее стало известно, что разработчик китайской нейросети DeepSeek допустил утечку данных, оставив неограниченный доступ к одной из своих баз. Уязвимость обнаружили эксперты по кибербезопасности из компании Wiz, и вскоре ее устранили. Успел ли ей кто-то воспользоваться для кражи персональных данных пользователей – неизвестно. При этом стоит отметить, что на прошлой неделе мобильный клиент DeepSeek стал одним из самых скачиваемых приложений на смартфоны по всему миру. В том числе, некоторую популярность нейросеть сыскала и среди пользователей из РФ, поскольку китайский разработчик не вводил для них никаких ограничений, в отличие от американских техно-компаний.
Зачем нейросети собирают данные о пользователях
«Касательно теоретической возможности, что информация может быть скомпрометирована – конечно, такая вероятность существует, — говорит Владимир Ульянов. — При этом нужно понимать, что в подобных продуктах встроены системы защиты, которые нацелены не только на то, чтобы защищать данные, которые мы отправляем, но и на то, чтобы блокировать определенные запросы к нейросети. К примеру, если вы попытаетесь найти контакт какого-то человека или данные о нем, то ответ нейросети в большинстве случаев будет такой: «По соображениям приватности, я не могу ответить на ваш вопрос»».
Эксперт отметил, что ограничения нейросетей можно обойти, получив информацию о другом человеке прямо через ее интерфейс, однако сделать это крайне сложно. Для этого нужны замысловатые запросы, которые, по сути, убедят искусственный интеллект, что ему нужно снять блок на конкретные действия. «Такие случаи возможны, но это нетривиальная задача – может быть, у одного человека из ста это и получится», указал собеседник издания.
«Не стоит какие-то очень деликатные вещи доверять нейросети».
При этом Ульянов подчеркнул, что данные пользователей, которые собирают нейросети (это делает любой онлайн-сервис), прежде всего нужны разработчикам для улучшения своих продуктов. Они анализируют, как ИИ функционирует в «живой среде», чтобы выявлять и устранять ошибки. Но, говорит эксперт, если информацию собирают, значит, она где-то обрабатывается и хранится, а это, в свою очередь, означает, что к ней теоретически могут получить доступ третьи лица.
«Поэтому определённые риски есть. И, в связи с этим, конечно же, не стоит какие-то очень деликатные вещи доверять нейросети. Хотя, я полагаю, все-таки очень маленький процент запросов касается реально деликатной информации – в большинстве случаев это относительно безобидные вещи, которые, по большому счёту, особо скрывать и нет смысла. Поэтому сильно переживать не стоит. Но при этом нужно понимать, что риски компрометации чувствительных данных существуют, и потому не стоит их передавать», — указал специалист.
Зачем данные о пользователях мошенникам
Собственно, утечь из базы данных нейросети может все, чем пользователь с ней делился: истории чатов с подробностями личных переживаний или семейных взаимоотношений, рабочие запросы, какие-то документы, которые он просил ее для него составить, логины и пароли от аккаунтов, если он ими делился, и так далее. Степень «чувствительности» такой информации зависит от самого пользователя и его действий, отметил Ульянов: кто-то мог использовать ИИ для бытовых советов, а кто-то активно применял его в работе и передавал важную информацию.
«Любая информация, которой человек делится с нейросетью, […] может быть использована мошенниками».
Причем получить доступ ко всем этим данным злоумышленники могут разными способами. Например, успешно обойдя ограничения системы и получив информацию напрямую через интерфейс нейросети, либо обнаружив уязвимость в системе безопасности компании-разработчика. Также данные пользователя могут быть скомпрометированы в результате простой кражи логина и пароля от аккаунта, либо после использования общей учетной записи, доступной сразу нескольким людям.
О том, как злоумышленники могут использовать утекшую из базы данных нейросети информацию о пользователях, Ульянов говорит:
«Самое банальное и простое – это шантаж. Другой, опять же, достаточно типовой сценарий – он не только в рамках нейросетей используется – это мошенничество и обман. Чем лучше знаешь жертву, тем легче втереться к ней в доверие и заставить ее совершить какое-то действие. Если злоумышленник получает сведения о том, что человек ищет [через нейросеть] информацию по определенным вопросам, которые его беспокоят, он может на этом построить свою мошенническую схему – представиться, условно говоря, психологом, который оказывает бесплатные консультации, но для этого нужно передать номер своей карты или сделать небольшой взнос. Чем больше информации о жертве, тем легче реализовать подобные схемы. Поэтому любая информация, которой человек делится с нейросетью – о нем, о его сфере интересов, его потребностях – может быть использована мошенниками».
Отложенные угрозы
Эксперт отметил, что утечки информации из нейросетей в прошлом уже происходили, однако точно выявить, привело ли это к какому-то вреду для пользователей весьма затруднительно – их попросту слишком много.
«Если кто-то получает доступ к большому объёму данных, например, запросам миллиона людей – поди ещё разберись и найди каждого из них. Допустим, утечка произошла, и доступ к данным фактически был получен, но в силу, опять же, большого объёма, эти данные еще где-то хранятся, и до рук злоумышленников, которые могли бы их использовать, пока не дошли. Может быть, они воспользуются ими позже, а может быть, не воспользуются никогда. Поэтому здесь тоже неоднозначная ситуация. Если прямо сейчас, в моменте, ничего плохого ещё не произошло, это не значит, что не произойдёт впоследствии. Тем более, если доступ к этим данным уже имеется», — резюмировал собеседник издания.
Ранее в разговоре с ОСН эксперт по кибербезопасности Владимир Ульянов рассказал, как защитить себя от «спуфинга».