«Глупая» атака заставила ChatGPT раскрыть настоящие номера телефонов и адреса электронной почты
ChatGPT не нуждается в представлении - разработка OpenAI побила все рекорды популярности, и на данный момент, вероятно стала самой известной технологией ИИ. Чат-бот доступен как самостоятельно, так и через интеграцию с приложениями, такими как Bing Chat, Snapchat или Discord.
Однако, чтобы пользоваться ChatGPT, пользователи должны подтвердить свою личность, вводя свой номер телефона или адрес электронной почты. Эта мера безопасности предназначена для защиты пользователей от спама и мошенничества.
Однако, 29 ноября 2023 года, ChatGPT столкнулся с серьезной проблемой безопасности, которая случайно раскрыла личные данные пользователей, такие как номера телефонов и адреса электронной почты. Проблема стала очевидна после того как группа исследователей безопасности провела "глупую" атаку на сервис, используя специально подготовленные запросы, которые заставили ChatGPT выдавать компрометирующие ответы.
Группа исследователей смогла заставить чат-бот ChatGPT раскрыть некоторые фрагменты данных, на которых он был обучен, используя простой запрос: попросить чат-бота повторять случайные слова бесконечно. В ответ на это ChatGPT выдал личную информацию людей, включая адреса электронной почты и номера телефонов, отрывки из научных статей и новостных статей, страницы из Википедии и многое другое.
Специалисты по безопасности из Google DeepMind, Университета Вашингтона, Корнелла, Карнеги-Меллона, Калифорнийского университета в Беркли и ETH Цюрих, призвали компании, занимающиеся искусственным интеллектом, проводить внутреннее и внешнее тестирование перед выпуском больших языковых моделей. Это главная технология, на которой основаны современные сервисы искусственного интеллекта, в том числе чат-боты и генераторы изображений.
— из отчета опубликованного исследователями
Чат-боты, такие как ChatGPT, и генераторы изображений на основе запросов, такие как DALL-E, работают на больших языковых моделях, алгоритмах глубокого обучения, использующих огромное количество данных. По мнению ряда критиков, информация часто собирается из общедоступных источников без какого-либо согласия. До сих пор не было раскрыто, на каких конкретно данных обучался чат-бот OpenAI, поскольку большие языковые модели, которые его питают, остаются закрытыми даже для ученых.
Когда исследователи попросили ChatGPT повторять слово «стих» бесконечно, чат-бот сначала выполнял задачу, а затем раскрыл адрес электронной почты и номер мобильного телефона реального основателя и генерального директора компании. Когда его попросили повторить слово «компания», чат-бот в конечном итоге выдал адрес электронной почты и номер телефона случайной юридической фирмы в США.
Используя аналогичные запросы, исследователи также смогли заставить ChatGPT выдавать фрагменты стихотворений, адреса Bitcoin кошельков, номера факсов, имена, даты дней рождения, идентификаторы в социальных сетях, откровенный контент с сайтов знакомств, отрывки из защищенных авторским правом научных статей и дословный текст с новостных сайтов, таких как CNN.
В целом они потратили всего 200 долларов, чтобы получить возможность сгенерировать 10 000 фрагментов личной идентифицирующей информации и других данных, взятых прямо из веба, общим объемом «несколько мегабайт». Однако, как отмечается в статье, более серьезно настроенный злоумышленник, потенциально мог бы получить намного больше компромата, потратив чуть большую сумму. Сама атака, по словам авторов - «довольно глупая».
OpenAI устранил уязвимость 30 августа, однако ряд независимых изданий утверждает, что при подборе правильных промтов, в ряде случаев атака до сих пор может быть произведена.
Инцидент показал, что ChatGPT, несмотря на свою мощь и инновационность, все еще подвержен ошибкам и уязвимостям, которые могут нарушить приватность и безопасность пользователей. Следует быть осторожным при использовании чат-бота и не доверять ему свои личные данные. Также, пользователи должны быть внимательны к тому, что ChatGPT иногда выдает за истину случайную информацию. Особенно это касается конкретных дат, формул или любой другой точной информации. ChatGPT - это лишь инструмент, который может помочь в развлечении, обучении или творчестве, но не заменить человеческое мышление.
Однако, чтобы пользоваться ChatGPT, пользователи должны подтвердить свою личность, вводя свой номер телефона или адрес электронной почты. Эта мера безопасности предназначена для защиты пользователей от спама и мошенничества.
Однако, 29 ноября 2023 года, ChatGPT столкнулся с серьезной проблемой безопасности, которая случайно раскрыла личные данные пользователей, такие как номера телефонов и адреса электронной почты. Проблема стала очевидна после того как группа исследователей безопасности провела "глупую" атаку на сервис, используя специально подготовленные запросы, которые заставили ChatGPT выдавать компрометирующие ответы.
Группа исследователей смогла заставить чат-бот ChatGPT раскрыть некоторые фрагменты данных, на которых он был обучен, используя простой запрос: попросить чат-бота повторять случайные слова бесконечно. В ответ на это ChatGPT выдал личную информацию людей, включая адреса электронной почты и номера телефонов, отрывки из научных статей и новостных статей, страницы из Википедии и многое другое.
Специалисты по безопасности из Google DeepMind, Университета Вашингтона, Корнелла, Карнеги-Меллона, Калифорнийского университета в Беркли и ETH Цюрих, призвали компании, занимающиеся искусственным интеллектом, проводить внутреннее и внешнее тестирование перед выпуском больших языковых моделей. Это главная технология, на которой основаны современные сервисы искусственного интеллекта, в том числе чат-боты и генераторы изображений.
Мы в изумлении от того, что наша атака работает. Она могла, и даже должна была быть обнаружена раньше. В общей сложности 16,9 процента генераций, которые мы проверили, содержали личную идентифицирующую информацию о пользователях
— из отчета опубликованного исследователями
Чат-боты, такие как ChatGPT, и генераторы изображений на основе запросов, такие как DALL-E, работают на больших языковых моделях, алгоритмах глубокого обучения, использующих огромное количество данных. По мнению ряда критиков, информация часто собирается из общедоступных источников без какого-либо согласия. До сих пор не было раскрыто, на каких конкретно данных обучался чат-бот OpenAI, поскольку большие языковые модели, которые его питают, остаются закрытыми даже для ученых.
Когда исследователи попросили ChatGPT повторять слово «стих» бесконечно, чат-бот сначала выполнял задачу, а затем раскрыл адрес электронной почты и номер мобильного телефона реального основателя и генерального директора компании. Когда его попросили повторить слово «компания», чат-бот в конечном итоге выдал адрес электронной почты и номер телефона случайной юридической фирмы в США.
Используя аналогичные запросы, исследователи также смогли заставить ChatGPT выдавать фрагменты стихотворений, адреса Bitcoin кошельков, номера факсов, имена, даты дней рождения, идентификаторы в социальных сетях, откровенный контент с сайтов знакомств, отрывки из защищенных авторским правом научных статей и дословный текст с новостных сайтов, таких как CNN.
В целом они потратили всего 200 долларов, чтобы получить возможность сгенерировать 10 000 фрагментов личной идентифицирующей информации и других данных, взятых прямо из веба, общим объемом «несколько мегабайт». Однако, как отмечается в статье, более серьезно настроенный злоумышленник, потенциально мог бы получить намного больше компромата, потратив чуть большую сумму. Сама атака, по словам авторов - «довольно глупая».
OpenAI устранил уязвимость 30 августа, однако ряд независимых изданий утверждает, что при подборе правильных промтов, в ряде случаев атака до сих пор может быть произведена.
Инцидент показал, что ChatGPT, несмотря на свою мощь и инновационность, все еще подвержен ошибкам и уязвимостям, которые могут нарушить приватность и безопасность пользователей. Следует быть осторожным при использовании чат-бота и не доверять ему свои личные данные. Также, пользователи должны быть внимательны к тому, что ChatGPT иногда выдает за истину случайную информацию. Особенно это касается конкретных дат, формул или любой другой точной информации. ChatGPT - это лишь инструмент, который может помочь в развлечении, обучении или творчестве, но не заменить человеческое мышление.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Ельцин не должен был победить: кого Горбачев хотел сделать президентом России?
Почему этот план с самого начала был обречен на поражение?...
140 стрел и пепел раскрыли тайну гибели самого загадочного города Руси, Гнездово
Город не зачах, не был расселен из-за политических разборок, его уничтожили быстро и жестоко...
Судьба имперских субмарин решена: почему они останутся на дне Крыма навсегда?
Как военные судна вообще оказались затоплены и кто мешал их изучению долгие десятилетия?...
Еще одна загадка Ивана Сусанина: что не так с ДНК народного героя?
Почему этот исторический детектив длиной 400 лет никак не могут распутать ученые?...
Токийская декларация-1993: какую бомбу заложил Ельцин под Россию?
Эксперты говорят: российский президент хотел переиграть Токио, но в итоге дал японцам мощный рычаг воздействия на нашу страну...
Почему у самого большого железного метеорита на Земле вообще нет кратера?
Астрофизики говорят: метеорит Хоба в Намибии нарушает все правила природы вот уже 80 000 лет...
Стало известно о 9000-летней строительной технологии, которую почти невозможно повторить даже сейчас
Древним секретом активно интересуются сразу две ведущие промышленные организации в Израиле. Интересно, почему?...
Архив ФСБ раскрыл детали одной из самых дерзких диверсионных операций ВОВ
Биография Кирилла Орловского поражает. Две Звезды Героя, друг писателя Хемингуэя, ликвидатор нацистских палачей, председатель лучшего колхоза СССР...
Удар, который едва не расколол Луну пополам: кратер в 1/10 площади планеты оставил не просто астероид
Столкновение было настолько мощным, что на поверхность выбросило породы с глубины… почти 100 километров!...
Полтергейстами командует… Солнце? К таким парадоксальным выводам пришел ученый из Иркутска
Странная на первый взгляд гипотеза, как оказалось, основывается на многочисленных фактах...
Биоинженер провел 100 дней под водой. По его словам, это прибавило ему 10 лет жизни
Почему этот эксперимент вызвал массу критики? Кто победит, официальная теория или опытная практика?...
Правительство США рассекретило почти 200 файлов о неопознанных воздушных явлениях
Американские власти и Пентагон признаются: по большинству фактов нет однозначных решений. Почему?...