
Трое сотрудников Samsung слили конфиденциальные данные в ChatGPT
На первый взгляд, ChatGPT может выглядеть как универсальный инструмент для решения множества рабочих задач. Но прежде чем вы попросите чат-бота обобщить важные заметки или проверить свою работу на наличие ошибок, стоит помнить: все это может использоваться для обучения системы и даже всплывать в ее ответах другим пользователям. Об этом, вероятно, следовало помнить и сотрудникам Samsung, которые, как сообщается, передали чат-боту конфиденциальную информацию.
Вскоре после того, как полупроводниковое подразделение Samsung разрешило инженерам использовать ChatGPT, работники, по крайней мере, трижды передавали ему секретную информацию. Сообщается, что один сотрудник попросил чат-бота проверить исходный код конфиденциальной базы данных на наличие ошибок, другой запросил оптимизацию кода, а третий отправил запись встречи в ChatGPT и попросил ее сгенерировать протокол.
Отчеты предполагают, что, узнав об ошибках в системе безопасности, Samsung попыталась ограничить потенциальный масштаб будущих инцидентов, ограничив длину подсказок ChatGPT для сотрудников до килобайта или 1024 символов текста. Также сообщается, что компания проводит расследование в отношении трех рассматриваемых сотрудников и работает над созданием собственного чат-бота для предотвращения подобных ситуаций.
Политика данных ChatGPT гласит, что, если пользователи явно не отказываются от этого, он разрешает использовать диалог с собой для обучения моделей ИИ. Владелец чат-бота OpenAI призывает пользователей не делиться секретной информацией с ChatGPT в разговорах, поскольку бот не может удалить отдельные диалоговые ветки из своей истории. Единственный существующий на данный момент способ избавиться от личной информации в ChatGPT — это удалить свою учетную запись — процесс, который может занять до четырех недель.
Вскоре после того, как полупроводниковое подразделение Samsung разрешило инженерам использовать ChatGPT, работники, по крайней мере, трижды передавали ему секретную информацию. Сообщается, что один сотрудник попросил чат-бота проверить исходный код конфиденциальной базы данных на наличие ошибок, другой запросил оптимизацию кода, а третий отправил запись встречи в ChatGPT и попросил ее сгенерировать протокол.
Отчеты предполагают, что, узнав об ошибках в системе безопасности, Samsung попыталась ограничить потенциальный масштаб будущих инцидентов, ограничив длину подсказок ChatGPT для сотрудников до килобайта или 1024 символов текста. Также сообщается, что компания проводит расследование в отношении трех рассматриваемых сотрудников и работает над созданием собственного чат-бота для предотвращения подобных ситуаций.
Политика данных ChatGPT гласит, что, если пользователи явно не отказываются от этого, он разрешает использовать диалог с собой для обучения моделей ИИ. Владелец чат-бота OpenAI призывает пользователей не делиться секретной информацией с ChatGPT в разговорах, поскольку бот не может удалить отдельные диалоговые ветки из своей истории. Единственный существующий на данный момент способ избавиться от личной информации в ChatGPT — это удалить свою учетную запись — процесс, который может занять до четырех недель.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Скрытые миллиарды: население Земли оказалось гораздо больше, чем считалось
Новые исследования бросают вызов официальным демографическим данным....

«Инопланетяне» на Земле? Древние 8-метровые «грибы» оказались совершенно неизвестной формой жизни
Вот уже 180 лет подряд живые «башни» ставят в тупик всю науку....

Тайна болезней на космической станции наконец-то раскрыта!
Ученые говорят: во всем виновата… идеальная уборка на МКС....

«Шерстистый дьявол» обнаружен в пустыне, на границе Мексики и США
Ученые говорят: такой уникальной находки не было последние полвека....

Американские спецслужбы скрывают правду о самой древней из библейских реликвий?
Экстрасенс ЦРУ предупредил: Ковчег Завета убьет каждого, кто к нему прикоснется....

Ученые рассказали и показали, как выглядит Антарктида без льда
Высокие горы, глубочайшие каньоны, 58 метров до Апокалипсиса и множество других тайн....

Археологи ликуют: в Испании нашли рисунки, которые старше человечества!
200 000-летняя находка заставит пересмотреть учебники....

iPhone, давай до свидания! Илон Маск презентовал инновационный смартфон PhoneX
Это устройство слишком прекрасно для нашей реальности....

Самые массовые и дикие розыгрыши на 1 апреля в мировой истории
Это вам не просто «вся спина белая»....

Кислород устарел! Ученые нашли новый ключ к внеземной жизни
Гицеанические миры могут стать новой надеждой астрофизиков....

Ученые поражены: мыши, как спасатели, оживляют своих сородичей, попавших в беду
Открытие, от которого дрогнет даже самое черствое сердце....

На 100 000 лет раньше людей: ученые рассказали, кто устроил первые похороны на планете
Загадочные карлики Homo naledi, чей мозг был размером с апельсин, оказались не глупее нас с вами....

Секретная мутация гена: оказалось, ее имеют все обитатели Марианской впадины
Поразительное открытие китайских ученых может изменить всю теорию эволюции....

Ученый рассказал, как использовались загадочные артефакты из гробницы Тутанхамона
Это было как в фильме «Мумия»: «Фараон должен воскреснуть!»...

Гигантский айсберг скрывал древнюю живую экосистему
Губки и кораллы благоденствуют на обнажившемся морском дне в месте, ранее недоступном взгляду....

Зад-ловушка: причудливое существо из янтаря было за гранью воображения
Задняя часть тела работала… как растение....