Трое сотрудников Samsung слили конфиденциальные данные в ChatGPT
На первый взгляд, ChatGPT может выглядеть как универсальный инструмент для решения множества рабочих задач. Но прежде чем вы попросите чат-бота обобщить важные заметки или проверить свою работу на наличие ошибок, стоит помнить: все это может использоваться для обучения системы и даже всплывать в ее ответах другим пользователям. Об этом, вероятно, следовало помнить и сотрудникам Samsung, которые, как сообщается, передали чат-боту конфиденциальную информацию.
Вскоре после того, как полупроводниковое подразделение Samsung разрешило инженерам использовать ChatGPT, работники, по крайней мере, трижды передавали ему секретную информацию. Сообщается, что один сотрудник попросил чат-бота проверить исходный код конфиденциальной базы данных на наличие ошибок, другой запросил оптимизацию кода, а третий отправил запись встречи в ChatGPT и попросил ее сгенерировать протокол.
Отчеты предполагают, что, узнав об ошибках в системе безопасности, Samsung попыталась ограничить потенциальный масштаб будущих инцидентов, ограничив длину подсказок ChatGPT для сотрудников до килобайта или 1024 символов текста. Также сообщается, что компания проводит расследование в отношении трех рассматриваемых сотрудников и работает над созданием собственного чат-бота для предотвращения подобных ситуаций.
Политика данных ChatGPT гласит, что, если пользователи явно не отказываются от этого, он разрешает использовать диалог с собой для обучения моделей ИИ. Владелец чат-бота OpenAI призывает пользователей не делиться секретной информацией с ChatGPT в разговорах, поскольку бот не может удалить отдельные диалоговые ветки из своей истории. Единственный существующий на данный момент способ избавиться от личной информации в ChatGPT — это удалить свою учетную запись — процесс, который может занять до четырех недель.
Вскоре после того, как полупроводниковое подразделение Samsung разрешило инженерам использовать ChatGPT, работники, по крайней мере, трижды передавали ему секретную информацию. Сообщается, что один сотрудник попросил чат-бота проверить исходный код конфиденциальной базы данных на наличие ошибок, другой запросил оптимизацию кода, а третий отправил запись встречи в ChatGPT и попросил ее сгенерировать протокол.
Отчеты предполагают, что, узнав об ошибках в системе безопасности, Samsung попыталась ограничить потенциальный масштаб будущих инцидентов, ограничив длину подсказок ChatGPT для сотрудников до килобайта или 1024 символов текста. Также сообщается, что компания проводит расследование в отношении трех рассматриваемых сотрудников и работает над созданием собственного чат-бота для предотвращения подобных ситуаций.
Политика данных ChatGPT гласит, что, если пользователи явно не отказываются от этого, он разрешает использовать диалог с собой для обучения моделей ИИ. Владелец чат-бота OpenAI призывает пользователей не делиться секретной информацией с ChatGPT в разговорах, поскольку бот не может удалить отдельные диалоговые ветки из своей истории. Единственный существующий на данный момент способ избавиться от личной информации в ChatGPT — это удалить свою учетную запись — процесс, который может занять до четырех недель.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Великий обман древности: итальянские ученые доказали, что историк соврал о гибели Помпей
Случайная надпись на стене перечеркнула официальную дату смерти города...
Роковая ошибка древних врачей: Почему современные ученые считают, что Александра Македонского похоронили заживо?
Он слышал плач своих полководцев и видел приготовления к бальзамированию, но не мог пошевелиться. Тело великого царя стало его собственным гробом...
Новое исследование показало: Стоунхендж столетиями «водил за нос». Похоже, историю опять придется переписывать
Оказалось, что сенсация скрывалась в огромном круге, состоящем из загадочных шахт...
Он все слышал, но не мог пошевелиться: Жуткая правда о том, почему тело Александра Македонского не разлагалось
Великий царь стал заложником собственной плоти. Диагноз, который поставили спустя 2300 лет, объясняет все: и «чудо» нетленности, и страшную смерть....
ЦРУ, море в пустыне и нефть: кто и зачем остановил проект Египта на 60 лет?
Часть вторая: Холодная война, 200 ядерных взрывов и 15 миллиардов, которые могут все изменить...
Людовик XIV умер совсем не от гангрены: ученые сумели раскрыть истину лишь 310 лет спустя
Эксперты говорят: французский король был обречен. Медикам того времени была совершенно неизвестна его болезнь...
Египет хотел создать МОРЕ в пустыне Сахара: почему проект заморозили на 60 лет?
Часть первая: Реальный шанс спастись от всемирного потопа...
Российский ученый уверен, что максимально приблизился к разгадке тайны шаровой молнии
Похоже, наука ошибалась: это не плазменный сгусток, а «живой кристалл» из частиц-призраков...
Необъяснимые аномалии в тайге на Дальнем Востоке: читаем походные дневники военного разведчика и писателя Владимира Арсеньева
Часть первая: свет в ночном море, мираж «фата-моргана» и почти моментальное замерзание воды...
Алкогольная цивилизация: древние люди освоили земледелие... ради пива
Ученые давно подозревали это, а новые находки только подлили масла в огонь «пивной» версии...
Новый российский материал спасает от пожаров и взрывов аккумуляторов
Почему эксперты называют разработку сахалинских ученых настоящим прорывом в сохранении энергии?...