Поддержать команду Зеркала
Беларусы на войне
  1. Один увлекается тестами, другой «спалился» из-за выборов. Игорь Лосик — об информаторах, которых подсаживают в камеры СИЗО КГБ
  2. «Коллективное спаривание». Ученые заметили странный обычай племени, до сих живущего в каменном веке: с ними никак не могут найти контакт
  3. «Белавиа» сообщила, что будет с ближайшими рейсами в Израиль, Катар и ОАЭ
  4. Что теперь будет с долларом после эскалации на Ближнем Востоке? Прогноз курсов валют
  5. США и Израиль планировали нанести удар по Ирану на неделю раньше — вот почему атаку отложили
  6. После энергетики — логистика: Россия меняет тактику ударов по Украине — ISW
  7. Рядом с Николаем Лукашенко часто можно видеть одного и того же охранника. Узнали, кто он
  8. Поляков спросили, какая соседняя страна вызывает у них наибольшую симпатию. Вот что они думают о Беларуси
  9. Кто такие аятоллы? Объясняем, почему они главные в Иране и кто может быть следующим
  10. Рублю прогнозировали непростое начало 2026 года. Тем временем в обменниках сложилась весьма нетипичная ситуация
  11. Скандал в Польше: беларуске во время операции удалили матку и яичники, но не спросили ее согласия. Идет расследование
  12. В Минском районе под колесами поезда погибла 19-летняя девушка
  13. «Не думаю, что могу праздновать». Какие настроения в Тегеране после американско-израильских ударов и гибели Хаменеи


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.