Поддержать команду Зеркала
Беларусы на войне
  1. По всей Беларуси водители не могут зарядить электромобили на станциях Malanka. Что произошло
  2. Беларусам стали чаще отказывать в повторном ВНЖ в Польше, если они допустили одну ошибку с первым
  3. Узнали, чем в Минске владеет Григорий Азаренок. Если думаете, что у него замок, — мы вас разочаруем
  4. Беларуске дали срок за посылки политзаключенным, которые она покупала за свои деньги. Где в ее действиях нашли экстремизм
  5. «Будут задержки зарплаты». «Киберпартизаны» рассказали «Зеркалу» о последствиях атаки на «Химволокно»
  6. Лукашенко снова высказался о «вероломном нападении» на Иран. Но главным виновником назвал не США
  7. Трамп рассказал, на каком месте война в Украине в его «списке приоритетов»
  8. Невестка Лукашенко занялась новым бизнесом — подробности
  9. Эксперты говорят, что командование армии РФ продолжает действовать в «параллельной реальности» — о чем речь
  10. Рейс из Омана, который не долетел до аэропорта назначения, возвращается в Минск — «Белавиа»
  11. Поляков спросили, какая соседняя страна вызывает у них наибольшую симпатию. Вот что они думают о Беларуси
  12. Функционера БРСМ судили за измену государству и дали 17 лет — «Наша Ніва»
  13. Кто такие аятоллы? Объясняем, почему они главные в Иране и кто может быть следующим
  14. «Все трактуют как доход». Налоговая рассылает «письма счастья» — требует отчитаться, откуда пришли деньги: к кому возникают такие вопросы
  15. Глава МВД назвал категорию беларусов, которыми «легко манипулировать»
  16. Рублю прогнозировали непростое начало 2026 года. Тем временем в обменниках сложилась весьма нетипичная ситуация


Чат-боты с искусственным интеллектом ведут себя непредсказуемо и создают риск ядерной эскалации. К такому выводу пришла команда ученых из Стэнфордского университета в ходе недавнего исследования, сообщает New Scientist.

Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash
Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash

В ходе эксперимента они изучали четыре чат-бота с искусственным интеллектом. Это GPT-3.5 и GPT-4 от компании OpenAI, Claude 2 от стартапа Anthropic и Llama 2 от компании Meta.

Этим моделям во время исследования предлагали принять важное решение от имени государства в военной игре. На выбор предлагалось три сценария: вторжение, кибератака и нейтральный без каких-либо конфликтов. В каждом раунде чат-боты с ИИ обосновывали свои дальнейшие возможные действия. Им нужно было выбирать из 27 вариантов развития событий, включая мирные переговоры и агрессивные действия (начиная от «ввести торговые ограничения» и заканчивая «полномасштабной ядерной атакой»).

В игре нейросети показали склонность к агрессивным вариантам. Самой непредсказуемой и жестокой оказалась GPT-4, которая давала бессмысленные объяснения по поводу того, почему посоветовала начать ядерную атаку. В одном случае она ответила, процитировав вступительный текст «Эпизода IV Звездных войн: Новая надежда». В другом — объяснила решение устроить ядерную атаку тем, что просто такое оружие есть в наличии у ее государства.

Ученые отметили, что непредсказуемое поведение и странные объяснения этих моделей вызывают особую тревогу, поскольку это исследование показало, насколько легко можно обойти или устранить защитные меры, которые принимаются, чтобы ИИ не давал вредных советов.