Поддержать команду Зеркала
Беларусы на войне
  1. «Будут задержки зарплаты». «Киберпартизаны» рассказали «Зеркалу» о последствиях атаки на «Химволокно»
  2. Рейс из Омана, который не долетел до аэропорта назначения, возвращается в Минск — «Белавиа»
  3. Один увлекается тестами, другой «спалился» из-за выборов. Игорь Лосик — об информаторах, которых подсаживают в камеры СИЗО КГБ
  4. Беларусам стали чаще отказывать в повторном ВНЖ в Польше, если они допустили одну ошибку с первым
  5. Поляков спросили, какая соседняя страна вызывает у них наибольшую симпатию. Вот что они думают о Беларуси
  6. «Все трактуют как доход». Налоговая рассылает «письма счастья» — требует отчитаться, откуда пришли деньги: к кому возникают такие вопросы
  7. Функционера БРСМ судили за измену государству и дали 17 лет — «Наша Ніва»
  8. По всей Беларуси водители не могут зарядить электромобили на станциях Malanka. Что произошло
  9. Рядом с Николаем Лукашенко часто можно видеть одного и того же охранника. Узнали, кто он
  10. После энергетики — логистика: Россия меняет тактику ударов по Украине — ISW
  11. Беларуске дали срок за посылки политзаключенным, которые она покупала за свои деньги. Где в ее действиях нашли экстремизм
  12. Лукашенко снова высказался о «вероломном нападении» на Иран. Но главным виновником назвал не США
  13. Рублю прогнозировали непростое начало 2026 года. Тем временем в обменниках сложилась весьма нетипичная ситуация
  14. Трамп рассказал, на каком месте война в Украине в его «списке приоритетов»
  15. Кто такие аятоллы? Объясняем, почему они главные в Иране и кто может быть следующим


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.