Поддержать команду Зеркала
Беларусы на войне
  1. «Всегда был похож на Лукашенко». Посмотрели, что пишут в соцсетях о конфликте Тихановского с Беспаловым
  2. Стало известно, каким будет курс доллара в начале декабря: прогноз по валютам
  3. «Это станет исторической ошибкой колоссальных масштабов». В ЕС установили новую «красную линию» для мирного соглашения с Россией
  4. Кремль заявил, что не будет публично комментировать итоги встречи Путина и Уиткоффа. Эксперты говорят — есть что скрывать
  5. «Беларусбанк» предупредил клиентов об уловке, которую используют мошенники
  6. Не лезть в грязное белье? Почему нормально обсуждать личную жизнь Тихановских — мнение
  7. «Ребята принесли свои извинения». Тихановский сообщил о видеоразговоре с советниками Светланы Тихановской
  8. Россиянка с мужем-военным «перевелась в Беларусь» и показала жилье «чуть дальше Ганцевичей». Новоселы — в шоке, комментаторы — нет
  9. Даже «провластные» переживают из-за «уехавших». Появилось исследование о том, что беларусы думают о политике и войне в Украине
  10. ГАИ тестирует новую камеру скрытого контроля. Водителям ее заметить очень сложно
  11. Глава Администрации Лукашенко пожаловался на плохие продажи техники в России и назвал причины
  12. Ждать ли климатическую зиму в ближайшее время? Ответили синоптики
  13. «Заставить пользоваться — унизительно». Беларусы ответили чиновникам, которые готовятся ввести ограничения по популярному товару
  14. В МВД призвали звонить в 102, если вам предложили установить в квартирах это устройство. Кто не послушается — может попасть под «уголовку»


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.