Поддержать команду Зеркала
Беларусы на войне
  1. Военные аналитики: Украина начала вывод своих войск из Курской области
  2. «У нас другого пути не было». Поговорили с экс-силовиком, который пересекался с генпрокурором Шведом и был ранен на протестах 2020-го
  3. В Беларуси дорожает автомобильное топливо. На этот раз не на копейку
  4. Кремль молчит, а СМИ не знают, как освещать — как в России Z-сообщество и пропаганда отреагировали на итоги встречи Украины и США
  5. Кредиты на автомобили Geely снова подорожали. Под какие проценты сейчас выдают эти займы и сколько придется переплатить банку за 10 лет?
  6. Политика Трампа может напоминать хаос, но это не так: его тактику еще десять лет назад изучил американский журналист. Вот что он писал
  7. Возобновление военной помощи, немедленное прекращение огня: о чем договорились США и Украина на первой встрече по миру
  8. Этот аналитик пять лет назад предсказал, что Турчина назначат премьером. Спросили, станет ли он преемником Лукашенко
  9. КГК пожаловался Лукашенко на торговые сети, которые создают свои пекарни и конкурируют с хлебозаводами
  10. Большинство людей в мире дышат грязным воздухом. Нормам ВОЗ соответствуют только семь стран
  11. Лукашенко принял верительные грамоты от послов девяти стран. Кто в списке
  12. На рынке недвижимости, по всей видимости, грядет новая реальность. С чем это связано и каков прогноз у экспертов
  13. Столица России подверглась самой масштабной атаке беспилотников с начала войны
  14. Зеленский высказался по ситуации в Курской области
  15. Стало известно, кто совершил масштабную кибератаку на X. Маск утверждал, что следы ведут в Украину
  16. Карпенков объяснил, почему дроны «иногда падают на территории Беларуси», — понятней не стало


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.