Поддержать команду Зеркала
Беларусы на войне
  1. После аварии на теплотрассе Лукашенко заметил очевидную проблему с отоплением. Ее не могут решить по парадоксальной причине — рассказываем
  2. Кремль не демонстрирует готовности к компромиссам по Украине — ISW
  3. Белый дом перепутал Бельгию с Беларусью и включил ее в список участников «Совета мира» Трампа
  4. «Оторвался тромб». Правда ли, что это может случиться у любого, даже здорового человека, и как избежать смертельной опасности?
  5. На войне в Украине погиб беларусский доброволец Алексей Лазарев
  6. В Минск начнет летать новая авиакомпания. Билет стоит всего 89 рублей
  7. Зачем Трамп позвал Лукашенко в «Совет мира», где членство стоит миллиард долларов — спросили у аналитика
  8. «Это куда более крепкий орешек». СМИ узнали еще одну страну, где США рассчитывают сменить власть до конца года
  9. «Если бы беларусский народ победил в 2020-м, российского „Орешника“ не было бы в Беларуси». Зеленский выступил с жесткой речью в Давосе
  10. Минсвязи вводит ограничение скорости для безлимитного мобильного интернета
  11. Мужчина сделал колоноскопию и умер через три недели. Семья написала уже более 10 писем в госорганы
  12. Умерла Ирина Быкова, вдова Василя Быкова
  13. На четверг объявили желтый уровень опасности. Водителям и пешеходам — приготовиться
  14. «Люди военкоматам нужны». Эксперты обнаружили новшества в осеннем призыве и рассказали, к чему готовиться тем, кому в армию весной


Naked Science

ИИ-сервисы вроде ChatGPT и Claude могут помочь эффективнее справляться с работой, но сотрудники, использующие подобные инструменты, рискуют столкнуться с негативными последствиями. Группа американских ученых в серии экспериментов показала, что люди склонны хуже оценивать тех, кто прибегает к помощи нейросетей, считая их более ленивыми и менее старательными, пишет Naked Science.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Хотя технологии искусственного интеллекта все шире внедряются в разные сферы нашей жизни, отношение к ним бывает неоднозначным. Страх навредить своей профессиональной репутации может стать причиной нежелания сотрудников пользоваться такого рода сервисами в рабочих процессах, выяснили специалисты в области бизнеса и управления из Дьюкского университета (США). Их статью опубликовал журнал Proceedings of the National Academy of Sciences.

Исследование проходило в онлайн-формате и состояло из четырех этапов. В общей сложности в них поучаствовали почти 4500 человек.

В первом эксперименте испытуемых просили представить, что они стали пользоваться генеративными нейросетями для работы либо выполняли задачу без помощи ИИ. Затем участники отвечали на вопросы.

Судя по результатам, респонденты предпочитали не афишировать факт использования ИИ-технологий. Также применявшим ИИ казалось, что в глазах коллег и начальства они выглядят менее компетентными и добросовестными, но более ленивыми и легко заменимыми, чем сотрудники, которые обходились без такого рода инструментов.

Второй этап подтвердил, что опасения небеспочвенны. Прочитав предложенные учеными характеристики сотрудников, респонденты более негативно судили о тех, кто прибегал к помощи ИИ, ниже оценивая их трудолюбие, профессионализм, амбициозность, независимость и уверенность в себе.

В третьем эксперименте исследователи смоделировали процесс найма работников. Представив себя в роли менеджеров по кадрам, люди реже выбирали кандидатов, которые сообщали о частом использовании ИИ. Однако выяснился нюанс: среди респондентов, которые по работе сами регулярно применяли такие технологии, тенденция оказалась обратной.

Заключительный, четвертый этап показал, что предвзятость можно смягчить, если подчеркнуть пользу ИИ для выполнения тех или иных задач.

Авторы исследования добавили, что предубеждение к использованию ИИ проявлялось вне зависимости от пола, возраста и рода занятий участников. Впрочем, ученые напомнили, что людям исторически свойственно отторгать новшества и относиться к ним с недоверием.