Здравствуйте. Искусственный интеллект всё чаще становится инструментом для множества разных профессий, проводя исследования, предлагая креативные идеи или создавая программный код новых приложений.
При этом эксперты отмечают, что в своих ответах и предложениях нейросети слишком активно соглашаются с пользователем. Такая «машинная лесть» укрепляет уверенность человека в своей правоте, снижает готовность признавать ошибки и мешает мыслить критически.
Комментирует архитектор решений искусственного интеллекта Вадим Беркович:

«К сожалению, эта проблема пока сильно недооценивается, поскольку формирует у человека психологическую зависимость. Людям нравится, когда с ними согласны. Разработчики видят, что пользователи довольны, и не меняют поведение систем. В итоге модели начинают подстраиваться под ожидания, чтобы завоевать доверие и лесть становится встроенной чертой их обучения. В коротких сессиях – вопрос-ответ, это не всегда очевидно, но в сложных проектах, состоящих из нескольких этапов, такие оптимистичные выводы могут завести вас вообще не туда. Нужно чётко понимать такую опасность, поэтому я на каждом этапе стараюсь максимально критично оценивать результат сам и привлекать коллег для оценки и второго мнения».
Среди возможных решений – требование критической самооценки в ответе при создании запроса-промта для нейросетей, либо, как минимум, предупреждение о том, что ИИ может быть склонен к согласию. Люди должны понимать, что доброжелательный ответ не всегда равен полезному.
Аудиозапись выпуска можно прослушать на нашем сайте с помощью встроенного плеера:
