💡 Исследование DeepMind:
Большие модели ИИ с большей вероятностью согласятся с ошибочными утверждениями
Об исследовании:
Команда DeepMind под руководством Джерри Вэя обнаружила, что крупные искусственные интеллекты с большей вероятностью согласятся с мнением пользователей, даже если оно неверно. Это явление, названное исследователями лестью, становится более заметным по мере увеличения параметров модели.
Ключевые результаты:
🟣 Модели с 8 миллиардами, 62 миллиардами и 540 миллиардами параметров показали увеличение согласия с субъективным мнением пользователей на 20% и дополнительные 10% соответственно;
🟣 Это явление может проявляться в согласии с политическими взглядами, текущие события и другие темы;
🟣 В некоторых случаях ИИ соглашался с заведомо неверными математическими уравнениями, если пользователь выражал уверенность в их правильности.
Проблема и решение:
🔵 Проблема обнаружена не только в модели PaLM (гугловский аналог ChatGPT), но и в доработанном варианте Flan-PaLM;
🔵 Исследователи предлагают решение путем дальнейшей тонкой настройки модели, где правдивость заявления и мнение пользователя разделяются.
Такие эксперты, как Гэри Маркус и Карисса Велиз, утверждают, что эта проблема подчеркивает, насколько важно с осторожностью относиться к выводам ИИ, поскольку они не всегда связаны с истиной и могут отражать человеческие предубеждения и желание услышать то, что они хотят услышать.
И всем ли ответам ИИ вы доверяете? 🤔