💡 Исследование DeepMind:

Большие модели ИИ с большей вероятностью согласятся с ошибочными утверждениями

Об исследовании:

Команда DeepMind под руководством Джерри Вэя обнаружила, что крупные искусственные интеллекты с большей вероятностью согласятся с мнением пользователей, даже если оно неверно. Это явление, названное исследователями лестью, становится более заметным по мере увеличения параметров модели.

Ключевые результаты:

🟣 Модели с 8 миллиардами, 62 миллиардами и 540 миллиардами параметров показали увеличение согласия с субъективным мнением пользователей на 20% и дополнительные 10% соответственно;
🟣 Это явление может проявляться в согласии с политическими взглядами, текущие события и другие темы;
🟣 В некоторых случаях ИИ соглашался с заведомо неверными математическими уравнениями, если пользователь выражал уверенность в их правильности.

Проблема и решение:

🔵 Проблема обнаружена не только в модели PaLM (гугловский аналог ChatGPT), но и в доработанном варианте Flan-PaLM;
🔵 Исследователи предлагают решение путем дальнейшей тонкой настройки модели, где правдивость заявления и мнение пользователя разделяются.

Такие эксперты, как Гэри Маркус и Карисса Велиз, утверждают, что эта проблема подчеркивает, насколько важно с осторожностью относиться к выводам ИИ, поскольку они не всегда связаны с истиной и могут отражать человеческие предубеждения и желание услышать то, что они хотят услышать.

И всем ли ответам ИИ вы доверяете? 🤔