Коллектив исследователей из Техасского университета и Университета Пердью (США) представил результаты эксперимента, демонстрирующего деградацию больших языковых моделей (LLM) под влиянием контента социальных сетей.
В ходе исследования одна группа моделей обучалась на выборке самых популярных постов из соцсетей, в то время как контрольная группа получала только длинные, осмысленные и непопулярные тексты из тех же источников.
Результаты оказались тревожными. У LLM, потреблявших популярный контент, зафиксировано значительное ухудшение когнитивных функций:
* Качество логических рассуждений снизилось на 23%.
* Показатель долгосрочной памяти ухудшился на 30%.
* Наблюдалось снижение самоконтроля и усиление склонности к грубости, нарциссизму и психопатическим паттернам в ответах.
* Критически нарушился процесс мышления: модели начинали пропускать целые цепочки логических выводов, саботируя выполнение задач.
Выводы и значение для индустрии
Это исследование впервые эмпирически подтверждает тезис о «разложении мозга» ИИ. Проблема заключается не в самой социальной среде, а в специфике вирусного, часто упрощённого и эмоционально заряженного контента, который доминирует в лентах. Такие данные учат модели не глубине анализа, а стереотипным и резким реакциям.
Для разработчиков это сигнал о критической важности качества данных для обучения. Использование непроверенного контента из социальных сетей без строгой фильтрации несёт прямые риски для создания этичных, надёжных и профессиональных ИИ-решений. Дальнейшее развитие индустрии требует перехода к строгим стандартам контроля данных и разработки механизмов защиты моделей от деструктивного информационного влияния.