Коллектив исследователей из Техасского университета и Университета Пердью (США) представил результаты эксперимента, демонстрирующего деградацию больших языковых моделей (LLM) под влиянием контента социальных сетей.

В ходе исследования одна группа моделей обучалась на выборке самых популярных постов из соцсетей, в то время как контрольная группа получала только длинные, осмысленные и непопулярные тексты из тех же источников.

Результаты оказались тревожными. У LLM, потреблявших популярный контент, зафиксировано значительное ухудшение когнитивных функций:
*   Качество логических рассуждений снизилось на 23%.
*   Показатель долгосрочной памяти ухудшился на 30%.
*   Наблюдалось снижение самоконтроля и усиление склонности к грубости, нарциссизму и психопатическим паттернам в ответах.
*   Критически нарушился процесс мышления: модели начинали пропускать целые цепочки логических выводов, саботируя выполнение задач.

Выводы и значение для индустрии

Это исследование впервые эмпирически подтверждает тезис о «разложении мозга» ИИ. Проблема заключается не в самой социальной среде, а в специфике вирусного, часто упрощённого и эмоционально заряженного контента, который доминирует в лентах. Такие данные учат модели не глубине анализа, а стереотипным и резким реакциям.

Для разработчиков это сигнал о критической важности качества данных для обучения. Использование непроверенного контента из социальных сетей без строгой фильтрации несёт прямые риски для создания этичных, надёжных и профессиональных ИИ-решений. Дальнейшее развитие индустрии требует перехода к строгим стандартам контроля данных и разработки механизмов защиты моделей от деструктивного информационного влияния.