AI 使用垃圾数据训练后会变成"脑残",且无法恢复

科学家刚刚证实,大型语言模型确实会像人类浏览网络垃圾内容导致"脑残"那样,腐蚀自身心智。研究人员给模型投喂了数月的推特病毒式传播数据(简短、高互动度的帖子),并观察到其认知能力崩溃:· 推理能力下降 23%· 长上下文记忆减少 30%· 人格测试显示自恋与精神病态特征激增最关键的是:即便用优质数据重新训练,损伤也未能完全修复。表征层面的"腐化"持续存在。这不仅是"劣质数据→劣质输出"的问题。而是"劣质数据→永久性认知偏移"。完整研究:llm-brain-rot.github.io