他认为,随着 AI 的 Scaling Law 法则从预训练端转移到推理端上,AI 模型、AI 应用会在今年迎来新的加速爆发,今年的一个行业口号应该是“Make AI Work”(让 AI 变得有用)。他表示,随着 Scaling Law(慢思考)的放缓,超大预训练模型的直接商业价值在逐步降低。
IT之家获悉,李开复给出的四个理由是:数据不足导致传统预训练将终结;超大 GPU 群效率降低,容错问题等导致边际效应降低;超大预训练模型价格昂贵,速度缓慢;新推理 Scaling Law 将带来更高回报。超大预训练模型的价值正在转移,将进一步体现在“教师模型”的角色中,其本质也将更趋进于大模型时代的基础设施。旧学习范式是人教 AI,新学习范式是 AI 教 AI。