AI加速科学发现
微信炼出扩散语言模型,实现vLLM部署AR模型3倍加速,低熵场景超10倍;陶哲轩认为AI让数学进入「工业化」时代;KAN作者:AI还没等到它的「牛顿」;Meta进行SSR级研究,让智能体摆脱人类知识的瓶颈;告别KV Cache枷锁,持续学习大模型有希望;多位科技富豪在2025年大量套现;AI正在改变工作方式;华为云具身机器人负责人离职创业;「微元合成」获近3亿元融资;小米辟谣徕卡变焦环造假;宝马多...
行业新闻(重要新闻、公司动态)
微信炼出扩散语言模型,实现vLLM部署AR模型3倍加速,低熵场景超10倍
腾讯微信 AI 团队提出 WeDLM(WeChat Diffusion Language Model),通过在标准因果注意力下实现扩散式解码,在数学推理等任务上实现相比 vLLM 部署的 AR 模型 3 倍以上加速,低熵场景更可达 10 倍以上,同时保持甚至提升生成质量。核心思路是让扩散解码兼容 KV 缓存。WeDLM 的关键突破在于解决了大多数扩散语言模型无法在推理速度上超越经过高度优化的 AR 推理引擎的问题。
AI让数学进入「工业化」时代,数学家也可以是「包工头」
菲尔兹奖得主陶哲轩指出,数学研究正被加速,通过形式化证明语言(如 Lean)与AI的深度融合,数学家可以参与大型协作项目,类似于软件工程的分工模式。这种模块化的研究方式可能允许「公民数学家」参与到前沿研究中。陶哲轩认为,数学研究的进展或显著加速。
KAN作者刘子鸣:AI还没等到它的「牛顿」
刘子鸣借用科学史提出,今天的AI可能还远未到达「牛顿力学」时刻,缺乏对底层现象的系统性总结。他呼吁建立一种「平易近人的现象学」,不以即时应用为导向,回归到用Toy Model进行可控的、多视角的假设驱动探索。
热门开源项目(GitHub项目、工具推荐)
SSR:自对弈 SWE-RL
Meta FAIR 和 Meta TBD 实验室提出 SSR(自对弈 SWE-RL),旨在通过使软件代理能够自主生成学习经验,从而摆脱人类数据的限制。该方法几乎不依赖人工数据,仅假设能够访问带有源代码与依赖环境的沙盒化代码仓库。通过自博弈的强化学习框架训练单一 LLM 智能体,使其能够不断自主注入并修复复杂度逐步提升的软件缺陷。
学术论文(最新研究、论文摘要)
WeDLM: Reconciling Diffusion Language Models with Standard Causal Attention for Fast Inference
WeDLM 是首个在工业级推理引擎优化条件下,推理速度超越同等 AR 模型的扩散语言模型。通过在标准因果注意力下实现扩散式解码,WeDLM 在数学推理等任务上实现了相比 vLLM 部署的 AR 模型 3 倍以上加速,低熵场景更可达 10 倍以上,同时保持甚至提升生成质量。核心思路是让扩散解码兼容 KV 缓存。
技术趋势(技术突破、创新应用)
JEPA-WM:联合嵌入预测世界模型
JEPA-WM 继承了 JEPA 的衣钵,不再纠结于像素级的重建,而是在高度抽象的表征空间内进行预判。通过全方位扫描架构、目标函数和规划算法,揭示究竟是什么驱动了物理规划的成功,并试图为机器人装上一个更理性的「大脑」。JEPA-WM 的主要组成部分包括视觉编码器、本体感受编码器、动作编码器和预测器。