北京智源人工智能研究院再度引发行业震动,其最新推出的开源原生多模态世界模型——悟界·Emu3.5,正在重新定义AI对物理世界的理解能力。这款被业界视为"世界模型基座"的突破性成果,首次实现了文本、图像、视频三大模态的深度融合,在动态场景构建、长时序逻辑推理等核心领域展现出颠覆性创新。
与传统文生视频模型不同,Emu3.5突破了"表面相似性"的局限,构建起对物理规律的深层认知。当用户要求消除手写痕迹时,模型不仅能精准识别笔迹区域,更能理解纸张纹理的连续性,确保修改后的区域与整体保持光学一致性。这种能力源自其独特的训练范式——通过分析超过10万亿Token的多模态数据,其中包含海量互联网视频的连续帧序列,使模型天然掌握时空连续性法则。
在动态世界模拟方面,Emu3.5创造了前所未有的交互体验。用户以第一人称视角探索虚拟环境时,模型能实时推演空间变化:当镜头转向房间角落,系统会自动补全被遮挡的家具轮廓;在火星卡丁车场景中,车轮扬起的红色尘土会随着地形起伏呈现不同的扩散轨迹。这种空间一致性能力,使虚拟世界首次具备了物理引擎级别的真实感。
具身智能操作是该模型的另一大突破。在"整理桌面"任务中,Emu3.5展现出类人的规划能力:先识别所有物品的3D坐标,再根据线缆长度规划最优捆绑路径,最后通过理线槽实现隐藏式收纳。整个过程涉及27步连续操作,每步都严格遵循物理约束条件。更令人惊叹的是,当用户中途修改指令要求"改用蓝色扎带"时,模型能立即调整后续所有相关操作。
视觉创作领域,Emu3.5重新定义了"所见即所得"的标准。将狐狸草图转化为3D手办的任务中,模型在12个连续创作阶段始终保持特征一致性:从基础建模到3D打印支撑结构生成,再到上色时的光影过渡,每个环节都严格遵循初始设定的狐狸神态。这种长时程创作能力,使其能生成包含38个步骤的烹饪教学指南,每个操作画面都附带精准的物理参数说明。
技术实现层面,研发团队创造了多项创新。340亿参数的Decoder-only架构将所有任务统一为状态预测问题,通过多模态分词器将文本、图像转化为离散Token序列。特别设计的IBQ视觉分词器拥有13万词汇表,配合扩散解码器可实现2K分辨率图像重建。为解决生成速度难题,离散扩散适配技术使图像推理效率提升19倍,同时保持97.3%的原始质量。
在权威基准测试中,Emu3.5展现出压倒性优势。文本渲染任务准确率达92.7%,超越Gemini-2.5-Flash-Image模型4.2个百分点;多模态交错生成任务的逻辑连贯性评分创下89.1的新高。这些数据印证了其作为世界模型基座的潜力——既能生成电影级视觉叙事,也可为机器人提供空间推理引擎。
这款划时代模型的开源决定,正在引发全球开发者生态的连锁反应。研究团队同步释放了预训练框架、微调工具链和强化学习系统,使中小团队也能基于Emu3.5开发垂直领域应用。目前已有教育机构利用其生成物理实验模拟器,医疗领域则尝试构建手术训练的虚拟环境。
体验通道现已开启,科研内测版申请链接:https://jwolpxeehx.feishu.cn/share/base/form/shrcn0dzwo2ZkN2Q0dveDBSfR3b 项目技术文档与演示案例详见官网:https://zh.emu.world/pages/web/landingPage

