丁文华:大模型开始理解物理世界,未来将形成颠覆性生产能力
2025年12月18日 13:21
来源: 21世纪经济报道
东方财富APP

方便,快捷

手机查看财经快讯

专业,丰富

一手掌握市场脉搏

手机上阅读文章

提示:

微信扫一扫

分享到您的

朋友圈

  12月18日, 2025年中国数字文娱大会以“新技术新模式新业态”为主题在广州开幕。主旨发言环节,中国工程院院士、深圳大学电子与信息工程学院院长丁文华围绕LMM语言大模型及AIGC近两年进展,探讨其对数字文娱带来的关键影响。

  “大模型今年最重要的新特征,是开始理解物理世界。”丁文华表示。借助多模态感知,大模型把分散的图文、声音、动作等信息对齐、关联,形成对事件、知识、因果与隐性关系的整体理解。

  “大模型的到来,将使周边设施、数字基础都发生非常大的变化。随着技术迭代,当前AIGC在内容生成、场景和镜头控制上已到达一定水平,基于生成式的特效已经超越传统方法,应用也愈加广泛。”丁文华表示。

  一方面利用AI来辅助生产,基于文本或者故事片的设计意图和文本描述,通过大模型进行文生图,有了分镜头剧本后,再根据镜头进行人工拍摄,使文本和视频对齐形成再次镜头的拼接和配合;另一方面利用AI进行创作,根据数据信息制作专业静态、动态图表,结合相关描述生成具有年代性的场景,通过图片和视频进行情景再现。

  当前,我国AIGC创作尚处于起步阶段,AI创作类应用与AI助手类应用用户数仍有较大差距,用户使用习惯仍待培育。数据显示,2025年7月,AI创作应用Web端总访问量接近3000万;AI助手类应用Web端总访问量超3亿,5款产品访问量超千万,总MAU约4300万。其中,DeepSeek居首位,其国内访问量超1.2亿,MAU约1300万。

  丁文华认为,自2024年以来,LMM/AIGC大模型已经完成了巨大的进步,但当前AIGC生成视频的能力仍有局限。

  在视觉呈现上,受限于训练素材,目前AIGC生成视频最高质量为HD(1920*1080),尚不普遍具备4K/8K生成能力;在故事叙述上,当前AIGC在事件、故事层面仍有较大差距,不支持正叙、倒叙、插叙、闪回等叙事手法,无法达到蒙太奇式呈现效果;在内容真实性上,生成内容无法保证符合物理世界的所有客观规律等。

  “未来AIGC可能快速形成颠覆性生产能力,然而当前AI价值观与创作伦理仍需要规范,AIGC的迭代发展最终将是帮助人类进行创作,利用科技手段渲染和增强艺术效果,而不是替代我们的操作。” 丁文华说。

(文章来源:21世纪经济报道)

文章来源:21世纪经济报道 责任编辑:10
原标题:丁文华:大模型开始理解物理世界,未来将形成颠覆性生产能力
郑重声明:东方财富发布此内容旨在传播更多信息,与本站立场无关,不构成投资建议。据此操作,风险自担。
举报
分享到微信朋友圈

打开微信,

点击底部的“发现”

使用“扫一扫”

即可将网页分享至朋友圈

扫描二维码关注

东方财富官网微信


扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500