
6 月 27 日-6 月 28 日,AICon 全球人工智能开发与应用大会北京站即将拉开帷幕。本次大会将汇聚 AI 前沿技术与落地实践,邀请来自腾讯、阿里、百度、字节跳动等头部大厂以及智谱、硅基流动、智象未来、声智科技等 AI 企业的 50+资深专家,深度探讨 AI Agent、多模态应用、推理性能优化以及 AI 在软件研发、数据分析、业务运营等场景的具体落地实践。
字节跳动 AIGC 算法工程师韩剑已确认出席并发表题为《Infinity:视觉自回归生成新路线》的主题分享,探讨以 ChatGPT、DeepSeek 为代表的大语言模型(LLM)取得了巨大的成功,掀起了全球新一轮 AI 浪潮,但是在视觉生成领域,目前主流的方法却是一直以扩散模型为主导。与大语言模型采取相同技术路线的视觉自回归方法因为具有更好的 scaling 特性,能够统一理解 &生成任务,隐藏着巨大的潜力,正受到人们越来越多的重视。本次演讲中,韩剑将以被选为 CVPR 2025 Oral 的工作 Infinity 为例,详细介绍自回归视觉生成的底层技术原理。并以图像生成和视频生成两个具体场景,分享最新的研究成果和相关思考。

韩剑,硕士毕业于清华大学电子系,现就职于字节跳动商业化技术团队,该团队在视觉生成领域先后推出了 VAR、LllamaGen、Infinity、Goku 等多项重要研究成果。韩剑的主要研究方向为图像生成和视频生成,在自回归图像生成和视频生成领域积累了丰富的经验,其最新研究成果 Infinity 被选中在 CVPR 2025 上做口头报告。他在本次会议的详细演讲内容如下:
演讲提纲
1. 自回归模型和 Scaling Law
2. 视觉自回归 v.s. 扩散模型
3. Infinity:视觉自回归生成新路线
离散 Visual Tokenizer
Bitwise AutoRegressive Modeling
图像生成实践
视频生成实践
4. 分析和思考
您认为,这样的技术在实践过程中有哪些痛点?目前看以 Infinity 为代表的视觉自回归模型在视频生成任务上相比 SOTA 的扩散模型生成速度具有明显优势,但是效果上还有一些差距。
您的演讲有哪些前沿亮点?这是一个非常详尽的视觉自回归技术分享,通过这次分享,读者可以深入了解到视觉自回归的底层技术实现、目前达到的效果水位,以及未来可能的研究方向。
听众收益
视觉自回归的技术原理、实现方法、目前达到的生成效果
视觉自回归技术的优缺点以及未来的发展方向
如何基于视觉自回归构建图像/视频生成模型
除此之外,本次大会还策划了AI Agent 构建与多场景实践、多模态实践与应用、大模型助力研发的实战经验、AI 在业务运营中的深度落地、大模型时代的数据处理与分析、AI 变革下的工程师等 10 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 50+资深专家在 AICon 北京站现场带来前沿技术洞察和一线实践经验。
现在报名即可以享受 9 折优惠,单张门票立省 580 元,详情可扫码或联系票务经理 13269078023 咨询。

评论