写点什么

华为公共开发部 /Web 前端技术专家涂旭辉确认出席 QCon 上海,分享 LLM 赋能声明式前端框架调试的实践与思考

  • 2023-12-14
    北京
  • 本文字数:851 字

    阅读完需:约 3 分钟

大小:471.28K时长:02:40
华为公共开发部 /Web 前端技术专家涂旭辉确认出席 QCon 上海,分享 LLM 赋能声明式前端框架调试的实践与思考

QCon 全球软件开发大会,将于 12 月在上海召开。华为公共开发部 /Web 前端技术专家涂旭辉将发表题为《LLM 赋能声明式前端框架调试的实践与思考》主题分享,探讨如何将大语言模型赋能前端调试领域,结合 record & replay 对声名式框架进行交互式调试。


涂旭辉,毕业于西安交通大学自动化系,就职于华为西安研究所,参与开源前端框架研发与探索相关工作,是开源前端框架 openInula 核心贡献者,负责框架技术演进规划及生态拓展等工作,目前担任 openInula AI 赋能技术项目负责人,主导 AI 辅助前端开发工具实践与探索。他在本次会议的演讲内容如下:


演讲:LLM 赋能声明式前端框架调试的实践与思考


随着 AI 技术的快速发展,ChatGPT 的亮相进一步提高了人们对生成式 AI 的期待,大语言模型赋能千行百业的时代已经到来。本次演讲将介绍如何将大语言模型赋能前端调试领域,结合 record & replay 对声名式框架进行交互式调试。开发者通过调试聊天框与模型互动,大模型对缺陷库进行学习增强程序分析推理能力并基于时间戳给出调试建议,开发者结合经验执行调试给出反馈,可以帮助开发者高效准确定位问题根因,为开发者带来全新开发调试范式。


演讲提纲:


  1. 背景与趋势

○ 前端框架发展 next

○ LLM 赋能千行百业

  1. AI 赋能前端领域洞察

○ why AI for debug

○ 技术选型

  1. 程序分析技术在前端调试的应用

○ 程序切片技术

○ 程序分析 × LLM

  1. 人机交互调试解决方案

○ 传统声名式前端框架调试流程

○ record & replay 交互式调试流程

○ 整体技术架构

○ 实践问题经验分享

  1. 未来与展望

○ AI 赋能前端开发全场景


听众收益点:


○ 传统前端调试 vs AI 赋能调试

○ 程序切片在前端调试的应用

○ LLM 对前端开发提效的思考


除上述演讲外,QCon 上海还将围绕 GenAI和通用大模型应用探索AI Agent 与行业融合应用的前景LLM 时代的性能优化智能化信创软件 IDE面向人工智能时代的架构性能工程:提升效率和创新的新方法等专题进行交流。


QCon 上海 2023,相约 12 月! 9 折优惠仅剩最后 2 天,现在购票立减¥680!咨询购票请联系:18514549229(微信同手机号)。



2023-12-14 11:306626
用户头像

发布了 89 篇内容, 共 49.4 次阅读, 收获喜欢 12 次。

关注

评论

发布
暂无评论
发现更多内容
华为公共开发部 /Web 前端技术专家涂旭辉确认出席 QCon 上海,分享 LLM 赋能声明式前端框架调试的实践与思考_生成式 AI_徐晓博_InfoQ精选文章