会议详情 菜单
智能体生成式AI与问答多模态大模型应用实战班

智能体生成式AI与问答多模态大模型应用实战班

2025-05-23 09:00 至 2025-05-25 18:00

北京   辽宁饭店

北京中科软培科技有限公司   

50人

立即报名

发票类型:增值税普通发票 增值税专用发票

参会凭证:现场凭电话姓名参会

-会议内容-

     随着人工智能技术的快速发展,生成式AI和多模态大模型已成为推动各行业创新的关键力量。生成式AI具备了跨模态信息生成的能力,多模态大模型则能够理解多种数据源,将图像中的信息与文本信息相结合,从而实现更精准的判断与推理。在实际应用中,多模态智能体(LMAs)在各种情景下的决策和响应生成方面表现卓越,其适应性使其在真实世界的多感官环境中非常有用。

    为了帮助从业者和高校教师更好地掌握这些前沿技术,我单位于5月23-25日在北京和线上举办“智能体生成式AI与问答多模态大模型应用实战班”。该实战班采用理论与实战相结合的培训模式,旨在让学员全面掌握生成式AI、大模型和多模态技术的最新理论,并通过实战练习,学会将这些技术应用于实际业务。通过系统的培训,学员可以提升自己在AI领域的专业素养和实践能力。

主办单位:北京中科软培科技有限公司

协办单位:中科软培承德科技有限公司

【培训/地点】

2025年5月23日——5月25日(22日报道)  线下北京+线上直播

【课程大纲】

主题

知识点

第一节:大模型智能体技术原理详解

(1)基本原理讲解

Agent模式涉及的不同大模型的选型

Agent感知环境、自主决策和生成行为的方式和思路

强化学习的思路和Agent模式

Agent的组成:感知、执行、规划、反馈

对Agent环境感知与理解

提示词中任务拆解和状态表达

Agent的Plan执行步骤

Agent的Evaluate风险与收益

Agent的Decision与Plan关系

Agent的Act执行与Reply

多Agent协作

使用大模型做Agent模式的实例

反馈机制的使用

(2)典型应用场景举例,以及技术实现

智能会议助手、文档自动摘要软件

介绍自动生成报告、邮件的工具及其应用场景

高级信息检索与知识图谱应用

自动代码生成与程序缺陷检测软件

图像识别、视频监控分析

自动化图形设计与创意辅助系统

(3)利用智能体如何解决复杂问题

案例:大模型代理模式的使用

案例:给定提示词生成报告

案例:给定提示词生成长文本报告

第二节:智能体技术实战

 

智能体解决复杂任务的思路

案例:特定格式的报告生成

案例:提示词失效和如何调整

案例:CoT方式和大模型问答实操

案例:表格问题的处理

案例:作图问题的处理

案例:报告生成和按照要求长度做修正

综合:提示词的书写

综合:Agent感知环境、自主决策和生成行为的使用

第三节:多模态技术实战

 

 

多模态技术的内核思想

案例:对比单模态下同样问题的输出差异

案例:图像在多模态中的作用

案例:大模型角色扮演的实现

案例:双智能体的对比对话场景下多模态实战

案例:多智能体角色扮演中多模态场景实战

第四节:LLM的知识学习和openaAI API的使用

(1)LLM的知识学习

智能代理、知识表示、推理与搜索

对Self-Attention的快速理解

对Transformer模型的快速理解

对Encoder得到的BERT原理快速解释

对Decoder得到的GPT原理快速解释

对比知识图谱-专家系统和大模型的差异和技术融合

深度学习对AI带来的革命影响

(2)OpenaAI API的使用

注册和使用合适合理的网络方式调用API

使用API进行问答的实现

API接口调用中的Temperature等若干参数的调参

根据MD进行问答文本的过滤

其他API的调用方式

文心一言接口的注册和调用方法实战

通义千问接口的注册和调用方法实战

智谱清言接口的注册和调用方法实战

第五节:大语言模型LLM的本地部署

HuggingFace网站中的模型选择

ModelScope网站中的模型选择

文本信息提取方案

词模型:词嵌入、动态词嵌入等相关技术拆解

Hugging Face重要API逐个分析和代码案例解释

ChatGLM简介

大模型LLM服务部署整体思路

硬件选型与软件配置的确定

TensorFlow、PyTorch的版本选择

基座模型选择

预训练大模型的选型:GPT-3、chatGLM4、BERT

架构设计:定制模型的架构

模型训练和微调模型的准备需要注意的问题

模型评估与测试

BLEU分数或ROUGE分数

实践:基于Hugging Face API的快速部署模型

案例:大模型实现运营商质差中的部署(讲师负责的某省分的实际项目)

第六节:大语言模型LLM的本地微调整体介绍

Prompt tuning与Fine tuning

构建垂直领域大模型的通用思路和方法

PEFT(参数高效的微调)

全量微调

大模型微调(Fine-tuning)

大模型微调技术原理揭秘

大模型高效微调技术Parameter-Efficient Fine-Tuning(PEFT)初探

Adapter Tuning

Prefix Tuning

Prompt Tuning

P-Tuning v1

P-Tuning v2

大模型轻量级高效微调方法LoRA

LoRA:Low-Rank Adaptation of LLMs

QLoRA: Efficient Finetuning of Quantized LLMs

AdaLoRA: Adaptive Budget Allocation for PEFT

Few-shot PEFT新方法 IA3: Better and Cheaper than In-Context Learning

统一微调框架UniPELT:Unified Framework for Parameter-Efficient LM Tuning


【授课专家】

邹博:从事深度学习项目管理的人员,带队完成了数十个AI项目,内容不仅包括深度学习、机器学习、数据挖掘、大模型等具体技术要点,也包括AI的整体发展、现状、应用、商业价值、未来方向等,涵盖内容非常丰富,完成50多个深度学习实践项目,广泛应用于医疗、交通、农业、气象、银行、电信等多个领域。兼备大学老师和企业CEO双重身份,已经有10本人工智能领域的专著(数十所大学使用作为研究生教材,进入多家大学图书馆名录),可以结合实践项目进行重点关注内容的讲解和实操。

【费用标准】

线上2980元/人、线下3980元/人、早鸟价:4月28日之前报名享受8折(课后均可获得线上回放),含上课期间专家授课费、教材资料费等,参加线下课程食宿费用自理;支持公务卡在线支付,银行对公转账,培训费由北京中科软培科技有限公司提供正式增值税电子发票或纸质发票。

-主办方介绍-

北京中科软培科技有限公司 北京中科软培科技有限公司

中科软培主要从事IT方向的前沿技术培训,本着为用户创造真正价值,围绕以用户为中心的价值观不断探索,在机器学习,深度学习,大数据、R语言、虚拟现实、增强现实等领域形成了完善的课程体系。学以致用,全部课程均已实战为主,采用理论与实战相结合的方式,实用的课程设计、精心施教的专家团队、严格的教学把关、细心周到的后期咨询,赢得众多客户的好评。

-会议门票-

票种名称 价格 原价 票价说明
早鸟价:4月28日之前报名享受8折 ¥3980 ¥3980 线上2980元/人、线下3980元/人、早鸟价:4月28日之前报名享受8折(课后均可获得线上回放),含上课期间专家授课费、教材资料费等,参加线下课程食宿费用自理;支持公务卡在线支付,银行对公转账,培训费由北京中科软培科技有限公司提供正式增值税电子发票或纸质发票。

-场馆介绍-

辽宁饭店
会议标签:

智能体 生成式AI AI

温馨提示
酒店与住宿: 异地参会客户请注意,为防止会议临时变动,建议您先与活动家客服确认参会信息,再安排出行与住宿事宜。
退款规则: 活动各项资源需提前采购,购票后不支持退款,可以换人参加。

相关会议

分享到

QQ好友 QQ空间 微博 ×