大模型本地部署训练和应用实践班
️【课程概述】
随着人工智能技术的飞速发展,大模型在自然语言处理、计算机视觉、语音识别等众多领域取得了显著的成果,如GPT系列、DeepSeep系列在大语言模型方面的突破,为各行业带来了新的可能性。然而,大模型的训练和应用往往需要强大的计算资源和专业的技术知识,本地部署训练成为了一种实际且有效的解决方案,能够让使用者更好地掌控模型训练过程和数据隐私。
为了帮助从业者和高校教师更好地掌握这些前沿技术,我单位于4月18-20日举办“大模型本地部署训练和应用实践班”。该实战班采用理论与实战相结合的培训模式,旨在让学员全面掌握各个大模型的特点,部署本地大模型,并通过实战练习,学会将这些技术应用于实际业务。通过系统的培训,学员可以提升自己在AI领域的专业素养和实践能力。
️【培训/地点】2025年4月18日——4月20日(17日报道) 线下昆明+线上直播
️【课程大纲】
️主题 知识点
️第一节:主流大模型应用介绍和模型间的商业集成
典型大模型比较
1. GPT-4(OpenAI)
2. Claude(Anthropic)
3. Gemini(Google)
4. Llama(Meta)
5. QWen(阿里)
6. Coze(字节跳动)
7. DeepSeek(深度求索-幻方量化)
大模型整体技术阐述:主流技术、小众技术有哪些
基于Transformer架构和支持复杂上下文理解
大模型的量化压缩
GPT4的多模态能力(文本、图像输入)、逻辑推理、长文本生成。
GPT4应用场景建议:对话系统、内容创作、数据分析、教育
Claude的安全性和伦理对齐,支持超长上下文(最高支持200k tokens)
Claude的Constitutional AI框架特点
Claude应用场景建议:法律文档分析、长文本总结、合规性审核
Gemini原生多模态(文本、图像、视频、代码)和高性能推理
Gemini的TPU优化训练,支持实时多模态交互。
Gemini应用场景建议:跨媒体内容生成、科研数据分析、编程辅助
Llama区别于GPT4的重要做法:开源可商用,70B参数规模,支持微调
Llama社区驱动优化思路
Llama应用场景建议:企业私有化部署、学术研究、定制化AI服务
QWen的中文优化,行业垂类模型(如法律、医疗),支持插件扩展
QWen应用场景推荐:电商客服、金融风控、智慧城市
Coze的低代码AI Agent开发平台,多模态交互,工作流编排
Coze应用场景建议:智能客服、自动化流程、游戏NPC交互
Coze的插件市场、可视化流程设计器、多模型调度(支持集成第三方模型)的实践
DeepSeek的数学、中文问答、CoT、代码生成等方向的sota做法,长上下文优化
DeepSeek的MoE架构,在R1、V3两个不同模型上的对比技术亮点
DeepSeek应用场景建议:一般性问答、金融数据分析、科研计算、教育解题
DeepSeek与火山Coze的商用集成方案
插件开发、工作流开发、触发器配置
通过插件扩展Coze与DeepSeek的交互能力
调用DeepSeek的数学引擎处理数据
接口封装:将DeepSeek的API封装为Coze插件(如REST API适配)
权限控制:在Coze平台配置API密钥与访问权限
调用DeepSeek-Math处理用户输入的财务数据
调用DeepSeek生成Python脚本并返回结果到Coze对话流
在Coze中通过可视化工具串联DeepSeek与其他服务(如数据库、第三方API)。
用户输入触发:用户通过Coze聊天界面提问(如“计算公司季度增长率”)
数据预处理:Coze调用插件从数据库提取原始数据
调用DeepSeek:将数据发送至DeepSeek进行数学建模。
结果渲染:DeepSeek返回计算结果,Coze生成可视化图表并反馈给用户
定时触发:每日自动生成销售报告(调用DeepSeek分析数据)
条件触发:当用户提问包含“计算”“公式”等关键词时,自动路由到DeepSeek处理
API触发:外部系统通过Webhook触发Coze工作流(如ERP系统请求库存预测)
通过Coze的权限管理限制DeepSeek访问敏感数据
对DeepSeek的API请求做缓存(如高频计算问题结果缓存)
在Coze中设置异步调用,避免长流程阻塞。
️第二节:技术对比和主流开源大模型选型
️1.1 模型选择
- ️Deepseek-R1 (7B/67B):中文领域表现SOTA,支持长上下文推理
- ️Llama-3 (8B/70B):Meta最新开源模型,多语言通用底座
- ️Mistral-8x7B:MoE架构标杆,推理效率提升3倍
- ️Qwen-72B:阿里千问开源版,金融法律领域微调能力强
️1.2 基础环境搭建实操
- ️硬件要求:至少24GB显存(如RTX 3090/A10) + 64GB内存
- ️软件依赖:
- CUDA 12.1 + cuDNN 8.9
- PyTorch 2.2 + Transformers 4.38
- FlashAttention-2加速库
- ️关键配置:LD_LIBRARY_PATH添加cuda路径,设置PYTORCH_CUDA_ALLOC_CONF防止显存碎片
️第三节:大模型办公效率提升和提示词Prompt技巧
DeepSeek应用
AI工具对个人与企业影响
DeepSeek与Llama3、Qwen的对比
DeepSeek网页版与本地版功能对比
7B小模型与32B模型功能对比
DeepSeek角色扮演,打造不同领域的专属AI顾问
PPT中AI智能应用
AI自动排版
AI自动搜图
DeepSeek辅助PPT创意构思
DeepSeek融合专业PPT应用工具
DeepSeek关联PPT智能插件应用
Excel中的AI智能数据魔法
AI自动分析、格式化
AI自动图表、透视表
DeepSeek辅助Excel深度数据分析
DeepSeek函数编写“神助攻”,助力函数菜鸟成高手
DeepSeek编写VBA代码,让零基础写代码变得简单高效
将工作表数据拆分成多个工作表
将工作表数据拆分成多个工作簿
将多个工作表数据合并成一个工作表
多个工作簿中的工作表保存到一个工作簿
ChatGPT助力Excel自动化实战
DeepSeek创意枯竭时的灵感源泉
营销文案、工作报告、创意写作的生成案例
DeepSeek快速精准地提炼文档信息
DeepSeek助力文档智能纠错与优化建议
DeepSeek助力学术论文撰写得力助手
️第四节:本地大模型私有化部署
️2.1 Deepseek-R1部署流程
- ️模型获取:
- 通过HuggingFace官方仓库申请权限
- 下载deepseek-r1-7b-base的safetensors格式权重
- ️推理服务启动
- 关键参数trust_remote_code、max_model_len等的讲解
- 解释器多种启动服务方式对比
- ️服务验证
- 代码调用
- 服务API的参数设置
️2.2 Llama-3-8B快速部署
- ️量化加速
- FP8的特点
- 对比Deepseek原论文中量化章节的解读
- ️REST API调用:
- 深度学习系统部署的常用方式
- 针对AI算法的部署框架
️第五节:大模型行业数据的微调和模型训练
️3.1 Deepseek-R1金融领域微调
- ️数据准备:
- 格式:JSONL文件,每条含instruction/input/output
- 数据源:财报、券商研报、金融问答对、运营商问答对、意图识别数据
- 关键处理:使用SentencePiece重组专业术语tokenization
- ️QLoRA训练配置
- 微调在大模型中的常用方法
- 多种LoRA方式的对别
- ️启动训练
- 显存优化
- GPU并行
️3.2 探讨适合微调的场景
- 阐述项目中RAG模式和LoRA模式的选择
️第六节:基于DeepSeek私有化代码编程
本地化模型部署
模型获取与安装
DeepSeek获取私有化模型安装包,模型文件(权重+配置文件)
硬件选型:GPU算力、内存、存储,并安装依赖环境CUDA、Docker、Python库
服务器内网环境管理和必要的设置
开发工具本地化集成、IDE插件适配
Cursor、CodeGPT等工具配置,模型调用指向DeepSeek API,禁用云端服务
搭建本地模型服务(RESTful API或gRPC)
离线依赖管理:搭建私有仓库
禁用外部数据传输,关闭开发工具自动更新、云同步功能
对模型文件、代码库进行加密存储,记录所有模型调用日志
记录用户操作(如模型调用、代码提交)
确定DeepSeek的离线更新流程,及时模型补丁
️第七节:自定义知识问答
️4.1研报文档自动生成系统
️架构设计:
- ️数据层:Wind API实时获取宏观指标 + PDF解析模块
- ️推理层:
- Deepseek-R1作为生成核心
- Mistral-8x7B进行事实核查
- ️评估层:
- Rouge-L评估内容一致性
- FinBERT检测财务数据矛盾
️以部署拓扑理清整体脉络
常规分析、复杂计算、数据采集、向量数据库、路由决策、Deepseek-R1/Mistral-8x7B、合规审查、PDF输出
️4.2 业务领域的对话系统(根据具体需要选择智能投顾、套餐产品等)
️关键技术点:
- ️RAG增强:
- 使用LlamaIndex构建行业知识图谱
- FAISS向量库实现百万级文档秒级检索
- ️记忆管理:
- 缓存最近轮次的对话摘要
- 采用CoT(Chain-of-Thought)提示工程技术
- ️风控拦截:
- 关键词过滤(如“保证收益”、“100%”等违规表述)
- 置信度阈值设定(softmax概率<0.7时触发人工接管)
️第八节:上线前的大模型系统优化
️5.1 性能加速方案
- ️量化压缩:
- GPTQ 4bit量化使模型体积减少70%
- 采用DeepseekV3提出的MTP技术实现tokens
- ️缓存策略:
- KV Cache分块存储,降低重复计算
- 高频问题回答预生成
️5.2 监控体系建设
- ️业务指标:
- 平均响应时间<2.5s
- 意图识别准确率>92%
- ️模型指标:
- PPL(困惑度)波动监控
- Attention熵值异常检测
- ️硬件监控:
- GPU利用率>85%时自动扩容
- 显存泄漏预警机制
️【授课专家】
邹博:从事深度学习项目管理的人员,带队完成了数十个AI项目,内容不仅包括深度学习、机器学习、数据挖掘、大模型等具体技术要点,也包括AI的整体发展、现状、应用、商业价值、未来方向等,涵盖内容非常丰富,完成50多个深度学习实践项目,广泛应用于医疗、交通、农业、气象、银行、电信等多个领域。兼备大学老师和企业CEO双重身份,已经有10本人工智能领域的专著(数十所大学使用作为研究生教材,进入多家大学图书馆名录),可以结合实践项目进行重点关注内容的讲解和实操。
️【费用标准】
线上2980元/人、线下3980元/人(课后均可获得线上回放),含上课期间专家授课费、教材资料费等,参加线下课程食宿费用自理;提供正式增值税电子发票或纸质发票。