课程概述
课程旨在深入介绍生成式人工智能(AIGC)和大语言模型(LLM)技术。
在这个课程中,我们首先将研究生成式人工智能(AIGC)和大语言模型(LLM)的概念和技术体系,探讨其工作原理,生态体系以及与 OpenAI的关系。接下来,我们将深入讨论"提示工程",介绍如何构建和优化提示以提高LLM的结果质量。在环境配置方面,我们将展示如何使用Python代码实现流式自动对话,并快速创建Chat Bot。
课程中,我们还将通过LangChain来开发AIGC应用,详细讲解其概念、模型调用、提示工程、输出解析。我们还会介绍如何在LangChain中使用链(Chain)、内存(Memory)和代理(Agent)。一起探索楼LangChain的高级应用,并在实际演练中构建一个客户服务型Chatbot。
最后,我们将搭建一个API网关,实现LLM模型的本地运行,并构建一个低代码/无代码的AIGC开发平台。课程最后将主要专注于应用部署,包含容器化部署和PaaS化部署,以便于快速上线自定义LLM应用。
课程对象
- AI技术爱好者:对人工智能特别是生成式AI感兴趣的个人。
- 数据科学家:需要使用LLM进行数据分析和模式识别的专业人士。
- 软件开发者:希望将AIGC集成到其应用程序中的软件开发者。
- 产品经理:负责设计和推出基于AIGC技术的产品的产品经理。
- 研究人员和学者:在学术研究中探索AIGC应用的研究人员。
- 企业决策者:寻求利用AIGC技术改进业务流程和提高效率的企业决策者。
- 技术创业者:正在寻找利用AIGC技术创造新业务机会的创业者。
课程目标
通过课程学习,学员将能够获得必要的知识和技能,以在各自的领域中有效利用AIGC技术,开发创新的应用程序,并推动人工智能技术的发展。
- 理解AIGC和LLM技术:使学员能够理解AIGC的概念、技术体系以及LLM的工作原理。
- 掌握提示工程:教授学员如何构建和优化提示,以改善LLM的输出质量。
- 开发环境搭建:指导学员如何获取和使用LLM API Key,以及如何使用Python代码实现流式自动对话。
- LangChain应用开发:深入学习LangChain的基本概念,掌握如何使用LangChain调用LLM API,以及如何串联不同的组件构建复杂的AIGC应用。
- 记忆与代理机制:了解如何在AIGC应用中保存对话上下文,以及如何使用代理机制进行结构化工具对话。
- 高级应用与工具箱:学习如何实现检索增强生成、连接数据库、异步通信机制,以及角色扮演等高级应用。
- 自主可控开发底座:教授学员如何搭建API Gateway,管理API渠道和令牌,以及如何实现LLM模型的本地运行。
- 低代码无代码平台构建:介绍如何部署低代码无代码AIGC应用开发平台,如Flowise,并实现基本会话机器人。
- 应用部署:了解应用容器化部署,以及如何借助云服务快速上线自定义LLM应用。
- 项目实战:通过构建客服Chatbot和知识库问答系统,让学员将所学知识应用于实际项目中。
课程收益
- 深入理解AIGC和LLM技术:掌握生成式人工智能和大语言模型的核心概念与技术体系。
- 提示工程技能提升:学习如何构建和优化提示,以提高大语言模型的输出质量。
- 实践环境配置能力:通过Python代码实现流式自动对话,快速创建Chat Bot。
- LangChain应用开发:深入了解LangChain的概念和应用,掌握模型调用和输出解析。
- 记忆与代理机制应用:在AIGC应用中保存对话上下文,使用代理机制进行结构化工具对话。
- 高级应用与工具箱运用:实现检索增强生成、连接数据库、异步通信机制等高级应用。
- 自主可控开发底座构建:搭建API Gateway,管理API渠道和令牌,实现LLM模型的本地运行。
- 低代码无代码平台构建技术:部署低代码无代码AIGC应用开发平台,实现基本会话机器人。
- 应用部署与快速上线:掌握应用容器化部署,借助云服务快速上线自定义LLM应用。
- 项目实战经验:通过构建客服Chatbot和知识库问答系统,将所学知识应用于实际项目。
课程时长4天
课程大纲
| 模块 |
章节 |
内容 |
| 1. 生成式人工智能和大语言模型技术概览 (1D) |
AIGC的概念和技术体系 |
• 生成式人工智能(AIGC)体系概述
• 大语言模型技术(LLM)工作原理
• LLM 生态体系
• OpenAI 及其相关模型介绍 |
| 提示工程 |
• 什么是提示工程
• 构建提示的方法
• 优化提示技巧改善LLM输出质量
• 提示工程思维和提示工程最佳实践 |
| 实现AIGC开发环境 |
• 获取并使用LLM API Key
• 构建开发环境使用Python代码实现流式自动对话
• 快速创建Chat Bot,练习提示词 |
| 2. 使用 LangChain 开发AIGC应用 (2D) |
LangChain的基本概念和环境准备 |
• 大语言模型的概念
• LangChain的概念和组件
• 安装LangChain环境
• 使用LangChain调用LLM API |
| 模型的调用、提示工程和输出解析 |
• 模型I/O
• 提示工程
• 输出解析 |
| Chain:串联不同的组件 |
• Chain的概念
• LLMChain
• Sequential Chain
• RouterChain |
| Memory:保存对话上下文 |
• Memory 概述
• ConversationChain
• ConversationBufferMemory(缓冲记忆)
• ConversationBufferWindowMemory
• ConversationSummaryMemory
• ConversationSummaryBufferMemory |
| Agent:代理 |
• Agent概念和体系
• React框架
• 结构化工具对话代理
• 自主询问搜索代理
• 计划与执行代理 |
| LangChain高级应用 |
• 工具和工具箱
• 实现检索增强生成RAG
• 连接数据库
• 回调函数实现异步通信机制
• CAMEL:实现角色扮演
• 实现自治代理 |
| 综合演练:构建客服Chatbot |
• 技术架构
• 实现步骤
• 实现基本聊天
• 实现记忆功能
• 整合文档库具备检索机制
• 使用Gradio/StreamLit框架部署Chatbot |
| 项目实战:开发知识库问答系统 |
• 项目需求
• 技术框架
• 核心实现机制
• 核心代码分析
• 功能实现 |
| 3. 实现自主可控的AIGC应用开发底座 (1D) |
搭建API Gateway |
• AIGC 开发底座工具链介绍
• LLM API 调用方法和策略综述
• 使用One-API项目部署API Geateway
• 管理API渠道和令牌
• API 调用的监控以及用户管理 |
| 实现LLM模型本地运行 |
• 使用LM Studio实现开源大模型的本地运行
• 开源大语言模型和本地开发环境的对接
• 测试和评估LLaMa模型
• 测试和评估Mixtrel MoE模型
• 使用Phi 2实现本地平替Github Copilot解决方案
• 实现嵌入式模型的本地运行 |
| 构建低代码无代码AIGC应用开发平台 |
• 部署Flowise
• 快速实现基本会话机器人
• 实现整合Web浏览插件的会话机器人
• 实现领域知识库(Embedding & 向量检索引擎)
• 实现智能体 |
| AIGC 应用的部署 |
• 应用容器化部署介绍
• 借助Vercel实现应用的PaaS化部署
• 部署ChatGPT Web
• 快速上线自定义LLM应用 |
为什么选择艾威
深厚的行业经验:艾威自2003年成立以来,积累了丰富的培训经验和行业资源。
专业的师资团队:我们的讲师都是具有多年实战经验的行业专家和学者。
实战为主:本课程强调实战应用,帮助学员更好地将理论知识运用到实际工作中。
个性化的课程设置:我们根据市场需求和学员需求,设计了符合实际需要的课程内容和结构。
在这个技术日新月异的时代,掌握最新的知识和技能是每个专业人士的必备条件。选择艾威,让我们一起迎接技术的未来!
培训咨询