新書推薦:

《
匿名的拼接:内丹观念下道教长生技术的开展
》
售價:HK$
107.8

《
故宫日历 书画版 2026
》
售價:HK$
149.2

《
圆的变形(关于圆的人类精神状态史 从神的圆到人的圆)
》
售價:HK$
103.8

《
第一哲学,最后的哲学:在形而上学与科学之间的西方知识
》
售價:HK$
66.1

《
百年文人:清晰或模糊的背影(卷二)
》
售價:HK$
147.5

《
百年文人:清晰或模糊的背影(卷一)
》
售價:HK$
147.5

《
旧日烟火 静远楼读史
》
售價:HK$
103.8

《
鲁迅与周作人
》
售價:HK$
81.4
|
| 編輯推薦: |
1.理论实践融合,采用创新教学策略,将自然语言处理和大语言模型的理论知识与实际项目案例紧密结合,助读者学以致用。 2.内容系统全面,本书涵盖从LLM基础知识、架构剖析,到提示技术、RAG、智能体、微调、部署与优化等内容,全方位覆盖LLM开发关键内容。 3.紧跟前沿技术,本书基于当下LLM发展,探讨最新技术和应用,如热门框架LlamaIndex 和 LangChain,助读者掌握行业动态。 4.项目案例丰富,本书包含众多实际项目案例,以多种形式提供实现指南,读者可亲手运行代码,加深理解。
|
| 內容簡介: |
|
本书采用创新且实用的教学策略,巧妙融合理论基础与实践应用,深入剖析自然语言处理(Natural Language Processing,NLP)领域的新进展,以及大语言模型(Large Language Model,LLM)的原理。书中不仅系统阐述了?LLM?的理论基础,还通过实际项目案例展示了如何将这些模型应用于构建RAG系统。本书遵循由浅入深的路径,从LLM的基础知识入手,详细阐释了模型的训练流程,并深入探讨了如何利用提示技术与模型进行高效交互。书中还重点介绍了两个在业界得到广泛认可的框架—LlamaIndex和LangChain,它们是开发RAG应用的强大工具。书中的项目案例不仅为读者提供了宝贵的实践经验,也能够加深读者对相关概念的理解和应用。此外,书中进一步探讨了包括智能体和微调在内的高级技术,这些技术能够显著提升问答系统的性能。
|
| 關於作者: |
|
路易斯-弗朗索瓦·布沙尔(Louis-Fran?ois Bouchard)Towards AI公司联合创始人兼首席技术官(CTO),网名“Whats AI”。他致力于普及AI知识并解释AI技术原理,让大众能够轻松理解AI。在深切体会到初创企业与学术界之间存在的巨大技能差距后,他从蒙特利尔学习算法研究所退学,放弃继续攻读博士学位,全身心投入YouTube科普内容创作和Towards AI公司的相关工作之中。路易·彼得斯(Louie Peters)Towards AI公司联合创始人兼首席执行官(CEO)。他致力于开发普惠化AI职业资源,推动大众高效进入AI领域。同时,依托帝国理工学院物理学背景及摩根大通集团的投资研究经验,他尤为关注AI技术的颠覆性影响、经济效应,以及持续技术突破对现实场景应用的赋能作用。
|
| 目錄:
|
第 1章 LLM简介1 1.1 语言模型简史1 1.2 什么是LLM2 1.3 LLM的组成2 1.3.1 Transformer2 1.3.2 语言建模3 1.3.3 分词3 1.3.4 嵌入4 1.3.5 训练/微调5 1.3.6 预测5 1.3.7 上下文窗口5 1.3.8 规模法则6 1.3.9 提示词7 1.3.10 LLM中的涌现能力及测试基准7 1.3.11 LLM简史9 1.3.12 项目:使用LLM(GPT-3.5 API)进行翻译13 1.3.13 项目:通过小样本学习来控制LLM的输出14 1.4 本章小结16 第 2章 LLM架构和概况17 2.1 理解Transformer17 2.1.1 论文“Attention Is All You Need”17 2.1.2 架构实战21 2.2 Transformer架构的设计选择24 2.2.1 编码器-解码器架构24 2.2.2 仅编码器架构26 2.2.3 仅解码器架构28 2.2.4 Transformer架构的优化技术30 2.3 生成式预训练Transformer(GPT)架构31 2.3.1 掩码自注意力31 2.3.2 GPT的训练过程31 2.3.3 MinGPT32 2.4 LMM简介33 2.4.1 常见架构和训练目标33 2.4.2 开源版本的Flamingo34 2.4.3 指令微调的LMM35 2.4.4 探索LLaVA—一个指令微调的LMM36 2.4.5 超越视觉和语言36 2.5 专有模型vs.开放模型vs.开源模型37 2.5.1 Cohere LLM37 2.5.2 OpenAI的GPT-3.5 turbo、GPT-4o和GPT-4o mini38 2.5.3 Anthropic的Claude 3模型38 2.5.4 Google DeepMind的Gemini39 2.5.5 Meta的LLaMA 239 2.5.6 Mistral LLM40 2.6 LLM的应用和示例41 2.6.1 商业与职业41 2.6.2 法律与合规42 2.6.3 医疗保健和健康42 2.6.4 教育与研究43 2.6.5 媒体与娱乐43 2.6.6 技术与软件43 2.6.7 个人发展与生活方式44 2.6.8 金融与投资45 2.6.9 运动与健康45 2.6.10 其他46 2.6.11 使用LLM的风险和伦理考量46 2.7 本章小结46 第3章 LLM实践48 3.1 理解幻觉和偏见48 3.1.1 通过控制输出减轻LLM的幻觉49 3.1.2 解码方法51 3.1.3 微调LLM52 3.2 LLM性能评估54 3.2.1 目标函数和评估指标54 3.2.2 内在指标:困惑度55 3.2.3 外部指标:基准测试56 3.3 本章小结58 第4章 提示技术简介59 4.1 提示词和提示工程59 4.2 提示技术63 4.2.1 零样本提示63 4.2.2 上下文学习和小样本提示63 4.2.3 角色提示64 4.2.4 链式提示65 4.2.5 思维链提示65 4.3 提示注入与安全66 4.4 本章小结68 第5章 RAG70 5.1 为什么使用RAG70 5.2 嵌入向量71 5.3 向量数据库与向量存储72 5.4 从头构建一个RAG管道73 5.4.1 数据预处理73 5.4.2 生成嵌入向量75 5.4.3 查找相关文本块76 5.4.4 测试余弦相似度77 5.4.5 相似度计算实战77 5.4.6 提示词增强79 5.5 本章小结82 第6章 LangChain和LlamaIndex简介83 6.1 LLM框架83 6.2 LangChain介绍83 6.3 项目1:使用LangChain构建LLM驱动的应用86 6.3.1 提示模板86 6.3.2 摘要链示例87 6.3.3 问答链示例88 6.4 项目2:构建新闻文章摘要器89 6.5 LlamaIndex介绍94 6.5.1 数据连接器94 6.5.2 节点95 6.5.3 索引96 6.5.4 查询引擎98 6.5.5 路由器98 6.5.6 保存和加载本地索引99 6.6 LangChain、LlamaIndex与OpenAI Assistants99 6.7 本章小结101 第7章 使用LangChain进行提示102 7.1 LangChain提示模板102 7.2 小样本提示和样例选择器107 7.2.1 人类与AI的信息交互108 7.2.2 小样本提示108 7.2.3 样例选择器110 7.3 LangChain链114 7.3.1 使用LLMChain生成文本114 7.3.2 在会话链中增加记忆115 7.3.3 使用顺序链连接链116 7.3.4 调试链116 7.3.5 定制链117 7.4 项目1:使用输出解析器管理输出118 7.5 项目2:新闻文章摘要器的改进127 7.6 项目3:基于文本数据创建知识图谱—揭示隐藏的连接133 7.6.1 使用LangChain构建知识图谱134 7.6.2 知识图谱可视化135 7.7 本章小结137 第8章 索引、检索与数据预处理138 8.1 LangChain的索引和检索器138 8.2 数据摄取141 8.2.1 从PDF中加载数据142 8.2.2 从网页中加载数据142 8.2.3 从Google Drive 中加载数据144 8.3 文本切分器144 8.3.1 基于字符长度的文本切分145 8.3.2 基于逻辑终点的文本切分146 8.3.3 基于NLTK的其他语种切分148 8.3.4 基于SpaCy的其他语种切分148 8.3.5 Markdown格式的文本切分149 8.3.6 基于Token的文本切分151 8.4 相似性搜索与嵌入向量152 8.4.1 开源嵌入模型153 8.4.2 Cohere嵌入154 8.5 项目1:客服问答聊天机器人156 8.5.1 工作流程157 8.5.2 文档切分及向量化158 8.5.3 基于策略设计提示词159 8.5.4 基于LLM生成回答160 8.6 项目2:基于Whisper和LangChain的YouTube视频摘要器161 8.6.1 使用Whisper进行音频转录163 8.6.2 切分文档并生成摘要163 8.6.3 将转录内容添加到Deep Lake166 8.7 项目3:为你的知识库创建语音助手169 8.7.1 从Hugging Face Hub获取内容170 8.7.2 加载和切分文本171 8.7.3 嵌入向量以及Deep Lake库172 8.7.4 创建语音助手173 8.7.5 基于Streamlit构建交互界面175 8.8 通过自批判链防止输出不良内容177 8.9 在客服问答聊天机器人中防止输出不良内容181 8.10 本章小结185 第9章 高级RAG187 9.1 从概念验证到产品:RAG系统的挑战187 9.2 使用LlamaIndex的高级RAG技术187 9.2.1 嵌入模型与LLM微调189 9.2.2 RAG监控与评估189 9.2.3 混合检索与嵌入向量检索189 9.3 LlamaIndex查询189 9.3.1 查询构建190 9.3.2 查询扩展190 9.3.3 查询转换191 9.3.4 使用查询引擎来回答问题191 9.3.5 重排序195 9.3.6 递归检索与从小到大的检索197 9.4 RAG指标与评估198 9.4.1 RAG与LLM评估指标198 9.4.2 检索评估指标200 9.4.3 基于社区的评估工具202 9.4.4 自定义RAG评估工作流205 9.5 LangChain的LangSmith与LangChain Hub210 9.6 本章小结214 第 10章 智能体215 10.1 什么是智能体:大模型作为推理引擎215 10.2 AutoGPT和BabyAGI概述220 10.2.1 AutoGPT220 10.2.2 使用AutoGPT与LangChain221 10.2.3 BabyAGI227 10.2.4 使用BabyAGI与LangChain229 10.3 LangChain中的智能体仿真项目232 10.3.1 CAMEL项目233 10.3.2 生成式智能体234 10.4 项目1:构建创建分析报告的智能体235 10.5 项目2:使用LlamaIndex查询和汇总数据库242 10.5.1 第 1步:定义数据源并创建向量存储索引242 10.5.2 第 2步:配置查询引擎244 10.5.3 第3步:开发会话智能体245 10.5.4 第4步:为智能体添加自定义函数246 10.6 项目3:使用OpenAI Assistants构建智能体249 10.7 项目4:LangChain OpenGPTs251 10.8 项目5:对PDF中的财务信息进行多模态分析253 10.8.1 数据提取253 10.8.2 存储在Deep Lake中257 10.8.3 微调嵌入空间259 10.8.4 聊天机器人实战262 10.9 本章小结264 第 11章 微调265 11.1 理解微调265 11.2 LoRA266 11.3 项目1:使用LoRA进行SFT267 11.3.1 加载数据集268 11.3.2 设置LoRA配置和训练超参数270 11.3.3 合并LoRA和OPT参数272 11.3.4 推理274 11.4 项目2:使用SFT和LoRA进行金融情感分析276 11.4.1 加载数据集277 11.4.2 初始化模型和训练器278 11.4.3 合并LoRA和OPT280 11.4.4 推理281 11.5 项目3:用医疗数据微调Cohere LLM283 11.5.1 Cohere API283 11.5.2 数据集284 11.5.3 微调287 11.6 RLHF290 11.7 项目4:使用RLHF改进LLM292 11.7.1 SFT293 11.7.2 训练奖励模型297 11.7.3 强化学习300 11.7.4 推理305 11.8 本章小结307 第 12章 部署与优化309 12.1 模型蒸馏和教师模型309 12.2 LLM部署优化:量化、剪枝和投机解码312 12.2.1 模型量化313 12.2.2 量化LLM315 12.2.3 模型剪枝316 12.2.4 投机解码318 12.3 项目:使用谷歌云平台上的CPU部署量化模型319 12.3.1 量化模型320 12.3.2 使用量化模型进行推理322 12.3.3 使用谷歌云平台上的计算引擎部署量化模型323 12.4 在云服务提供商上部署开源LLM325 12.5 本章小结326 总结328
|
|