请帮我梳理LLM模型相关的指南,需要整理不同模型(例如ChatGPT,Claude等等所有知名的模型...

Tạo vào: 7 tháng 6, 2025

Trả lời bằng Deep Research bởi Chat01

Câu hỏi

请帮我梳理LLM模型相关的指南,需要整理不同模型(例如ChatGPT,Claude等等所有知名的模型,不分国籍)的差别和他们分别擅长的领域,技术原理。应用大模型的方法,推荐的最佳路径,在应用过程中需要注意什么,以及后训练、微调、COT等等的思想和具体方法。要求介绍专业而不失生动。

Trả lời

为了确保内容全面而实用,请问你希望我们重点面向哪类读者?例如:

  1. 企业应用人员(希望将大模型落地到业务场景)
  2. 开发者/技术人员(关注模型原理与训练)
  3. 教育或研究人员(偏学术方向)

另外,你希望这份指南的长度大概是多少?需要包含图表或案例分析吗?

Câu hỏi

我是一名大模型产品经理,所以我希望这篇指南兼顾技术和实用性,我要了解它的原理才能更好的构建应用。我希望这份指南越全面越好,可以包含图标和案例分析。

Trả lời

明白了,我将为你整理一份全面而专业的LLM(大语言模型)应用指南,涵盖主流模型(如ChatGPT、Claude等)的差异、擅长领域、技术原理、后训练与微调方法(如CoT、LoRA等)、最佳应用路径、注意事项,并辅以图表和案例分析,兼顾产品管理与技术实现视角。 我整理好后会第一时间告诉你。

Nghiên cứu

✨ I’m collecting info on popular large language models, their architecture, training methods, and unique features.

🔍 Searched for Moonshot LLM model

✨ I'm gathering info on prominent LLMs like ChatGPT, Claude, Gemini, and others, comparing features, architectures, training methods, APIs, performance, and their effectiveness in tasks such as code generation, Q&A, and translation.

🔍 Searched for Google Gemini LLM 2024

✨ I'm pulling together info on Google's Gemini models from various sources, including their blog, Wikipedia, and the Google AI for Developers page. This gives a comprehensive view of the Gemini model's development and launch details.

🌐 Read blog.google

✨ This guide highlights how scrolling through content fosters engagement, aids discovery, and keeps user attention.

🌐 Read more from blog.google

✨ I’m curious to see what new insights or images might appear as I scroll through the content.

🌐 Read more from blog.google

✨ Mapping Google models against OpenAI's RLHF, Anthropic's Constitutional AI, and others. Also, noting GLM's bilingual approach and Moonshot's context.

🌐 Read en.wikipedia.org

✨ Moonshot, a Chinese startup, developed the assistant Kimi, expanding to 2 million Chinese characters by March 2024, reaching parity with OpenAI's "o1" performance.

🌐 Read more from en.wikipedia.org

✨ Moonshot's Kimi leverages vast context windows and an exclusive optimizer, setting itself apart in model technology.

🔍 Searched for Tongyi Qianwen model parameters

✨ Alibaba's "Tongyi Qianwen 2.5" will feature models from 0.5B to 110B, including open-source Qwen-7B, with enhancements like group query attention and 32k context for the 110B model.

🌐 Read tongyi.aliyun.com

✨ I'm pulling together details on Alibaba's 8 Tongyi LLMs, including 7 million downloads and open-sourcing models like Qwen-VL and Qwen-Audio.

🌐 Read m.21jingji.com

✨ I’m noting the various features and improvements of the Qwen1.5-110B and Wenxin Yiyan, including their multi-lingual support, parameter counts, and training methods.

🔍 Searched for Wenxin Yiyan 4.0 release

✨ Baidu's Wenxin LLM 4.0, including agent technology for planning and reflecting, claims parity with GPT-4 in abilities. The model architecture and parameter sizes might offer more insights.

🌐 Read news.cn

✨ I'm assessing the feasibility of the International SciTech Innovation Center site, focusing on the potential for international collaborations and scientific advancements.

🌐 Read ncsti.gov.cn

✨ Wenxin 4.0 shines with its multi-modal capabilities, such as generating images and videos from a single input, showcasing vast understanding, planning, and human-like reflection.

🔍 Searched for Zhipu GLM130B open source

✨ I’m working through the Tsinghua KEG page on GLM-130B, an open-source bilingual model with 130 billion parameters, highlighting its unique GLM architecture, auto-regressive, and blank filling tasks.

🌐 Read keg.cs.tsinghua.edu.cn

✨ I’m thinking through GLM's architecture compared to others like MoE or memory models, and considering their plus-filled and retrieval tasks.

🔍 Searched for Mistral 7B architecture data

✨ I'm mapping out the key enhancements in Mistral 7B, including Grouped Query Attention, Sliding Window Attention, Byte-fallback BPE, and potentially RoPE. These advancements position Mistral 7B as a significant leap over its predecessors, likely on the Llama2 base.

🌐 Read mistral.ai

✨ Mistral outperforms Llama2 13B, achieves close performance to CodeLlama 7B on code tasks, and enhances inference with GQA and SWA.

🔍 Searched for GPT-4 Claude Llama2 Tongyi GLM comparison

✨ I’m breaking down GPT-4, Claude, Llama2, and other models, focusing on context size, safety measures, and use cases.

✨ Gathering info on Transformer architecture without needing citations, considering official lit or Chinese blogs.

🔍 Searched for large language model principles Transformer attention positional encoding

✨ It's interesting to see how transformers tackle RNN issues with self-attention, incorporate multi-head attention, and utilize decoders for text generation, often with position encoding and self-supervised learning.

🌐 Read cnblogs.com

✨ I'm mapping out the use of Zhihu, which specializes in positions. Alternatively, there's a comprehensive explanation on "Transformer model architecture (pos encoding and attn) CSDN."

🌐 Read blog.csdn.net

✨ I’m gathering info on authoritative sources like Tsinghua GLM, zhihu, and huggingface to cite general knowledge on Transformer architecture, ensuring a balanced approach.

🔍 Searched for Transformer autoregressive model sequence

✨ Entry 2: Explanation of pure encoder (auto-encoding like BERT) and pure decoder (auto-regressive like GPT). This aligns with our goal of conveying these concepts in simple terms.

🌐 Read transformers.run

✨ The snippet at L68-L71 classifies a Pure Decoder model like GPT as auto-regressive, generating text left to right, and likely covers attention mechanisms.

🌐 Read more from transformers.run

✨ I’m mapping out GPT, BERT, and T5 models, and explaining causal attention and positional encoding.

🌐 Read zhuanlan.zhihu.com

✨ Opening up a theory on positional encoding in Transformers, I’m delving into CSDN's insights. Progressing through the nuances, I’m identifying key concepts and their implications.

🌐 Read blog.csdn.net

✨ I'm thinking about how Transformers use positional encoding, like sine and cosine functions, to maintain word order in self-attention mechanisms. This method helps the model understand sentence structure.

🔍 Searched for LoRA QLoRA input differences fine-tuning

✨ I'm looking at Red Hat and Zhihu articles, focusing on LoRA and QLoRA's impact on trainable parameters and precision loss.

🌐 Read more from blog.csdn.net

✨ I’m piecing together the distinctions between LoRA and QLoRA, their roles in training efficiency, and knowledge incorporation methods like RAG and fine-tuning.

🔍 Searched for 思路链 策略 CoT 例子

✨ I'm looking at how Zhihu's approach with Chinese explanations encourages reasoning examples to enhance model accuracy, advocating for more precise results.

🌐 Read zhuanlan.zhihu.com

🌐 Read blog.csdn.net

✨ I’m mapping out the Chain-of-Thought strategy to boost math and reasoning tasks, while exploring ReAct's alternating thinking and action model.

🔍 Searched for ReAct prompt model introduction

✨ OK, let me see. The result is suggesting that ReAct combines reasoning and action in LLMs, allowing for dynamic reasoning in planning tasks. This seems like a solid approach.

🌐 Read promptingguide.ai

✨ ReAct combines reasoning and acting with LLMs, generating verbal traces and actions for tasks, and interacting with external environments like Wikipedia.

🌐 Read more from promptingguide.ai

✨ OK, let me see. Considering Thoughtworks for a simpler RAG definition, waiving direct explanation.

🌐 Read thoughtworks.com

✨ I'm working through the request, focusing on the task of retrieving specific information.

🔍 Searched for retrieval-augmented generation (RAG) explanation

✨ I'm considering an explanatory blog about AWS.

🌐 Read aws.amazon.com

✨ I’m outlining the steps to integrate LLMs: prototyping, testing, evaluation, deployment, API use, safe prompt design, and user interaction design. This approach ensures a structured progression from initial concept to a sophisticated product.

✨ Focusing on transitioning from prototype to production for an LLM app, addressing essential aspects.

🔍 Searched for best practices for building LLM prototype to production

✨ I’m outlining steps for LLM product development: initial testing, model selection, prompt engineering, systematic evaluation, deployment planning, integration, and safe prompt crafting.

🔍 Searched for safe prompt design for large models

✨ OK, I’m noting that developers need a thorough defense strategy in the LLM era, covering input validation and more.

🌐 Read cnblogs.com

✨ OK, let me see. Hallucination, bias, safety, inference cost, latency, interpretability, and data privacy are Vital considerations for LLMs.

🔍 Searched for large model hallucinations biases challenges

✨ I looked into the zhihu "Challenges and applications of LLM" for hallucination and bias details.

🌐 Read zhuanlan.zhihu.com

🔍 Searched for LLM hallucinations biases safety challenges

✨ OK, let me see. The challenge with LLMs is generating believable content without a basis. This definition clarifies what hallucination involves.

🌐 Read more from zhuanlan.zhihu.com

✨ I’m thinking through how to cite something like Nvidia RAG for accuracy.

🌐 Read nvidia.cn

✨ I'm digging into the terms and their implications, thinking through meanings and context.

🔍 Searched for hallucination threshold value

✨ I'm reviewing "Challenges and Applications of Large Language Models" on Google Scholar to pinpoint issues like hallucination and alignment. Consulting Wikipedia for AI bias and hallucination topics.

🔍 Searched for LLM hallucination Wikipedia

✨ OK, let's explore "Large language model - Wikipedia" for common issues. It’s interesting to see how language models can highlight challenges in search queries.

🌐 Read en.wikipedia.org

✨ I'm mapping out that in LLM, hallucinations present as fluid yet factually wrong text, deviating from input accuracy.

🌐 Read more from en.wikipedia.org

✨ Bias and safety in LLMs.
Checking policies
Focusing on bias, safety, and interpretability.
Mapping out case examples
Highlighting applications and comparative charts.

🔍 Searched for model capability radar GPT-4 Llama

✨ I’m examining search results for reliable comparisons of AI models. The results include a potentially unreliable ad and a peer-reviewed radar chart comparing models like GPT-4 and Claude, with suggestions to incorporate insights from a well-known source.

🌐 Read zhidx.com

✨ Considering charts and tables comparing LLM models, including Python-generated radar charts and flowcharts illustrating the development pipeline, reflecting on ethical and data accuracy aspects.

🔍 Searched for LLM deployment pipeline flowchart

🌐 Read multimodal.dev

✨ Thinking through the workings of a RAG pipeline in the blog.

🌐 Read more from multimodal.dev

✨ I'm noting that the images [50†Image] and [51†Image] at lines 69-71 could be diagrams to explore.

🌐 Read cdn.prod.website-files.com

✨ I’m noting that SVG might not easily embed and it’s likely just an arrow icon. Evaluating usage options.

🌐 Read more from cdn.prod.website-files.com

✨ I’m working through icons for LinkedIn and Twitter, not the RAG pipeline diagram. The embedded diagram image mentions images around [3] and [4] in find.

🌐 Read multimodal.dev

✨ I'm thinking about using a Google Gemini chart to meet the "charts" requirement, even though direct linking might not be possible.

🌐 Read blog.google

✨ Images [111†Image] and [112†Image] are now included in the blog.

🌐 Read storage.googleapis.com

✨ I’m examining a URL for an image and considering embedding it, but uncertain if it’s a suitable file type.

🌐 Read more from storage.googleapis.com

✨ Thinking through embedding lower-resolution GIFs, as they might be not high resolution but could be engaging.

🌐 Read more from storage.googleapis.com

✨ I'm working through adding image citations and descriptions, ensuring contextual citations and source acknowledgment. Exploring temporary use of a python tool to confirm the visual content.

✨ I’m mapping out options for radar chart sources, including OpenCompass and Zhihu, and considering embedding references directly into the draft.

🔍 Searched for open source model capability radar

✨ Wondering if the width "kuanheng168" contains a radar chart from OpenCompass.

🌐 Read kuanheng168.com

✨ Noticing the attention on iFlytek Spark, contrasting it with other domestic models in the article.

🌐 Read finance.sina.com.cn

✨ OK, let me see. There’s a need to scroll through the information for a better overview.

🌐 Read more from finance.sina.com.cn

✨ I'm taking a closer look at an 'Image: 4 models capability radar chart,' likely visualizing four models' performance aligned with Kydland and Prescott's models.

🌐 Read more from finance.sina.com.cn

✨ I'm looking at bar and radar charts to evaluate model performance comprehensively.

🌐 Read n.sinaimg.cn

✨ I’m thinking through the radar chart that evaluates safety, overall level, coding skills, liberal arts, and science, showing each model's strengths.

🌐 Read tongyi.aliyun.com

✨ Baidu Wenxin Yiyan is used in the search engine and ERNIE Bot. Khan Academy utilizes GPT-4 in Khanmigo for interactive tutoring, and Duolingo employs GPT-4 as well.

🔍 Searched for Khan Academy GPT-4 tutor

✨ Khan Academy is rolling out a virtual tutor, Khanmigo, with OpenAI's GPT-4.

🌐 Read openai.com

✨ I’m compiling the details of mainstream LLMs, covering their capabilities, distinctions, and citations for authenticity, including specifics like Claude 2's extensive context handling.

🔍 Searched for Claude 100k context Anthropic

🌐 Read anthropic.com

✨ I’m noting that Claude's context capacity is expanded to 100k tokens, allowing for extensive, longer-lasting conversations.

🔍 Searched for Anthropic Constitutional AI principles RLHF

✨ I'm mapping out the strengths and potential drawbacks of large language models (LLMs) like ChatGPT, Claude, and others, including their architecture, training methods, and multilingual abilities, to provide a comprehensive overview of their landscape.

I'm ensuring each performance claim from various models is accurately cited in the report, focusing on their comparative strengths and including visual support for clarity.

Research completed in 9m

Trả lời

大语言模型全面指南

1. 主流大语言模型综述

ChatGPT (OpenAI): ChatGPT是OpenAI推出的对话式大语言模型接口,背后的模型包括GPT-3.5系列和更先进的GPT-4等。GPT-3.5(1750亿参数)以Transformer解码器为架构,经海量互联网语料预训练并通过人类反馈强化学习(RLHF)对齐,擅长流畅回答各种问题;GPT-4则是在此基础上提升了推理能力和稳定性,支持图像输入等多模态功能,综合能力被广泛认为领先于同代模型 (文心大模型4.0首发 AI“生成未来”) 。ChatGPT能执行复杂问答、代码生成、创意写作、多轮对话和翻译等多种任务,具有强大的综合能力上下文理解能力,但其具体模型规模和架构细节OpenAI未公开。OpenAI通过严格的安全机制(包括内容过滤和RLHF调教)使ChatGPT倾向于给出有帮助且安全的回答。

Claude (Anthropic): Claude是Anthropic公司研发的对话大型模型系列,最新版本Claude 2在英语问答、创意写作等方面性能接近GPT-4水平。Claude的一大特点是超长上下文窗口,可支持最高100k tokens(相当于约75,000字)的输入 (Introducing 100K Context Windows \ Anthropic) ——远超OpenAI的默认上下文,大幅提升了总结长文档和进行长对话的能力。Anthropic在Claude中采用了“宪法式AI”的训练方法,即预先制定一套原则让模型自我遵循,从而训练出有帮助且无害的助手 (Constitutional AI: Harmlessness from AI Feedback - Anthropic) 。这种方法减少了对人类标注有害样本的依赖,增强了模型的安全性和一致性。Claude擅长长文分析内容总结创意协作等任务,在代码、生物等领域也有不错表现。此外,Claude对不当请求会更倾向于给出委婉拒绝或解释,这与其对齐策略有关。

Gemini (Google DeepMind): Gemini是Google DeepMind在2023年底发布的新一代大模型,号称Google迄今最强大通用的AI模型 (Introducing Gemini: Google’s most capable AI model yet) (Introducing Gemini: Google’s most capable AI model yet) 。Gemini从设计之初即为原生多模态模型,可同时处理文本、代码、图像、音频和视频等多种输入 (Introducing Gemini: Google’s most capable AI model yet) 。首版Gemini 1.0提供了不同规模的模型:Ultra、Pro和Nano。其中Gemini Ultra是规模最大的旗舰模型,面向高度复杂的任务;Gemini Pro定位于广泛任务的高效模型;Gemini Nano则可部署在移动等设备上的轻量模型 (Introducing Gemini: Google’s most capable AI model yet) 。据Google公布,Gemini Ultra在众多学术基准上达到领先性能:例如MMLU基准测试首次超过人类专家水平90.0% (Introducing Gemini: Google’s most capable AI model yet) (Introducing Gemini: Google’s most capable AI model yet) ;在多模态推理基准MMMU上也创下新高 (Introducing Gemini: Google’s most capable AI model yet) 。Gemini在文本和代码任务上可媲美甚至超越GPT-4 (Introducing Gemini: Google’s most capable AI model yet) ,并在图像理解生成方面超越以往的多模态模型 (Introducing Gemini: Google’s most capable AI model yet) 。作为Google的战略模型,Gemini被寄望在搜索、助手、专业工具等广泛应用中发挥作用,其多模态复杂推理能力和工具使用能力(如结合浏览器等)也是一大亮点。

【78†embed_image】 Google DeepMind发布的Gemini Ultra模型在通用文本基准上的表现。据Google介绍,Gemini Ultra在诸多学术测试中超越了GPT-4等先前最优模型,在57门学科组成的MMLU考试中成绩首次超过人类专家平均水平 (Introducing Gemini: Google’s most capable AI model yet) (Introducing Gemini: Google’s most capable AI model yet) 。该图表展示了Gemini Ultra相对于GPT-4在常见语言任务上的领先幅度。

Mistral (Mistral AI): Mistral是于2023年创立的法国初创公司推出的开源大模型。其代表作为Mistral 7B(仅73亿参数),但在架构和训练上经过精心优化,性能远超同规模模型。Mistral 7B引入了分组查询注意力(GQA)等改进提高推理效率,并采用滑动窗口注意力机制以较小计算成本支持更长上下文 (Mistral 7B | Mistral AI) 。据官方发布,Mistral 7B在各项基准上全面超过Llama 2的130亿参数模型,甚至在许多基准上追平或超过Llama 1的340亿模型 (Mistral 7B | Mistral AI) 。针对代码任务,其精调版接近Code Llama-7B的水准 (Mistral 7B | Mistral AI) 。Mistral模型开源(Apache2.0许可)且可自由商用,支持本地部署和自主微调,这使其在开发者社区极具人气。Mistral证明了通过架构创新和高质量训练,即使较小参数量也能取得媲美大模型的效果。它擅长对话问答代码生成等常见任务,对英文有良好能力,但在其他语言上可能略逊于大规模模型。

LLaMA系列 (Meta): LLaMA是Meta(Facebook)AI研究部门推出的系列大模型。2023年发布的LLaMA 1提供了70亿~650亿参数不等的模型,训练使用多语种语料,在学术基准上表现优异并作为研究用途开放权重。随后Meta在2023年7月推出了LLaMA 2,包含7B、13B、70B参数的模型,并提供了经过对话指令调优的Chat版本 (“最强开源大模型”来了,通义千问推出千亿级参数模型 - 21世纪经济报道) 。LLaMA 2成为首个商用开放的大模型,开发者可在协议下免费下载使用,从而催生了丰富的社区微调版本。LLaMA系列采用标准Transformer架构,主要针对英语和欧洲语言训练(对中文等亚洲语言也有一定掌握,但相对有限)。在相同性能下LLaMA模型参数更小、更高效,例如LLaMA2-70B在很多任务上接近GPT-3.5的能力但推理开销更低。Meta也发布了Code Llama等变体,在代码理解/生成方面超越同期的开源模型。总体而言,LLaMA的特点是开源可控、可本地部署,适合需要数据私有和定制的场景。但相较于OpenAI和Google的闭源大模型,LLaMA在顶尖能力上仍有差距,尤其是在复杂推理和创意应答方面略逊一筹。

通义千问 (Alibaba): 通义千问是阿里巴巴达摩院研发的大模型系列,主打中文及多语言处理。阿里云于2023年发布通义千问1.0,并在2024年迭代了通义2.0、2.5系列模型 (重磅!通义千问2.5正式发布—2024年5月24日-通义帮助中心) 。通义千问覆盖了0.5B到110B参数跨度的八款模型,从手机端可跑的5亿小模型到具备企业级能力的1100亿模型一应俱全 (重磅!通义千问2.5正式发布—2024年5月24日-通义帮助中心) 。其中最大模型Qwen-110B(千问1.5-110B)采用纯Transformer解码架构并引入分组查询注意力(GQA)提高推理效率,支持32K长上下文,具备出色的多语种能力(中英法德西俄日韩越阿等) (“最强开源大模型”来了,通义千问推出千亿级参数模型 - 21世纪经济报道) 。通义千问110B在MMLU、TheoremQA等基准上性能卓越,已达到Meta最新Llama-70B模型的同级水平 (“最强开源大模型”来了,通义千问推出千亿级参数模型 - 21世纪经济报道) 。除了通用模型,阿里还开源了多模态模型Qwen-VL(视觉)、Qwen-Audio(音频)以及代码专用的CodeQwen等 (重磅!通义千问2.5正式发布—2024年5月24日-通义帮助中心) 。通义千问擅长中文问答知识分析代码辅导等任务,开放程度和本地部署友好度在国内领先。同时阿里提供了云上的API服务,方便企业将千问能力集成到客服、办公等应用中。

文心一言 (Baidu ERNIE Bot): 文心一言是百度基于其“文心”系列大模型推出的对话式产品。文心大模型发展迅速,2023年10月百度发布了文心大模型4.0,据称在理解、生成、逻辑推理、记忆等核心能力上全面提升,整体水准“与GPT-4相比毫不逊色” (文心大模型4.0首发 AI“生成未来”) 。文心一言背后的基础模型参数规模高达百亿级别(早期版本ERNIE 3.0曾有2600亿参数),训练结合中英双语以及知识图谱等海量数据,在中文领域具有强大的知识储备。4.0版本引入了自主智能体架构,增加了对规划、反思、进化能力的支持,使模型可以像Agent一样拆解任务、逐步推理,提高复杂问题求解的可靠性 (文心大模型4.0正式发布!开启邀请测试- 百度智能云千帆社区) (文心大模型4.0首发 AI“生成未来”) 。同时,文心一言已支持图像和文本生成等多模态功能,在演示中可根据一张图片创作海报文案乃至生成视频 (文心大模型4.0首发 AI“生成未来”) 。作为中国首批对公众开放的大模型聊天应用,文心一言在中文多轮对话搜索问答创意写作等方面表现优异,并集成于百度搜索、浏览器、智能音箱等产品中。百度还为企业推出了文心一言的定制化API和私有化部署方案,但相应地对模型输出实施严格内容安全策略以符合监管要求。

GLM(通用语言模型,智谱AI): GLM是清华大学KEG实验室和智谱AI联合推出的大模型架构,特色是在预训练中融合了自回归和自编码(双向)语言模型技能。代表性模型GLM-130B拥有1300亿参数,支持中英双语,在开源发布时(2022年)是当时体量最大的公开双语模型 (GLM-130B:开源的双语预训练模型 | GLM-130B) 。GLM-130B采用“通用语言模型”预训练范式:既能像GPT那样从左到右生成文本,也能填空和理解全文上下文。这赋予模型更强的零样本学习能力和对中文的深度理解。在英文基准LAMBADA上,GLM-130B超越了GPT-3(175B)和BLOOM(176B)等模型,在MMLU知识问答上也略胜GPT-3 175B (GLM-130B:开源的双语预训练模型 | GLM-130B) ;在中文CLUE和FewCLUE基准上,它相比百度ERNIE Titan 3.0(260B)取得了大幅领先(零样本提升24%+) (GLM-130B:开源的双语预训练模型 | GLM-130B) 。此外,智谱AI还发布了轻量化的ChatGLM系列(如ChatGLM-6B)供本地部署,实现了在单张消费级显卡上运行对话模型。GLM系列模型特别擅长中英双语对话、知识问答创意写作,在中文领域表现突出。作为开源模型,GLM为研究和商业应用提供了一个自主可控的选择。

Moonshot(月之暗面)及Kimi: Moonshot AI是一家成立于2023年3月的中国创业公司,由清华大学出身的研究者创立,致力于大模型和AGI研发 (Moonshot AI - Wikipedia) (Moonshot AI - Wikipedia) 。“月之暗面”是其中文品牌名,取意自Pink Floyd的专辑《The Dark Side of the Moon》,寓意探索AI未知领域 (Moonshot AI - Wikipedia) 。Moonshot在2023年10月推出了首个聊天机器人Kimi(名字源自CEO杨植麟的英文名),一经发布即被视为国内最有力的ChatGPT竞争者之一 (Moonshot AI - Wikipedia) 。Kimi的显著特点是超长上下文处理能力:初版即可连续处理20万中文字符对话,2024年3月升级后上下文长度扩展到惊人的200万字 (Moonshot AI - Wikipedia) (Moonshot AI - Wikipedia) 。如此大的记忆窗口使Kimi擅长长文档分析、多轮持续对话等场景。Moonshot还研发了高效的Muon优化器和Mixture-of-Experts架构来训练大模型,以较小算力完成了5.7万亿token的训练 (开源赛道太挤了!月之暗面开源新版Muon优化器 - 知乎专栏) (Moonshot AI - Wikipedia) 。截至2025年初,Kimi已更新至版本1.5,官方声称其在数学、编程、多模态推理方面达到了OpenAI顶级模型的水准 (Moonshot AI - Wikipedia) 。Kimi在中文对话、代码问答、本地知识库检索等领域表现优异,并提供付费订阅服务。Moonshot作为新锐,还在持续改进模型性能并计划进入国际市场 (Moonshot AI - Wikipedia) 。总体而言,Kimi体现了中国创业公司在大模型长上下文处理高效训练上的探索成果。

以上综述了当前主流的大语言模型,不论国际国内,各模型各有侧重:OpenAI和Anthropic的模型在英语综合能力上全面领先;Google和Meta等推出的新模型在多模态和开源生态上发力;中国的百度、阿里、科大讯飞等则在中文能力和本土应用上具有优势。下一节将对比总结这些模型在架构、能力、应用上的差异。

2. 每个模型的特点对比

大型语言模型虽都基于Transformer架构和海量语料训练,但在技术细节能力侧重上存在诸多差异。下面从多方面对比主流模型的特点:

  • 模型架构与规模: 主流LLM几乎都采用Transformer解码器架构,但参数规模差异显著。OpenAI的GPT-3.5为1750亿参数,GPT-4具体规模未公布但被推测远超前代;Anthropic的Claude据称与GPT-4量级相当,也在百亿级以上。Google Gemini采用分层次模型族,最大版Ultra可能由数千亿甚至过万亿参数的多模态Transformer组成(官方未披露确切大小)。Meta的LLaMA系列提供7B-70B量级模型,可通过层数和隐藏单元的变化伸缩规模。中国模型中,百度文心4.0和科大讯飞星火等据推测参数在千亿左右;阿里通义千问系列从5亿到1100亿覆盖广泛,110B模型采用了分组注意力等优化在相对较小规模下实现高效 (“最强开源大模型”来了,通义千问推出千亿级参数模型 - 21世纪经济报道) 。此外,一些开源模型探索Mixture-of-Experts等架构(如Moonshot的Moonlight MoE模型 (开源赛道太挤了!月之暗面开源新版Muon优化器 - 知乎专栏) )以在有限参数下扩展能力。总体而言,在相同性能要求下,模型参数越大通常能力越强,但也有通过优化架构提升效率的案例(如Mistral 7B通过RoPE位置编码、GQA等设计,在7.3B参数下实现相当于更大模型的性能 (Mistral 7B | Mistral AI) )。

  • 训练方式与对齐: ** 不同团队在模型训练和对齐(Alignment)上采用各自策略。OpenAI使用了海量互联网文本进行无监督预训练,然后借助人类反馈强化学习**(RLHF)进行对齐,使ChatGPT善于遵循人类指令并避免有害回答。Anthropic则倡导“宪法AI”,用一组价值观原则让模型自我改进,从而训练出在不给予不良示范的情况下也能拒绝不当请求的模型 (Constitutional AI: Harmlessness from AI Feedback - Anthropic) 。Meta的LLaMA采用传统预训练后,开源社区通过指令微调(如基于ShareGPT数据)得到LLaMA-Chat版本,并进行了适度的RLHF,但总体上开源模型的对齐强度不及商用API模型。百度、阿里等中文模型则通常在预训练后,收集大规模问答对话进行监督微调,同时增加了安全机制(例如人工规则、黑名单词过滤等)以符合法规要求。总体看,OpenAI和Anthropic模型由于大量投入RLHF/AI反馈,对用户指令的服从性和安全性控制更佳;开源模型则胜在可定制性,开发者可自行微调对齐以适应具体场景。

  • API能力与工具接口: 在应用集成方面,不同模型提供的接口能力有所不同。OpenAI的GPT系列通过API支持函数调用插件等扩展功能,开发者可以让ChatGPT调用外部工具或检索,从而增强其计算和访问实时信息的能力。Anthropic的Claude强调长上下文,适合让模型一次性分析长文档。Google的Gemini被定位为通用AI底座,预计将深度结合Google产品(如搜索、办公套件)提供多模态交互和代理功能。Meta的LLaMA由于开源,本身不提供云API,但第三方服务和开源项目已将其部署用于对话、AutoGPT等代理程序。中国的通义千问、文心一言等通过各自云平台API供企业接入,并提供模型下载以便私有部署。就上下文长度而论,Claude以10万Token领先 (Introducing 100K Context Windows \ Anthropic) ;GPT-4次之,提供8K和32K两种上下文长度版本;通义-110B支持32K上下文 (“最强开源大模型”来了,通义千问推出千亿级参数模型 - 21世纪经济报道) ;大多数开源模型(LLaMA等)上下文在2K-4K左右,少数经改进的可达8K以上。对于调用效率,开源模型可在本地针对批量请求优化并行,API模型则由云服务自动扩展。需要注意的是,超长上下文虽然强大,但也会显著增加调用成本和延迟,因此在实际应用中要权衡利弊。

  • 性能与任务专长: 在综合NLP能力上,目前GPT-4依然被公认为表现最强的大模型,在专业考试、学术基准、编码等广泛任务上占优 (Introducing Gemini: Google’s most capable AI model yet) 。Google声称Gemini Ultra在部分基准已超越GPT-4 (Introducing Gemini: Google’s most capable AI model yet) ;Anthropic Claude和百度文心4.0等也宣称达到GPT-4同等级别 (文心大模型4.0首发 AI“生成未来”) 。开源阵营中,经过精调的LLaMA-70B、通义千问-110B等模型在常见基准上接近GPT-3.5水平 (“最强开源大模型”来了,通义千问推出千亿级参数模型 - 21世纪经济报道) 。不同模型也各有拿手领域:GPT-4和Claude在复杂推理创意写作上表现突出,能处理抽象难题;Google Gemini擅长多模态理解数学运算,其在数学MATH测试上据称大幅领先以往模型 (Introducing Gemini: Google’s most capable AI model yet) ;科大讯飞星火据评测在代码生成理科问答上尤其强势,是出色的“理科生” (寻找最聪明的大模型:国内主流大模型能力深度评测_新浪科技_新浪网) ;商汤“商量”模型在文史常识方面表现突出,被称为博闻强识的“文科生” (寻找最聪明的大模型:国内主流大模型能力深度评测_新浪科技_新浪网) 。相比之下,LLaMA等开源基座模型未经过大规模指令优化,直接用时往往输出啰嗦缺乏结构,需要二次微调来提升具体任务表现。总的来说,在泛知识问答和创意生成任务上,GPT-4/Claude一类闭源大模型仍有领先优势;但在特定领域经过精调的模型(如医学、法律专用模型)则可能更胜任那些专业任务。性能高低还取决于评测标准和语言:英文基准上西方模型居前,而在中文等任务上,本土模型(如文心一言、讯飞星火)往往本地化优势明显,回答更符合本国语言习惯和文化背景。

  • 语言和多模态能力: 语言覆盖范围是模型差异的重要方面。OpenAI的GPT-4被证实拥有优秀的多语言能力,对几十种语言都有接近母语水平的理解和翻译能力,这与其训练数据的多样性有关。Claude多语言能力也不错,但官方更强调英语场景。Meta的LLaMA-2在训练时加入了多语种语料(约20种语言),对法语、西班牙语等有良好掌握,但对中文、阿拉伯语等相对较弱。通义千问-110B号称支持十多种语言,并在基准测试中展现出优秀的多语言能力 (“最强开源大模型”来了,通义千问推出千亿级参数模型 - 21世纪经济报道) 。百度文心一言重点优化了中文和英文,能应对中英夹杂场景,并支持中文拼音输入等。在多模态方面,GPT-4开放了视觉输入能力(GPT-4V),可以分析图像内容;Google Gemini从预训练阶段即融合了图像、音频等,多模态表现出色 (Introducing Gemini: Google’s most capable AI model yet) ;百度文心4.0集成了文本生成图像的视频生成等功能 (文心大模型4.0首发 AI“生成未来”) 。总体而言,英语任务上OpenAI和Anthropic模型占优,中文任务上百度、阿里等本土模型理解更深入;多语种场景则可以选择通义千问等跨语言模型。多模态选择上,GPT-4V与Gemini是目前最强的通用多模态模型,而其他大多数模型仍局限于文本,在需要处理图像、语音时可以通过插件或辅助模型实现。

  • 推理能力与思维链: 大模型的推理逻辑能力差异也很明显。OpenAI的模型经过专门的Chain-of-Thought数据训练,能较好地逐步推理复杂问题;Anthropic的Claude也表现出很强的逐步推理能力和世界模型。在数学和逻辑推理基准上,Gemini Ultra取得了目前最高成绩,显示出卓越的严谨思考能力 (Introducing Gemini: Google’s most capable AI model yet) 。相较之下,一些开源模型(尤其参数较小的)容易犯逻辑错误或简单算术错误,需要借助提示工程(如让模型分步骤思考 (〖LLM 论文〗思维链 CoT 提示方法:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models-CSDN博客) )来改善。这方面,社区也在探索不同规模模型的推理极限:研究表明,小模型很难从思维链提示中获益,而较大模型通过CoT提示性能提升显著 (〖LLM 论文〗思维链 CoT 提示方法:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models-CSDN博客) 。此外,具备隐式知识调用的模型(参数大的)在常识推理上更稳健,而轻量模型有时会“卡壳”在常识问题上。对需要严谨推理的任务,如数学证明、多跳推理问答,GPT-4和Gemini这类高端模型依然是首选。

  • 安全性和对不当内容的控制: 不同模型在安全原则和风控措施上差别较大。ChatGPT和Claude经过严格的安全训练,内置了拒答不良请求的机制,对用户提出的有害、敏感问题会给出警示或委婉拒绝,Anthropic的Claude尤其遵循其AI宪法原则确保回答“无害且有益”。开源模型由于开放可控,安全策略需要使用者自行实现:不少开源对话模型在未加过滤时可能输出不当言论或有偏见内容。这就要求开发者在应用开源模型时叠加内容审核模块或在微调时加入安全指令数据。中国的大模型如文心一言、通义千问则内置了更严格的内容合规过滤,尤其针对政治、色情、极端言论等有明确的禁止输出,遇到相关请求多以提示“抱歉”拒绝或给出模糊回答。这种安全“过度”有时也会导致模型过于保守,不敢输出正常的信息(例如通义千问曾被评价回答偏保守 (寻找最聪明的大模型:国内主流大模型能力深度评测_新浪科技_新浪网) )。总体来说,美国系模型强调减少有害内容和偏见,但对创意发挥限制相对少一些;中国模型因为监管要求,对政治等敏感问题有更强约束。产品经理在选择模型时,需要考虑所处法律环境和应用场景,对模型的安全机制进行权衡。如果使用开源模型,一定要在系统层面加装监控和过滤,避免出现违法违规内容。

通过上述多维度比较,可以看到每种模型都有自己的技术特点适用场景:有的模型参数巨大性能拔群,有的精巧小巧易部署;有的擅长代码和数学,有的善于对话聊天;有的偏向安全稳健,有的允许更自由发挥。理解这些差异,有助于产品经理根据具体需求选择合适的模型或组合模型,以实现最佳的用户体验和功能表现。

3. 技术原理介绍

大型语言模型(LLM)的核心原理建立在Transformer神经网络架构和大规模预训练-微调范式之上。以下是LLM工作原理的要点:

  • Transformer架构与自注意力机制: Transformer是当前NLP领域的主流神经网络架构,其最大特点是引入了*自注意力(Self-Attention)*机制来建模序列中的词与词关系 (Transformer模型架构(位置编码与注意力机制理解)_mask(opt.)-CSDN博客) 。自注意力通过让每个词(Query)与序列中其他所有词(Keys)计算相关性分数,从而获得对整个序列的加权“关注” (Transformer模型架构(位置编码与注意力机制理解)_mask(opt.)-CSDN博客) 。相比传统RNN只能逐步累积信息,Transformer的自注意力能并行地捕捉长距离依赖,缓解了长序列训练困难的问题 (Transformer模型架构(位置编码与注意力机制理解)_mask(opt.)-CSDN博客) 。Transformer由编码器和解码器模块堆叠而成,但大语言模型通常只采用解码器部分(即自回归Transformer),专注于根据已有上下文预测下一个词 (第二章:Transformer 模型 · Transformers快速入门) 。每一层Transformer包括多头注意力子层和前馈网络子层,加上残差连接和层归一化,使信息可以灵活地在层间流动 (Transformer模型架构(位置编码与注意力机制理解)_mask(opt.)-CSDN博客) 。多头注意力(Multi-Head Attention)是将注意力机制复制多份并行计算,每个头可关注不同角度的语义关系,从而提高模型表达能力。总体而言,Transformer架构让LLM能够高效建模大规模语料,实现比以往RNN/CNN更深更广的语言理解。

  • 位置编码(Positional Encoding): 由于自注意力机制本身对序列顺序不敏感,Transformer在输入中额外加入位置编码以注入词序信息 (〖Transformer 相关理论深入理解〗注意力机制、自注意力机制、多头注意力机制、位置编码-CSDN博客) 。位置编码一般通过固定的正弦/余弦函数或者可学习向量实现,将每个词的位置映射成一个向量,并加在词的词嵌入上 (〖Transformer 相关理论深入理解〗注意力机制、自注意力机制、多头注意力机制、位置编码-CSDN博客) 。这样模型在计算注意力时就能区分“我爱你”和“你爱我”这样的词序差异 (〖Transformer 相关理论深入理解〗注意力机制、自注意力机制、多头注意力机制、位置编码-CSDN博客) 。一些改进模型使用相对位置编码(如RoPE旋转位置编码)来使模型更好泛化到长序列。无论具体实现如何,位置编码确保了Transformer能利用单词顺序信息,才能在翻译、语言生成等任务中产出正确的语序。

  • 预训练-微调范式: 大语言模型的训练通常分为两个阶段:首先是预训练,然后是微调(fine-tuning)。在预训练阶段,模型在海量的文本语料上进行自监督训练,典型目标是语言模型任务——给定前文预测下一个词。这属于自回归模型的训练方式,模型不断学习词与上下文的联合分布。比如看到“The cat sat on the”,模型预测下一个最可能词是“mat”。通过在上百亿token的语料(包括百科、小说、网页等)上训练,模型隐含地学习了语法、常识、知识等各种语言模式。预训练结束后,模型获得了通用语言能力,但可能不擅长遵循人类指令或执行特定任务。因此第二阶段需要对模型指令微调任务微调。微调通常使用较小规模的高质量数据(问答对、对话记录、专业领域数据等)来进一步训练模型,使其行为对齐人类期望。例如,OpenAI用人类编写的问题-答案对话微调出了InstructGPT,使其更善于理解指令和产生有用回答。微调可以是监督学习(有标准答案)或强化学习(通过人工反馈得分调整模型)等方式。总的来说,“预训练打底,微调定制”已成为大模型开发的基本范式:预训练赋予模型通识能力,微调塑造模型在特定场景的实用能力

  • 自回归生成与解码: LLM的文本生成本质上是一个自回归过程:模型一次生成一个token(通常是一个字或单词的一部分),将其拼接到已有文本尾部,再将更新后的序列反馈给模型预测下一个token,循环往复直到结束标志。自回归意味着模型从左到右逐步构建输出序列,每一步都将之前生成的词作为条件 (第二章:Transformer 模型 · Transformers快速入门) 。在Transformer解码器中,实现这一点的方法是通过因果掩码(mask)确保每个位置只能看到前面的位置,不会偷看未来词 (第二章:Transformer 模型 · Transformers快速入门) 。因此,LLM能像人写作一样一个字一个字地往后写,并随时考虑上下文的变化。解码时还涉及采样策略:最简单是选取模型输出概率最高的词(贪心法),但容易导致千篇一律的回答;常用的方法有温度采样(控制随机性)、Top-kTop-p采样(限制候选词范围)等,平衡输出的创造性和合理性。生成的终止由特殊token(<|endoftext|>)或由模型预测句子结束符来决定。自回归生成使LLM可以应对各种长度的输出,从简短回答到长篇文章。然而它也意味着生成速度较慢(一次一个词地输出)并且可能出错后无法自我校正。这就是为什么在使用LLM生成长文本时,需要仔细设计提示或分段生成,以确保连贯性和正确性。

总之,大语言模型凭借Transformer的全局注意力机制和大规模自监督预训练,掌握了语言的规律和知识分布。在此基础上,通过适当的微调和解码策略,模型能够以自回归方式根据给定提示生成符合人类期望的连贯文本。理解这些原理,有助于我们在应用中更好地发挥LLM的长处并规避其短处。

4. 后训练技术与提示工程

有了强大的基础模型后,要让大语言模型更好地完成特定任务、遵循人类意图,还需要运用各种后训练技术提示工程方法。下面介绍几种重要手段:

  • 微调(Fine-tuning): 如前所述,微调是将预训练好的模型在特定数据集上进一步训练,以优化其在特定任务上的表现。常规微调需要对模型的全部参数进行调整,对于上百亿参数的LLM来说非常耗费算力和内存。尽管如此,微调可以赋予模型新的技能或知识,例如在医学文本上微调可以让模型学会回答医学问诊。在应用中,如果有足够的高质量行业数据,产品团队可以考虑微调一个模型来贴合业务。例如,金融客服对话数据可用于微调通用模型,使其更懂金融业务。然而全参数微调成本高、风险大(可能导致模型遗忘通用能力 ([大模型微调技术] LoRA、QLoRA、QA-LoRA 原理笔记 - 知乎专栏) ),因此诞生了各种参数高效微调方法。

  • 参数高效微调 (LoRA/QLoRA等): LoRA(Low-Rank Adaptation)是一种高效微调技术,通过冻结原模型权重,仅在每层模型中引入小规模的低秩适配器矩阵来学习任务相关调整。这样只需训练极少量的新参数,就能达到接近全模型微调的效果。QLoRA(Quantized LoRA)则进一步结合低比特量化,将模型权重先压缩为4-bit以节省显存,再应用LoRA适配器进行微调 (大模型微调技术LoRA与QLoRA-CSDN博客) 。QLoRA的方法使得在一张GPU上就能微调650亿参数模型成为可能,同时还能保持性能几乎不下降 (大模型微调技术LoRA与QLoRA-CSDN博客) 。二者的区别在于:LoRA通常只在部分权重(如注意力层的Q、V矩阵)插入适配器,而QLoRA为了弥补量化误差,会在模型所有全连接层都插入适配器,使可训练参数略有增加 (大模型微调技术LoRA与QLoRA-CSDN博客) 。总体来说,这些方法极大降低了微调门槛,使中小企业也能负担大模型定制。实践中,产品开发者可以使用LoRA技术在现有大模型上“插件”式地微调出一个新模型,而且适配器参数很小便于版本管理和热切换。

  • 指令微调 (Instruction Tuning): 指令微调是专门为了提高模型遵循人类自然语言指令的能力而进行的微调。具体做法是构造或收集大规模的<指令, 人类期望回答>对,让模型学习在不同指令下给出符合人意的输出。例如OpenAI的InstructGPT使用了数万条多样化指令数据(部分由人类编写,部分由模型生成再人工筛选)进行训练,显著改善了模型“听话程度”。开源社区也有类似尝试,如Stanford Alpaca利用OpenAI模型生成指令数据,对7B的LLaMA进行了指令微调,得到的模型在遵循指令和对话礼貌性上有长足进步。指令微调通常是监督式的,让模型直接拟合高质量回答,或者结合人类偏好模型进行强化学习优化。经过指令微调的模型会更倾向于回答问题而非发散自由联想,并学会遵循诸如“列出步骤”、“以礼貌语气回答”这类隐含要求。可以说,指令微调是将通才模型打造成“用户友好助手”的关键一步,大幅提升了模型的实用性。

  • 知识注入与增强 (Knowledge Injection & RAG): 预训练语料固然庞大,但难免存在时效性或专业领域的知识盲区。知识注入指的是在模型中额外融入特定领域或最新知识。这可以通过进一步预训练(Continue Pre-training)相关领域文本,或将知识库作为微调数据让模型学习。例如,有论文通过在模型中添加知识图谱嵌入向量,提升了模型准确引用事实的能力。不过,更灵活的方案是不直接改模型参数,而是在推理时结合外部知识库,即检索增强生成(RAG)技术。RAG通过在模型生成回答前,从外部资料中检索相关信息并与提示一起提供给模型,从而让模型参考权威资料作答 (什么是 RAG?— 检索增强生成 AI 详解 — AWS) 。LLM本身用大数据训练,有数十亿参数可以生成流畅文本,但未必掌握最新的细节 (什么是 RAG?— 检索增强生成 AI 详解 — AWS) ;RAG将企业内部知识或实时数据库与LLM语言能力结合,既避免了模型“无中生有”,又无需每次知识更新都重新训练模型,是高效提升准确性的方法 (什么是 RAG?— 检索增强生成 AI 详解 — AWS) 。产品上常用的方法如:建立FAQ文档索引,用向量检索找到相关段落,再把段落附在用户问题后让模型参考作答。这种知识增强让模型输出内容有据可依,显著减少了胡乱编造(幻觉)情况。当然,知识注入也有简单形式,比如给模型提供详细的系统提示,明确灌输一些知识点,让模型在对话中遵循。这种方法不改变模型参数,但在一次对话中暂时性地提升了模型的知识背景。

  • Chain-of-Thought 提示 (思维链提示): 这是提升模型复杂推理能力的一种提示工程技巧。通常大模型会倾向于直接给出答案,而思维链(CoT)提示鼓励模型先思考步骤再作答。具体实现上,可以在用户问题后添加提示例如“让我们一步一步思考”或提供几个示范样例(few-shot),让模型在输出最终答案前先输出推理过程 (〖LLM 论文〗思维链 CoT 提示方法:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models-CSDN博客) 。研究表明,CoT提示能明显提高模型在数学、常识推理等任务上的准确率 (〖LLM 论文〗思维链 CoT 提示方法:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models-CSDN博客) 。比如一个算术应用题,直接回答模型可能出错,但如果引导模型列出公式和计算步骤,往往就能得出正确答案。这类似人类考试时的草稿过程。需要注意的是,小模型受益于CoT有限,而大模型配合CoT能发挥更佳效果 (〖LLM 论文〗思维链 CoT 提示方法:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models-CSDN博客) 。在产品中,如果遇到模型在某类推理题上屡屡犯错,可以尝试在Prompt中要求模型“逐步推理并给出结论”,或者给几个带有详解过程的示例来Few-shot微调模型的行为。CoT的副作用是回答会变长且包含推理过程,如果不希望显式展示过程,可让模型在内部思考(见ReAct方法)。无论如何,思维链提示已经成为提升LLM复杂推理和计算问答可靠性的重要方法。

  • ReAct 策略: ReAct将推理 (Reasoning) 与 行动 (Acting) 相结合,是提示大型模型的一种通用范式 (ReAct 框架 | Prompt Engineering Guide<!-- -->) 。在ReAct框架下,模型在得到用户请求后,不会一下子给出最终答案,而是交替地产生“思考内容”和可能的“行动”。这里的行动可以是调用工具、查询数据库等操作。比如面对一个需要查证的问题,模型的ReAct输出可能是:首先输出“思考:这个问题需要查wiki”,然后输出“行动:搜索Wikipedia某关键词”,接着模型获得搜索结果再“思考:根据结果可以推断…”如此循环,最后给出答案。通过这样的提示设计,LLM变成一个可以自主规划步骤与外部环境交互的智能体 (ReAct 框架 | Prompt Engineering Guide<!-- -->) 。ReAct提示通常需要在系统信息中提供格式,让模型按特定格式输出思考和操作,例如OpenAI的函数调用或微软的Jarvis框架。本质上,ReAct让模型的连贯对话与工具使用融为一体,一方面动态推理出解决问题的策略,另一方面通过调用外部API获取信息,将新信息融入推理过程 (ReAct 框架 | Prompt Engineering Guide<!-- -->) 。这大大提高了模型处理复杂任务和实时信息的能力。例如,利用ReAct,模型可以先计算再回答数学题,先查百科再回答知识题,从而避免凭记忆乱猜。需要注意实现ReAct要防止模型输出中间思考给最终用户(一般用特殊分隔符隔离),确保用户只看到最终结果。ReAct体现了提示工程的强大威力,让LLM从单纯回答者变成具备一定代理智能的决策者。

  • 检索增强生成 (RAG): 前面知识增强部分已提到RAG,这里再强调一下它在提示工程中的应用。典型的RAG流程包括:** 查询意图解析 -> 检索 -> LLM生成**。首先从用户输入中提取查询意图,用向量引擎或关键字搜索在知识库中找到相关文档段落,然后将这些段落附加在Prompt中,让LLM参考资料进行回答 (什么是 RAG?— 检索增强生成 AI 详解 — AWS) 。提示词中通常会这样设计:“请根据以下提供的资料回答:『资料内容…』 问:…”。模型于是会把资料与自身知识结合,给出基于资料的回答。RAG提示的关键是确保模型“看到”了正确的信息源,这样它更可能输出真实准确的内容,并且可以在回答中引用资料(有些实现甚至让模型给出出处链接)。RAG减少了模型幻觉的发生,因为模型不需要凭训练记忆杜撰细节,而是可以从提供的文档直接提取 (什么是 RAG?— 检索增强生成 AI 详解 — AWS) 。实践中,RAG提示也要注意提供的材料不要过多(以免超出上下文窗口)且尽量相关(否则模型可能忽略无关内容)。通过迭代优化检索和提示,RAG能够将LLM打造成一个知道自身知识局限、懂得查资料再回答的“咨询专家”。这也是当前将大模型应用到企业知识库、互联网搜索等领域的常用范式。

综上,后训练技术和提示工程为大模型落地提供了丰富手段:从微调模型获得新技能,到提示设计挖掘模型潜能,都可以极大提升模型输出质量。产品经理应充分了解并运用这些方法,例如通过微调/LoRA让模型更懂行业,通过CoT/ReAct提高回答可靠性,通过RAG结合自有数据使答案有据可依。合理的后训练与提示能够让一个通用LLM摇身变成贴合场景的专用AI助手。

5. 应用 LLM 的推荐路径

将大型语言模型应用到实际产品中,需要一个从构思到部署的系统化流程。下面提供一条推荐路径,帮助产品经理规划LLM功能的落地:

(1) 原型设计与验证: 首先明确应用场景和需求,例如是用于客服问答、内容创作还是决策分析。根据需求选择合适的模型及部署方式:是直接调用现有云端API(如OpenAI、Anthropic等)还是使用开源模型本地部署。一般来说,可以先用现有强模型通过API搭建原型,以验证功能可行性和用户体验。例如,构建一个客服机器人原型,调用ChatGPT API来回答常见问题。此阶段要收集一些代表性测试案例,对模型回答的准确性、语气、速度进行初步评估。如果模型效果不达标,分析原因是知识不足(可考虑RAG)、还是指令理解不佳(可调整prompt或换模型)。快速迭代Prompt也是原型期的重点——尝试不同的系统提示词、Few-shot示例,观察输出变化,从中摸索最佳提示工程方案。原型验证通过后,再决定后续是否需要自定义模型(如微调一个行业模型来替换通用模型)。

(2) 模型定制与优化: 在明确需求和原型基础上,评估现有模型是否满足要求。如果通用模型在特定领域表现不够专业,或者有数据隐私顾虑无法用外部API,那么考虑模型定制。定制方式包括:微调自己的模型、应用LoRA等高效微调现有开源模型,或者接入更大更强的模型版本。比如原型用GPT-3.5感觉逻辑不够好,可以尝试GPT-4;或开源模型回答财务问题不到位,可以收集财务Q&A对其微调。定制时要准备高质量的数据进行训练或作为Prompt资源,同时反复评估避免模型遗忘原有能力。除了调模型参数,还可以优化推理过程,如设计对话流程、加入计算工具:让模型把复杂任务拆分成步骤完成,而不是一次性要求它输出最终结果。此阶段的目标是让模型以最可靠和高效的方式满足业务需求。可能会权衡模型大小带来的性能提升与推理成本,尽量做到“小模型大作用”——用技巧弥补模型不足,用外部查询提升准确性等。

(3) 测试评估: 在定制或优化后,需要对LLM系统进行严格的测试评估。这包括功能测试和安全测试两方面。功能上,建立一套评价指标:如准确率、语义匹配度、用户满意度评分等,针对不同类型的输入系统输出是否符合期望 (Large language model - Wikipedia) 。可以构造一些极端案例、边界条件来测试模型鲁棒性。同时,引入人工评审,对模型回答的有用性、礼貌程度、专业性进行打分,找出有问题的输出并分析原因。在安全上,需要测试模型是否存在不当行为:例如尝试让模型输出敏感信息、仇恨言论,或通过提示攻击诱导模型违规。若发现在某些攻击下模型表现不佳,则需要加强防御机制(见下一步)。此外,关注延迟和吞吐量,模拟并发请求查看响应时间,是否满足产品要求。通过充分的测试,可以发现模型部署前的最后问题,并为上线质量把关。

(4) 安全及提示防御设计: 大语言模型容易受到对抗提示攻击(Prompt Injection)等威胁,导致泄露系统指令或输出有害内容。因此在上线前必须设计多层次的安全防护措施 (Prompt 攻击与防范:大语言模型安全的新挑战 - 何双新 - 博客园) 。“Prompt安全设计”需要从用户输入、系统提示、上下文管理多方面构建防线 (Prompt 攻击与防范:大语言模型安全的新挑战 - 何双新 - 博客园) 。常见策略包括:** 隔离系统提示和用户内容**,确保用户不能通过特殊输入看到或覆写系统指令 (Prompt 攻击与防范:大语言模型安全的新挑战 - 何双新 - 博客园) ;对用户输入进行审核和清洗,过滤明显的敏感词或代码注入片段;引入哨兵提示(canary prompt),用于检测模型是否被不良指令劫持;使用向量数据库记录已知攻击样本,对新输入进行相似度匹配,一旦疑似攻击则采取措施 (Prompt 攻击与防范:大语言模型安全的新挑战 - 何双新 - 博客园) 。同时,可以在模型输出后增加内容过滤环节,利用规则或辅助模型拦截不符合安全规范的回答。一套完整的防御系统往往包含基础模式匹配、结构化Prompt封装、元指令(如“永远不要… ”)以及异常检测等多重手段 (Prompt 攻击与防范:大语言模型安全的新挑战 - 何双新 - 博客园) 。需要强调,没有任何单一措施能万无一失,必须采用多层防御提升整体安全性 (Prompt 攻击与防范:大语言模型安全的新挑战 - 何双新 - 博客园) 。产品经理应与安全团队紧密合作,在不影响用户体验的前提下,将安全策略融入LLM应用。例如ChatGPT类产品常在界面提示“可能回答不准确”“不提供法律意见”等,也是出于合规考虑的一环。

(5) 部署上线与监控迭代: 完成以上步骤,就可以将LLM集成到产品并上线试运行。在部署架构上,要根据流量选择合适方案:小规模应用可直接调用外部API;大并发场景则考虑在后端部署模型服务,并利用负载均衡、缓存等技术优化响应。上线初期应监控模型的输出质量和用户反馈,特别关注是否有不良输出或错误解答。如发现问题,及时记录并分析,将这些数据纳入后续的模型优化。例如某类用户提问模型经常答非所问,则可以追加该类问答的数据继续微调模型或调整提示词。持续的反馈迭代对于LLM应用尤为重要,因为模型并非完美且用户需求会变化。可以建立用户反馈渠道或thumb-up/down评价机制,收集实际使用中的数据来改进模型。此外监控接口的性能指标,推理耗时有没有随上下文变长而明显增加,GPU/CPU资源是否需要扩容等等。如果使用第三方API,也要关注其版本更新或策略调整,提前应对。总之,上线不是终点,而是LLM产品持续打磨的开始,需要在真实环境中不断评估->反馈->改进,才能让模型服务变得愈发成熟可靠。

通过上述路径,从原型验证到安全部署,可以较全面地保证LLM功能实现的有效性和安全性。在每个阶段,产品经理都应平衡模型能力实际成本风险:既发挥大模型的长处,又通过工程手段弥补其短板,从而提供让用户满意、对企业负责的AI体验。

6. 注意事项与挑战

尽管大语言模型功能强大,在实际应用中仍有诸多需要注意的挑战,需要产品经理和开发团队认真应对:

  • 幻觉问题 (Hallucination): 大模型有时会生成看似合理但实际上错误的答案,即所谓“AI幻觉”现象。这是统计生成模型设计所难以避免的副产物 (Large language model - Wikipedia) 。模型可能编造不存在的引用、捏造事实细节,例如杜撰某个不存在的法律条文。这类幻觉在知识问答、医疗咨询等对准确性要求高的场景尤其危险。因此,必须认识到模型回答不保证真实性。应对幻觉的办法包括:借助检索增强(RAG)提供模型可靠资料来源供参考,从而减少模型胡诌 (什么是 RAG?— 检索增强生成 AI 详解 — AWS) ;在输出后增加事实校验环节,用检索或规则检查关键信息;提示用户对模型答案保持审慎,必要时寻求人工核实。OpenAI等也在尝试通过强化学习进一步降低模型幻觉倾向。但目前来看,完全杜绝幻觉仍无解,需要在设计流程时将其影响降至最低。

  • 偏见与歧视 (Bias): 大模型从海量数据中学习,难免继承了语料中的偏见,并可能在回答时放大成见 (Large language model - Wikipedia) 。这包括性别、种族、年龄等方面的刻板印象,以及地域文化上的偏颇 (Large language model - Wikipedia) (Large language model - Wikipedia) 。例如,模型可能倾向于把护士角色描述为女性、工程师描述为男性 (Large language model - Wikipedia) ,或在输入暗示下说出带歧视性的语言。如果不加干预,将有损产品的公正性和用户体验。为减轻偏见,需在训练和微调数据上尽量平衡多样性,并在人审标注环节过滤明显偏见的内容。部署时可以加入偏见检测模块,对输出做分析,一旦含有攻击性或歧视倾向,则修改或屏蔽。同时,团队应制定明确的价值观准则,如Anthropic的宪法原则,指导模型输出尊重、多元的内容。需要注意,完全消除偏见可能并不现实,因为模型很难理解社会公正的复杂内涵,只能通过后天约束来避免明显不妥的言论。产品经理要权衡不同市场的文化背景,设定合适的内容规范,并不断监控模型输出以发现潜在问题。例如在招聘筛选、新闻撰写等应用中,要特别当心模型输出的偏向,必要时引入人类审核介入。

  • 安全与滥用: LLM可能被不法分子利用来生成钓鱼信息、恶意代码、虚假新闻等。这对产品提出了安全风控挑战。一方面,模型本身需要内置内容安全策略,避免主动提供有害信息(如教唆犯罪、制作武器等);另一方面,外部用户可能尝试利用模型做坏事,这是使用者行为层面的风险。作为产品提供方,需要在服务条款中明确禁止非法用途,并通过技术手段检测异常使用模式。例如,监控某IP是否大量请求模型生成垃圾邮件内容、或用户是否反复尝试越过安全限制获得敏感信息。发现滥用苗头时,可以限制API速率甚至中止服务。此外,要防范提示注入攻击泄露系统机密:攻击者可能诱导模型说出内部提示或越权信息,要确保模型不会因用户要求就输出系统级内容。这可以通过混淆提示标识、设置严格的系统指令来实现。总之,从模型输出到用户行为,都需要建立安全审核应急机制。例如构建一个实时审核平台,让安全团队可以查看模型高风险请求及输出,并快速调整过滤规则。LLM产品在带给人们便利的同时,也可能被当作“双刃剑”利用,这就要求我们主动设防、持续升级安全策略,尽量把风险降到最低。

  • 资源消耗与延迟: 大模型的推理计算非常耗费资源,一次完整回答可能需要数百亿次矩阵运算。这意味着如果并发用户多,服务器需要强大的算力支撑(通常是多张GPU/TPU)才能及时响应。这带来高昂的算力成本能耗。产品经理需要根据业务预估调用频率,合理规划基础设施。对于初创团队,也可以考虑采用小参数模型或蒸馏模型以降低成本。另一个影响是响应延迟:模型生成内容是逐字输出,长回答可能需要几秒到几十秒,这对于实时交互产品是个挑战。解决方法包括:通过流式输出技术,让模型一边生成一边发送给前端,提升用户感知速度;优化模型部署,例如使用INT8/INT4量化模型或更高效的推理框架(如vLLM、TensorRT),将延迟压缩到可接受范围。如果仍不满足,可以考虑分层模型架构:先用一个小模型快速处理简单请求,只有复杂问题才调用大模型,从而在大部分情况下保证速度。总体来说,要在性能成本速度质量之间取得平衡。这需要与工程团队密切合作,通过监控系统负载、排查瓶颈,不断改进模型服务效率。对于ToB业务,还需告知客户大模型服务的资源需求,设定合理的SLA。理解并优化LLM的资源开销,是决定产品能否大规模推广的关键因素之一。

  • 可解释性与调试: 深度学习模型一贯存在不可解释的问题,LLM也不例外。它内部有上亿到上千亿权重参数,很难直观解释模型为何生成某句话,也无法像代码那样逐步debug。这对开发者提出挑战:当模型输出不符合预期时,我们往往只能猜测原因并尝试调整提示或数据,而无法精准定位问题所在。例如模型突然在某类问题上答非所问,可能是训练数据中类似问法分布引起,但难以追溯具体触发因素。目前研究者正探索让模型解释自己答案的方法,比如让模型输出对自己决策的描述,但这本身也只是模型生成的文本,不一定真实反映内部机制。为了提高可解释性,可以采用一些辅助手段:比如在问答场景引入引用来源,让模型每句都指出依据了哪个知识;或者使用对比提示,测试稍微改变输入时输出如何变化,从而推断模型关注的重点。此外,有一些可视化工具(如Attention可视化)可辅助理解模型关注了哪些词。但总体而言,LLM依然是一个复杂的黑盒,其行为往往是统计相关性的结果而非可逻辑推导的过程。产品经理在汇报和监管场合,需要对模型的不可解释性给予说明,并避免在高风险决策中完全依赖模型。同时,为了调试模型表现,可能需要大量实验试错:调整prompt措辞、替换或增加few-shot示例、乃至更换模型,都是常见的调试手段。团队要有耐心和充足测试来“驯服”模型。这也是为什么在关键领域,大模型通常作为辅助决策而非单独决策者——因为我们难以100%信任一个无法解释其决策依据的AI系统。

  • 数据隐私与合规: 在模型开发和应用的各环节,数据隐私都是一大关注点。首先,模型的训练语料往往爬取自互联网,其中可能包含个人敏感信息。如果模型记住并在回答中吐露这些信息,可能违反隐私法规。为此,OpenAI等在训练数据处理中引入了过滤器,尽可能剔除明显的个人数据,并在模型生成时增加对身份证号、地址等模式的检测,一旦类似字符串出现就处理掉。对于产品使用方,更要注意输入给模型的内容:许多云服务模型默认会留存用户输入用于改进模型(OpenAI在2023年才增加企业选项不保留数据)。企业在将内部文档、用户信息交给第三方LLM API处理前,必须审查服务商的隐私政策,必要时与之签订数据保护协议。敏感行业(如医疗、金融)往往倾向于私有部署模型以确保数据不出本地。即便如此,也要防范模型本身的漏洞:有研究表明,攻击者可以通过不断查询模型,有几率还原出模型训练样本中的隐私数据。因此在对外提供模型服务时,最好对模型做“记忆清除”微调,或者限制调用频次和回答长度,降低信息泄露可能性。从监管合规角度,各国对AI生成内容和数据使用也在完善法规。产品经理需关注所在地区法律,例如GDPR对于用户数据处理的要求、我国对涉及个人信息AI应用需备案等规定,确保产品运营符合法律。隐私和合规不仅是法律问题,也关乎用户信任。应在用户协议中明示模型可能记录的数据,并提供关闭或删除选项,让用户有知情权和选择权。简言之,在追求模型智能的同时,决不能忽视对用户数据的保护义务——这应是LLM产品设计的底线。

以上这些挑战反映了大模型应用的复杂性。产品经理在享受LLM强大功能的同时,务必要有风险意识和应对预案。通过技术与策略并举,可以将大模型的潜在负面影响降至最低,释放其正向价值。

7. 案例分析与图表

为了更好地理解LLM的实际应用场景,本节通过几个典型案例进行分析,并附上一些对比图表以可视化模型能力差异。

  • 智能客服: 大模型已广泛应用于在线客服和对话机器人,为用户提供7×24不间断咨询服务。典型案例是银行或电商网站的客服助手,以LLM为核心,对用户的自然语言提问做出解答。例如某银行推出的AI客服,小明,基于银行专有数据微调的GPT模型,能够理解用户描述的转账、手续费等问题,并给予专业准确的回答,还可以办理简单业务。相比传统规则式客服,LLM驱动的客服具有更高的问题理解率上下文记忆能力,能处理长问句和多轮对话。当用户提出模糊问题时,模型还能智能澄清、引导用户提供更多信息。再如阿里旗下的钉钉平台,引入通义千问模型升级其客服机器人,实现了更加自然流畅的人机交互。这类应用的难点在于:一要结合企业知识库(通过RAG让模型实时查询最新政策、库存等);二要确保安全(不泄露用户隐私,回答符合监管要求)。很多企业在实践中采用“大模型+业务规则”的方案:模型负责语言理解与生成,关键节点由业务逻辑卡控,既发挥AI智能又保证结果可靠。实践证明,引入LLM的客服系统大幅提高了咨询一次解决率和用户满意度,同时降低了人工坐席压力,是当前LLM商业落地的重要方向。

  • 知识管理与办公助手: 在企业和组织内部,LLM可以充当知识管理助手或办公自动化助手,提升员工工作效率。典型案例如微软推出的365 Copilot,将GPT-4集成到Office全家桶中。员工可以让Copilot读取几百页的项目文档,然后询问“请总结项目的主要风险点并给出应对措施”,Copilot基于文档内容生成一份要点清单,省去了人工翻阅的时间。又如员工可以让Copilot草拟一封根据会议记录的邮件,LLM会提取会议纪要中的决策和行动项,自动生成结构清晰的邮件初稿供员工润色。这体现了LLM在文档理解内容生成上的价值。再比如,在大型咨询公司内部,部署了定制的大模型,让顾问可以用对话方式检索内部报告:“去年能源行业有哪些成功案例?” 模型不仅给出答案,还列举相关报告段落和来源,提高了知识复用率。知识型助手的优势在于深度理解语义超越了传统关键词搜索,能整合多份文件的信息作答。然而也需注意权限控制,确保模型只访问有权限的数据,并对输出进行保密检查。总体而言,将LLM用作“知识管家”已成为许多企业数字化转型的一环,它像一个全能的智能秘书,帮助员工更快获取信息、整理思路、完成日常文书工作。

  • 搜索引擎与信息服务: LLM正在改变人们获取信息的方式。以新必应(New Bing)为例,微软将GPT-4融入必应搜索,用户提问时不仅返回传统链接,还由LLM生成一个综合答案,引用多个搜索结果来给出简洁结论。这被称为搜索增强聊天模式,极大地方便了用户。用户可以继续追问,LLM会记忆上下文进行交互式的信息筛选。此外,国内的百度搜索也上线了文心一言驱动的智能搜索助手“文心插件”,用户在百度App上提问可直接获得由大模型给出的答案摘要和出处链接。这种将搜索与LLM结合的方式提升了搜索体验:LLM能理解自然语言复杂提问、整合碎片信息并用人类语言回答,让搜索从“提供工具”升级为“提供答案”。不过也有挑战,比如LLM可能引用错误信息导致以讹传讹,因此像必应那样在答案句后附上来源链接 (Introducing Gemini: Google’s most capable AI model yet) ,既方便用户溯源也增加答案可信度成为行业标准。可以预见,未来搜索引擎将越来越多融合生成式AI,使人机问答式搜索成为主流。

  • 代码生成与软件开发: 大模型对编程领域也带来了深刻影响。GitHub与OpenAI合作的Copilot是此方面最知名的案例。Copilot基于OpenAI的Codex(GPT-3的代码专用微调版)模型,作为IDE插件实时为开发者提供代码补全建议。比如程序员输入注释“// 判断字符串是否为回文”,Copilot随即生成相应的函数代码。它还可以根据函数调用上下文,智能补全整段代码,大幅提高编码效率。据统计,Copilot能为开发者提供约一半以上的代码,大大减少了样板代码和查文档的时间。类似地,Amazon的CodeWhisperer、华为的盘古Coder等也是让LLM学习海量代码语料,成为编程助手。在更高级场景下,有项目将LLM用于自动调试:开发者描述一个bug,LLM据其知识给出可能的原因和修改建议。还有团队让多个LLM代理协作,实现从产品需求->代码生成->测试的自动化流水线,初步展示了“AI写代码”的前景。当然,目前LLM编写的代码还需要人审查,因为可能存在隐蔽错误或不安全实现。不过随着模型对编程语言理解的深入(如支持更多框架库、理解语义而非统计匹配),未来LLM有望承担更多开发工作,开发者则更多地做架构设计和最后把关的角色。可以想象,通过LLM辅助,个人开发者的生产力会被极大释放,一个人完成过去需要一个小团队才能完成的软件开发已不再是天方夜谭。

  • 教育与内容创作: 教育是LLM应用极具潜力的领域之一。Khan Academy与OpenAI合作开发的Khanmigo就是一个AI辅导教师的雏形 (Powering virtual education for the classroom | OpenAI) 。学生可以在Khanmigo上请教数学难题的解题步骤,模型不会直接给出答案,而是循循善诱地引导学生思考,比如提示“先画出几何图形看看”。这种对话式教学让每个学生都相当于拥有一位1对1私人导师 (Powering virtual education for the classroom | OpenAI) 。LLM还能因材施教,根据学生水平调整解释深度。当学生犯错时,模型耐心指出并提供进一步练习。除了理科,LLM还可陪练语言口语、讲解历史故事,甚至扮演角色和学生进行情景对话。除了Khan Academy,不少教育科技公司也在探索类似AI导师的产品,例如国内某些英语学习App接入大模型后,可以与用户自由对话纠正其语法发音。又比如作文批改,老师将学生作文喂给模型,模型可以标出用词不当之处并给出修改建议。内容创作方面,LLM已经展现了生成文学、营销文案的能力。作家可以让ChatGPT续写一段剧情寻找灵感,广告创意人员也能用大模型头脑风暴slogan和脚本。当然,在教育应用中必须注意AI的误导和依赖问题:应当让AI作为助教而非标准答案提供者,并培养学生质疑和验证AI答复的意识。但可以预见,得益于LLM的陪伴性和博学特性,每个学生都能获得个性化辅导将成为可能,这将大大推动教育公平和学习效率。

下面通过一张雷达图具体对比几个中文大模型在不同能力维度的表现(数据来源:《麻省理工科技评论》中国2023年大模型评测):

【86†embed_image】 图:四款中文大模型能力雷达图,对比维度包括编程, 数学, 逻辑, 文科综合, 语言理解, 综合知识安全性等 (寻找最聪明的大模型:国内主流大模型能力深度评测_新浪科技_新浪网) (寻找最聪明的大模型:国内主流大模型能力深度评测_新浪科技_新浪网) 。从图中可以看出:科大讯飞的“星火”在理科、编程等多个维度全面领先,表现均衡;百度“文心一言”各项能力也较平均,与星火差距不大;商汤“商量”在文科知识方面突出,但理科稍弱;阿里“通义千问”安全性得分最高,但整体略趋保守 (寻找最聪明的大模型:国内主流大模型能力深度评测_新浪科技_新浪网) 。这种雷达图直观展示了不同模型的强项和短板,有助于产品经理根据应用需求选择合适的模型。

通过以上案例和图表,我们看到了大模型在客服知识管理搜索编程教育等场景的应用前景和实际效果。一方面,LLM展现出极大的通用性,可以胜任各种文本生成和理解任务;另一方面,不同行业场景对模型能力侧重不同,往往需要结合特定数据或工具来达到最佳效果。作为产品经理,应当充分利用大模型的语言智能优势,同时辅以业务逻辑和人机协同,打造出既智能可靠的产品体验。可以预见,大语言模型将像水电一样成为各类软件的基础能力,在未来的产品创新中扮演不可或缺的角色。我们正处在AI赋能的浪潮之中,掌握和运用LLM的全面指南,将帮助我们乘风破浪,创造出前所未有的智能产品。

参考文献:

  1. Sundar Pichai, Demis Hassabis等. Introducing Gemini: our largest and most capable AI model. Google DeepMind, 2023 (Introducing Gemini: Google’s most capable AI model yet) (Introducing Gemini: Google’s most capable AI model yet)

  2. Anthropic Blog. Introducing 100K Context Windows. 2023 (Introducing 100K Context Windows \ Anthropic)

  3. Anthropic. Constitutional AI: Harmlessness from AI Feedback. 2022 (Constitutional AI: Harmlessness from AI Feedback - Anthropic)

  4. Alibaba Cloud 通义千问2.5发布说明, 2024 (“最强开源大模型”来了,通义千问推出千亿级参数模型 - 21世纪经济报道) (重磅!通义千问2.5正式发布—2024年5月24日-通义帮助中心)

  5. 北京日报. 百度发布文心大模型4.0. 2023 (文心大模型4.0首发 AI“生成未来”)

  6. Tsinghua KEG & Zhipu AI. GLM-130B 开源双语预训练模型介绍. 2022 (GLM-130B:开源的双语预训练模型 | GLM-130B)

  7. Moonshot AI - Wikipedia (Moonshot AI - Wikipedia) (Moonshot AI - Wikipedia)

  8. Mistral AI Team. Announcing Mistral 7B. 2023 (Mistral 7B | Mistral AI)

  9. CSDN博客. Transformer模型架构与注意力机制理解. 2023 (Transformer模型架构(位置编码与注意力机制理解)_mask(opt.)-CSDN博客) (〖Transformer 相关理论深入理解〗注意力机制、自注意力机制、多头注意力机制、位置编码-CSDN博客)

  10. Huggingface Transformers 入门教程. 纯Decoder自回归模型. (第二章:Transformer 模型 · Transformers快速入门)

  11. CSDN博客. 大模型微调技术LoRA与QLoRA. 2025 (大模型微调技术LoRA与QLoRA-CSDN博客) (大模型微调技术LoRA与QLoRA-CSDN博客)

  12. CSDN博客. LLM思维链CoT提示方法. 2024 (〖LLM 论文〗思维链 CoT 提示方法:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models-CSDN博客)

  13. Prompting Guide. ReAct框架. (ReAct 框架 | Prompt Engineering Guide<!-- -->)

  14. AWS技术文档. 什么是检索增强生成 (RAG) (什么是 RAG?— 检索增强生成 AI 详解 — AWS)

  15. 麻省理工科技评论中文网. 中国大模型评测. 2023 (寻找最聪明的大模型:国内主流大模型能力深度评测_新浪科技_新浪网) (寻找最聪明的大模型:国内主流大模型能力深度评测_新浪科技_新浪网)

  16. OpenAI Blog. Powering virtual education (Khan Academy uses GPT-4) (Powering virtual education for the classroom | OpenAI)

Chia sẻ Q&A này