随着2017年由谷歌[1]提出的Transformer技术大模型的迅猛发展,大模型有了许多分枝,从模...
Tạo vào: 11 tháng 12, 2025
Trả lời bằng GPT-5.1 Thinking bởi Chat01
Tạo vào: 11 tháng 12, 2025
Trả lời bằng GPT-5.1 Thinking bởi Chat01
随着2017年由谷歌[1]提出的Transformer技术大模型的迅猛发展,大模型有了许多分枝,从模态分类,分成了大语言模型LLM(Large Language Models),多模态大模型(Multimodal Large MOdels),但是多模态大模型的基础也是大语言模型,所以这里只讨论大语言模型。大模型(之后提到的大模型均为大语言模型的简称)是一种语言模型,由大量参数(通常数十亿个参数到千亿级别的参数)组成的人工神经网络模型,使用自监督学习或半监督学习对大量未标记文本进行训练,能够以逐词生成的方式给出开放格式的答案。大语言模型GPT2[2]最早于2019年发布,2020年推出GPT-3[3]后开始受到研究人员关注。2022年ChatGPT发布后,由于其能够和人类通过自然语言交流来完成各种任务且在各种任务重表现出色,获得了极高的关注度。大模型的出现使得用户不再需要针对一项特定任务(例如情感分析、命名实体识别或数学推理)进行建模和优化,而是作为一个通用的模型,能通过用户的指令被广泛应用于不同的任务中,如问答、算术题、写代码、文学创作、智能助手等。
尽管大模型具有广泛的应用价值。但是,大模型仍然存在产生幻觉的不可信问题。由于其需要逐个词解码的生成特性,大模型不知道自己回答不了某些问题而会无差别的产生回复,生成过程中有可能产生非事实性结果。这种偶发性的幻觉严重影响了大模型在实际应用中的可信性。Mallen等[4-7]揭示大模型生成的幻觉问题,即回复中出现不符合事实的内容,这会影响大模型的可信性,这使得检测其生成可信性成为一项重要的研究工作。尤其当大语言模型被部署到专业领域核心智能体(Agent)[8]时,幻觉内容会以压缩后的语义表示形式在低带宽、多跳链路中传播,一旦出错将难以追溯和纠正,进一步放大可信性风险。因此,构建兼具抗幻觉能力和语义通信适配性的可信智能体已成为当前亟需解决的前沿问题。目前主流的增强大模型的可信方法分为监督反馈增强和规则辅助增强两类:
监督反馈增强方面:对齐技术起源于将“大模型学会补全文本”转变为“遵循人类指令与价值偏好”的需求,目前主流路径包括参数层面的监督式微调(SFT)、基于人类反馈的强化学习(RLHF)和基于 AI 反馈的 RLAIF。监督式微调SFT(Supervised Fine Tuning) :用人工标注的数据与传统机器学习中监督学习的方法对大模型进行微调;基于人类反馈的强化学习微调RLHF(Reinforcement Learning with Human Feedback) :把人类的反馈通过强化学习的方式引入到对大模型的微调中去;基于AI反馈的强化学习微调RLAIF(Reinforcement Learning with AI Feedback) :这个原理大致跟RLHF类似,但是反馈的来源是AI。[9-11]
规则辅助增强方面:检索增强生成RAG(Retrieval-Augmented Generation) :通过在生成答案前从外部知识库检索相关信息片段,并将其作为上下文与问题一并输入模型,从而生成更准确、及时且可追溯的答案。提示工程与上下文学习PE&ICL(Prompt Engineering & In-Context Learning) :通过精心设计提示模板,嵌入任务指令或示例,以在上下文中引导模型执行任务,无需更新其参数。工具调用与函数调用T/FC(Tool/Function Calling) :赋予大语言模型使用外部工具和API的能力,将其能力扩展到自身知识之外,实现计算、检索或执行特定动作[3][12-13]。
可是这两类单独使用会有各自的局限性,基于监督反馈的方法虽能全局优化模型偏好,却难以应对分布外新知识与可追溯性需求,基于规则辅助的方法虽能提供外部事实支撑与可解释轨迹,却受限于检索质量与缺乏自我纠错能力[9-13]。所以将两类技术结合起来,RLAIF 为 RAG 提供‘哪条检索内容更可信’的判断与主动纠错能力,RAG 则为 RLAIF 提供最新、可靠的外部知识与可解释依据,二者天然互补,可显著提升大模型在开放域场景下的可信度与鲁棒性。
我想把这一大段文字写在一页的开题答辩ppt里,能不能把这大段文字给我浓缩成160字左右,并且将其分段
基于Transformer的大语言模型已成通用智能底座,可通过自然语言完成问答、编程等任务,但逐词生成易产生“幻觉”,在关键场景中削弱结果可信性。
现有缓解大致分监督反馈与规则辅助,如SFT/RLHF/RLAIF和RAG等。单一路线难兼顾新知识、可追溯性与自纠错,需将RLAIF与RAG结合,评估检索可信度并主动纠错,构建更稳健的可信智能体。
不对的,我想的是也要有语义通信而不是只有大模型,你看我的段落,明显是有语义通信的
基于Transformer的大语言模型已成通用智能底座,并与语义通信结合用于构建智能体。但逐词生成易产生幻觉,错误语义在多跳链路中传播后难以追溯和纠正,削弱语义通信系统可信性。
因此需构建兼具抗幻觉能力和语义通信适配性的可信智能体:结合SFT、RLHF、RLAIF等监督反馈,与RAG、提示工程、工具调用等规则辅助协同工作,提升语义通信的可靠性与鲁棒性。
给你的段落发错了,忘掉之前我给你发的那个段落,这个是真的
随着2017年由谷歌[1]提出的Transformer技术大模型的迅猛发展,大模型有了许多分枝,从模态分类,分成了大语言模型LLM(Large Language Models),多模态大模型(Multimodal Large MOdels),但是多模态大模型的基础也是大语言模型,所以这里只讨论大语言模型。大模型(之后提到的大模型均为大语言模型的简称)是一种语言模型,由大量参数(通常数十亿个参数到千亿级别的参数)组成的人工神经网络模型,使用自监督学习或半监督学习对大量未标记文本进行训练,能够以逐词生成的方式给出开放格式的答案。大语言模型GPT2[2]最早于2019年发布,2020年推出GPT-3[3]后开始受到研究人员关注。2022年ChatGPT发布后,由于其能够和人类通过自然语言交流来完成各种任务且在各种任务重表现出色,获得了极高的关注度。大模型的出现使得用户不再需要针对一项特定任务(例如情感分析、命名实体识别或数学推理)进行建模和优化,而是作为一个通用的模型,能通过用户的指令被广泛应用于不同的任务中,如问答、算术题、写代码、文学创作、智能助手等。
尽管大模型具有广泛的应用价值。但是,大模型仍然存在产生幻觉的不可信问题。由于其需要逐个词解码的生成特性,大模型不知道自己回答不了某些问题而会无差别的产生回复,生成过程中有可能产生非事实性结果。这种偶发性的幻觉严重影响了大模型在实际应用中的可信性。Mallen等[4-7]揭示大模型生成的幻觉问题,即回复中出现不符合事实的内容,这会影响大模型的可信性,这使得检测其生成可信性成为一项重要的研究工作。幻觉内容会以压缩后的语义表示形式在低带宽、多跳链路中传播,一旦出错将难以追溯和纠正,进一步放大可信性风险。因此,构建兼具抗幻觉能力和语义通信适配性的可信大模型已成为当前亟需解决的前沿问题。目前主流的增强大模型的可信方法分为监督反馈增强和规则辅助增强两类:
监督反馈增强方面:对齐技术起源于将“大模型学会补全文本”转变为“遵循人类指令与价值偏好”的需求,目前主流路径包括参数层面的监督式微调(SFT)、基于人类反馈的强化学习(RLHF)和基于 AI 反馈的 RLAIF。监督式微调SFT(Supervised Fine Tuning) :用人工标注的数据与传统机器学习中监督学习的方法对大模型进行微调;基于人类反馈的强化学习微调RLHF(Reinforcement Learning with Human Feedback) :把人类的反馈通过强化学习的方式引入到对大模型的微调中去;基于AI反馈的强化学习微调RLAIF(Reinforcement Learning with AI Feedback) :这个原理大致跟RLHF类似,但是反馈的来源是AI。[9-11]
规则辅助增强方面:检索增强生成RAG(Retrieval-Augmented Generation) :通过在生成答案前从外部知识库检索相关信息片段,并将其作为上下文与问题一并输入模型,从而生成更准确、及时且可追溯的答案。提示工程与上下文学习PE&ICL(Prompt Engineering & In-Context Learning) :通过精心设计提示模板,嵌入任务指令或示例,以在上下文中引导模型执行任务,无需更新其参数。工具调用与函数调用T/FC(Tool/Function Calling) :赋予大语言模型使用外部工具和API的能力,将其能力扩展到自身知识之外,实现计算、检索或执行特定动作[3][12-13]。
可是这两类单独使用会有各自的局限性,基于监督反馈的方法虽能全局优化模型偏好,却难以应对分布外新知识与可追溯性需求,基于规则辅助的方法虽能提供外部事实支撑与可解释轨迹,却受限于检索质量与缺乏自我纠错能力[9-13]。所以将两类技术结合起来,RLAIF 为 RAG 提供‘哪条检索内容更可信’的判断与主动纠错能力,RAG 则为 RLAIF 提供最新、可靠的外部知识与可解释依据,二者天然互补,可显著提升大模型在开放域场景下的可信度与鲁棒性。
与此同时,在迈向6G时代的进程中,大模型的大规模应用为语义通信的高效协作垫定了基础。语义通信核心突破在于,它摒弃了传统通信中追求“比特级精确”的传输模式,转而直接传输信息的抽象含义与意图。研究表明,这种“传意而非传文”的方式,能够通过对语义的极致压缩,将通信开销显著降低80%至95%[13],并天然具备抗噪、抗攻击的鲁棒性[14]。然而,目前语义通信系统中的大模型大多仍使用未经充分可信对齐的原始 LLM,一旦产生幻觉或有害内容,将在低带宽、多跳传输场景中被放大传播,造成严重后果[15]。
Transformer推动LLM迅猛发展,大模型已成通用智能基础,但逐词生成易产幻觉,削弱关键任务可信性。
主流通过监督微调、强化学习对齐及RAG、提示工程、工具调用等规则辅助提升可信度,但单一路线难兼顾新知识、自纠错与可追溯。
面向6G语义通信,需在“传意不传文”的高压缩链路中引入经对齐的可信大模型,否则幻觉将在低带宽、多跳传输中被放大。
本课题的根本目标是提升语义通信系统在有限频谱和算力条件下的语义表达能力与传输效率,并在端到端链路中保持较高的可信性,而大语言模型仅作为实现这一目标的语义处理工具。针对语义通信在低样本量、低算力约束下易出现幻觉与错误放大的问题,本研究围绕构建轻量级、可部署的语义通信专用可信智能体展开:通过外挂知识库的 RAG 方案引入领域知识,实现事实校验;结合无需大规模人工标注、仅依赖开源大模型评审的低成本 RLAIF,对大模型进行针对性可信增强;最终在仿真环境中评估其在弱网典型信道条件下对通信开销、译码性能及可信度的综合提升效果。
浓缩成一句话
本课题旨在面向频谱与算力受限、易产生幻觉放大的语义通信场景,以大语言模型为语义处理工具,构建结合外挂知识库 RAG 与低成本 RLAIF 对齐的轻量级、可部署可信智能体,并在弱网典型信道仿真中验证其对通信开销、译码性能及整体可信度的综合提升效果。
1.3.1研究RAG和RLAIF综合提高大模型可信
课题在低样本量和低算力条件下,结合 RAG 检索证据与 RLAIF 奖励机制,系统分析大语言模型在“低数据、低通信开销”条件下可达到的事实一致性与幻觉抑制水平,回答大模型在低资源场景中“可以低到什么程度仍具备可用可信度”的问题。相关方法不依赖大规模人工标注,具有一定通用性,可为其他垂直领域(如工业控制、专业翻译等)的低成本可信对齐提供思路与可参考的实现流程。
1.3.2构建面向原理性验证的仿真原型环境
课题通过搭建端到端语义通信仿真环境,将可信大模型真实嵌入通信链路,综合考察通信开销、译文质量、幻觉率、事实一致性及来源可追溯性等指标,从工程视角评估所提方法的优势与局限。相关原型和实验结果有助于为后续在语义通信等场景中部署类似系统提供实证数据和初步的设计参考,具备一定的工程推广和理论支撑意义,同时也为后续研究提供可对照、可迭代的基本方案。
1.3.3研究可信大模型在语义通信中应用技术路线的可行性
本课题在语义通信这一特定场景下,引入“RAG+RLAIF”融合框架,面向低样本量、低算力条件下的大语言模型幻觉与错误放大问题,给出一套可量化、可实现的抑制方案。通过构建领域知识库、幻觉与一致性评价指标体系以及可信增强策略,丰富了现有语义通信系统中智能译码/翻译模块的实现手段,为后续开展“可信大模型 + 语义通信”的相关研究提供可复用的技术基础与评估标准。
将这一段文字浓缩成可以放在一张ppt里面
可以放一页 PPT 的精简版可以这样写(保留三点结构):
1.3.1 RAG+RLAIF 提升大模型可信
在低样本、低算力条件下,结合 RAG 检索证据与 RLAIF 奖励机制,抑制幻觉、提升事实一致性,探索大模型在低资源场景下的可信度下限,形成可迁移到其他垂直领域的低成本对齐方案。
1.3.2 搭建端到端语义通信仿真原型
构建端到端语义通信仿真环境,将可信大模型真实嵌入通信链路,从通信开销、译文质量、幻觉率、事实一致性与可追溯性等维度综合评估方法优劣,提供可对照、可迭代的工程原型与实证数据。
1.3.3 可信大模型在语义通信中的技术路线
在语义通信场景下引入“RAG+RLAIF”融合框架,通过构建领域知识库、幻觉与一致性评价指标及可信增强策略,给出可量化、可实现的抑制方案,丰富智能译码/翻译模块实现,为“可信大模型+语义通信”提供可复用技术基础与评估标准。