不一样。两篇文章用的神经网络类型、输入/输出形式、训练目标都不同——一个是“残差状态递推模型(ResNet/Residual Network)”,另一个是“算子网络(DeepONet:Branch+Trunk)”。
1) 网络类型和结构不一样
A. 冷轧那篇:残差网络(Residual / ResNet-style)
它把每个机架(子系统)建一个残差网络 Ni,核心是**“上一时刻状态 + 网络预测的残差修正”**的结构:
- 网络先输出残差 Δri=Ni(Xi,in) L59-L76
- 然后用 identity shortcut 把当前局部状态“直通”并相加得到下一步预测(baseline-plus-correction)(Tenth Draft.pdf)
- 还额外引入了一个辅助分支 ηi(⋅)(可选的轻量前馈分支)来增强对采样间隔变化的鲁棒性:Ni=ηi+Ii (Tenth Draft.pdf)
总结:这是一个离散一步预测器(one-step predictor),典型用于MPC里做滚动预测。(Tenth Draft.pdf)
B. learning.pdf 那篇:DeepONet(Branch Net + Trunk Net)
它用的是Deep Operator Network(深度算子网络):
- Branch Net编码“输入函数/输入轨迹(例如 u(t) 在若干传感点的取值)”
- Trunk Net编码“查询点(通常是时间 t,也可能包含状态/空间坐标)”
- 两者组合输出 x(t) 或系统响应(学的是“从输入函数到解/响应函数”的算子映射)(learning.pdf)
总结:DeepONet学的是函数→函数/函数→值 的算子,不是传统“状态→下一状态”的单步残差网络。
2) 输入与输出(建模对象)不一样
残差网络(冷轧文)
每个子系统 i 的输入向量 Xi,in 是把这些东西拼起来:
- 当前局部状态增量 Δxi(tn)
- 邻居机架的状态增量堆叠 ΔxZi(tn)(显式表达机架耦合)(Tenth Draft.pdf)
- 本机架控制增量轨迹用二次多项式参数 Γi,n=[γ0,γ1,γ2] 表示 (Tenth Draft.pdf)
- 采样区间长度 δn (Tenth Draft.pdf)
输出是:下一时刻局部状态增量(通过“当前 + 残差修正”得到)(Tenth Draft.pdf)。
DeepONet(learning.pdf)
输入是整段输入函数/外部激励(非自治系统的 u(t)) + 查询时间(或时空点),输出是对应时刻的系统状态/响应,即学“输入函数 → 轨迹”的映射 (learning.pdf)。
3) 训练目标不一样
残差网络:为“长时域滚动预测 + 控制”服务
它不仅做一步误差,还做:
- 前向网络 + 后向网络一起训练(引入一个 backward residual net Bi)(Tenth Draft.pdf)
- 加入多步滚动误差、前后向一致性(reciprocal-consistency)等损失项(L1step,Lbwd,Lmsrp,Lroll)(Tenth Draft.pdf)
目的是:减少递推时误差累积,让它更适合在MPC里滚动预测。(Tenth Draft.pdf)
DeepONet:为“学系统响应算子/提高数值递推稳定性”服务
它的重点是学解算子,并在论文里结合递推/数值积分思想(从图和算法描述可见)来减轻长时预测误差累积 (learning.pdf)。
4) 用途(嵌入系统方式)不一样
- 冷轧那篇:网络是MPC的预测模型,并且还放进了Nash均衡的分布式协调迭代里做在线优化与协调控制 (Tenth Draft.pdf)。
- learning.pdf:主要是建模/仿真/预测框架,核心是学动力系统的响应(算子学习),不以“分布式MPC+博弈协调”作为主线 (learning.pdf)。
一句话抓重点
- 残差网络(冷轧文):学的是 (Δxi, Δx邻居, Γ, δ)→Δxinext 的一步递推模型(带残差/直连、还加了前后向一致性训练)L59-L76(Tenth Draft.pdf)
- DeepONet(learning.pdf):学的是 u(⋅)→x(⋅) 的“算子”(Branch/Trunk 两路网络来表示输入函数与查询点)(learning.pdf)
如果你想更细一点对比(比如两篇各自到底用了几层、每层宽度、激活函数、训练数据规模等),我也可以继续往下扒;不过目前冷轧那篇在你给的版本里主要把结构写成公式/框图,没有给很细的超参表(至少在已解析到的段落里没出现)。