这两篇文章的神经网络是一样的么,不是的话有什么区别
Создано: 22 февраля 2026 г.
Отвечено с использованием GPT-5.2 Thinking от Chat01
Создано: 22 февраля 2026 г.
Отвечено с использованием GPT-5.2 Thinking от Chat01
pythonimport pdfplumber, re, pandas as pd, textwrap, os, math, numpy as np, json, PIL.Image as Image, matplotlib.pyplot as plt path="/mnt/data/learning.pdf" text_pages=[] with pdfplumber.open(path) as pdf: for i,page in enumerate(pdf.pages): txt=page.extract_text() or "" text_pages.append(txt) len(text_pages), [len(t) for t in text_pages[:3]]
不一样。两篇文章用的神经网络类型、输入/输出形式、训练目标都不同——一个是“残差状态递推模型(ResNet/Residual Network)”,另一个是“算子网络(DeepONet:Branch+Trunk)”。
它把每个机架(子系统)建一个残差网络 ,核心是**“上一时刻状态 + 网络预测的残差修正”**的结构:
总结:这是一个离散一步预测器(one-step predictor),典型用于MPC里做滚动预测。(Tenth Draft.pdf)
它用的是Deep Operator Network(深度算子网络):
总结:DeepONet学的是函数→函数/函数→值 的算子,不是传统“状态→下一状态”的单步残差网络。
每个子系统 的输入向量 是把这些东西拼起来:
输出是:下一时刻局部状态增量(通过“当前 + 残差修正”得到)(Tenth Draft.pdf)。
输入是整段输入函数/外部激励(非自治系统的 ) + 查询时间(或时空点),输出是对应时刻的系统状态/响应,即学“输入函数 → 轨迹”的映射 (learning.pdf)。
它不仅做一步误差,还做:
目的是:减少递推时误差累积,让它更适合在MPC里滚动预测。(Tenth Draft.pdf)
它的重点是学解算子,并在论文里结合递推/数值积分思想(从图和算法描述可见)来减轻长时预测误差累积 (learning.pdf)。
如果你想更细一点对比(比如两篇各自到底用了几层、每层宽度、激活函数、训练数据规模等),我也可以继续往下扒;不过目前冷轧那篇在你给的版本里主要把结构写成公式/框图,没有给很细的超参表(至少在已解析到的段落里没出现)。