跟我聊聊AI的问题,我做CTF逆向工程,学了一年半了,好不容易做到buuctf逆向130人解出部分,...

Creado el: 14 de abril de 2026

Respondido usando GPT-5.4 Thinking por Chat01

Pregunta

跟我聊聊AI的问题,我做CTF逆向工程,学了一年半了,好不容易做到buuctf逆向130人解出部分,终究不如AI,我现在想问你,线上赛打CTF用什么AI最好,怎么配置,线下赛不允许联网呢?我可以花2,3万(如果不行可以更多)买一台好的台式机专门学AI,可以让AI接管我的电脑。电子取证比赛又如何呢,电子取证线上赛已经被AI杀死比赛了,我线上赛用什么AI,线下赛呢?我需要补充AI的知识库吗。总而言之我需要更好更强力的AI,今后AI时代,我必须学会让自己的AI定向学习一些领域的东西,这个怎么做到

Pensamiento

undefined

Pensamiento

undefined

Pensamiento

undefined

Pensamiento

Outlining domain learning and software setup

To build a domain learning system, first collect the corpus, normalize the data, and set up retrieval. Then, create system prompts and evaluate. Optionally, fine-tune it using LoRA. For a local knowledge base, I recommend using Obsidian markdown or plain repo. Key tools include LM Studio or Ollama for inference, and OpenAI or Claude for cloud usage. If you want AI control of the system, it’s safest to use it in a disposable VM to minimize risks and ensure security.

Outlining AI strengths for reverse engineering and forensics

For reverse engineering tasks, AI excels with binary metadata, strings, imports, decompiled pseudo-code, cross-references, and call graph hints, as well as runtime traces—not just raw executables. For digital forensics, metadata artifacts like browser history, system logs, and memory strings are useful. AI helps with script solving, pattern recognition, and tedious tasks, but struggles with obfuscation and symbolic execution. This allows for efficient solutions in certain CTF-related problems. No citation is needed for this reasoning, but it might be worth doing a web search for more details on Qwen3.5 agentic/visual capabilities.

Thought for 5m 37s

Respuesta

前提先说清:以比赛规则为准。很多线上赛默认没禁 AI,但有些会限制外部服务、联网、协作平台;线下赛更常见的是直接禁联网或限制外设。规则没禁的时候,真正有战斗力的不是“一个最强 AI”,而是云端最强模型 + 本地常驻模型 + 你自己的题库/知识库 + 自动化工具链

我先给你一句结论

线上 CTF 逆向 / 电子取证:
首选还是用最强云端模型当“总指挥”,当前更适合放在第一梯队的是 GPT-5.4 Thinking;它官方主打 coding、computer use、1M context,适合长链推理、跨很多材料总结、写脚本和工具调用。第二选择是 Claude Sonnet 4.6,官方强调 complex app builds、bugfixing、agentic tasks,很适合“把一堆碎片证据整理成可执行步骤”。本地再配一个开源模型常驻做私有材料分析和批处理,当前很值得放进方案里的有 Qwen3 / Qwen3-Coder,因为官方开源了权重,Qwen3 有长上下文和 tool usage,Qwen3-Coder 明确就是偏 coding/agentic 的。(OpenAI)

线下不联网:
核心就变成一台本地机子 + 本地模型服务。最实用的不是追求“完全自主接管”,而是做成半自动副驾驶:它能读截图、读反编译伪代码、读日志/时间线/注册表摘要、写临时脚本、总结假设,但敏感操作仍由你确认。LM Studio 和 Ollama 这类本地运行器都已经很成熟:LM Studio 支持本地聊天、OpenAI 兼容接口、工具调用和 MCP;Ollama 适合快速拉起本地模型,官方也支持 vision 输入。(LM Studio)

针对你的两个赛道,怎么配最值

1)CTF 逆向工程

AI 在逆向里最强的地方,不是“直接秒出 flag”,而是:

  • 快速读懂反编译结果,帮你重命名变量、整理状态机、解释校验逻辑
  • 从 imports / strings / xrefs / 伪代码里提炼可疑路径
  • 写 angr、z3、frida、unicorn、python 小脚本
  • 把你“半懂不懂”的函数链整理成可验证假设

它最弱的地方仍然是:

  • 很新的 VM/OLLVM 变种
  • 很脏的自定义字节码解释器
  • 需要大量动态调试细节的题
  • 你给它的信息太原始,比如直接扔个 exe 让它猜

所以逆向的正确喂法,不是扔二进制,而是喂结构化上下文
strings + imports + 节点函数伪代码 + 调用链 + 关键内存/寄存器状态 + 你自己的怀疑点。你喂得越结构化,AI 越像队友;你喂个原文件,它更像玄学算命。

2)电子取证

电子取证被 AI 影响更大,因为它天然就是“海量半结构化材料归纳”问题。
AI 尤其擅长:

  • 把浏览器历史、事件日志、timeline、聊天记录、邮件、MFT/USN、注册表摘要串成事件线
  • 帮你从长日志里找异常模式
  • 自动生成“证据链叙述”
  • 根据 artifacts 推测用户行为、时间窗口、可疑程序链

所以取证里最有价值的不是一个“会答题的模型”,而是一套摄入—检索—归纳—出报告流水线。

线上赛怎么打,最强配置是什么样

我建议你把线上赛理解成“三层 AI”:

第一层:云端总指挥
用 GPT-5.4 Thinking 或 Claude Sonnet 4.6 负责长链推理、任务拆解、跨材料总结、写脚本初稿。GPT-5.4 官方同时强调了 reasoning、coding、computer use;Claude 这边官方也持续在推 computer use 和 agentic 工作流。(OpenAI)

第二层:本地私有副驾驶
用 Qwen3-Coder 做本地代码/脚本助理,再配一个视觉模型做截图、反编译界面、十六进制视图、取证工具 GUI 的读取。Qwen3 官方强调了更强的 instruction following、tool usage、长上下文;Qwen3.5 系列官方仓库也在强调统一视觉语言能力,覆盖 reasoning、coding、agents、visual understanding。(GitHub)

第三层:自动化工具链
AI 不要直接裸控你的主力机。最稳的是放到隔离 VM 里,只给它这几类能力:
读指定目录、调用你白名单脚本、访问本地模型 API、读取截图、输出 markdown 报告。
线上赛里,“半自动 + 可回滚 + 可审计”通常比“完全接管电脑”更实战,因为 AI 现在会自己走偏。

线下赛不联网,怎么配才是真能打

线下最重要的不是模型榜单,而是本地稳定性

你至少要有两类本地模型

A. 代码/逆向模型
优先放一个 Qwen3-Coder 系列,本地专门负责伪代码解释、脚本生成、补工具。Qwen3-Coder 官方就是朝 coding 和 agentic tasks 去做的。(GitHub)

B. 视觉/长文档模型
逆向和取证都不是纯文本:你要看 IDA/Ghidra 截图、流程图、Autopsy/Volatility 输出、时间线表格、十六进制界面。Ollama 官方支持 vision;Qwen3.5 也在强调视觉语言一体化。线下机上最好常驻一个能看图的模型。(Ollama Documentation)

再补一个推理模型
DeepSeek-R1 的价值在于“推理习惯”的蒸馏生态非常强,官方公开了从 1.5B 到 70B 的 distilled checkpoints。做本地备胎很合适,尤其适合“我先让它想,再让 coder 模型写脚本”。(GitHub)

2~3 万预算,怎么买最对

你这个预算,最关键指标不是 CPU,而是 GPU 显存

我给你的购买建议很直接

首选:单卡 5090 32GB 路线
NVIDIA 官方页面确认 RTX 5090 是 32GB GDDR7。对本地 AI 来说,32GB 比 24GB 实用性强一截,尤其是你想同时跑更强一点的量化模型、长上下文、视觉模型时。(NVIDIA)

性价比备选:4090 24GB 路线
如果 5090 溢价太夸张,4090 依然是很能打的本地 AI 卡,只是显存头寸更紧,更依赖你做量化和模型尺寸取舍。产品上现在仍有大量 4090 整机和显卡在卖。

土豪/真正专业路线:RTX PRO 6000 Blackwell 96GB
NVIDIA 官方给到 96GB GDDR7。这类卡的意义不是“快一点”,而是很多你在 24GB/32GB 上根本不想尝试的本地大模型、长上下文、多模型并行、LoRA 训练,到了 96GB 才开始真正舒服。但它通常已经远超你说的 2~3 万预算。(NVIDIA)

我更建议你自己组,而不是盲买品牌整机。
整机可以看,但主要拿来参考“5090/4090 + 64GB/128GB RAM + 2TB/4TB SSD”这种配置形态:

CLX SET Gaming Desktop(Ryzen 9 9900X3D,RTX 5090)

5090参考整机

$6,799.99

CLX Horus Gaming Desktop(Ryzen 9 9950X3D,RTX 5090)

5090高配整机

$7,999.99

Alienware Area-51 Gaming Desktop

品牌整机参考

$6,899.99

MSI MAG PANO M100R(i9-14900KF,RTX 4090)

4090整机

$4,865.00

XOTIC PC H5 Flow(Ryzen 9 7950X,RTX 4090)

4090实用型

$4,499.00

ASUS TUF GT502(Ryzen 9 7950X,RTX 4090)

4090高存储

$6,680.00

Gigabyte C301 GLASS(Ryzen 9 7950X3D,RTX 4090)

4090大内存

$6,760.00

ROG Strix Helios GX601(i9-13900KF,RTX 4090)

4090品牌机

$5,765.00

真正该怎么组

对你这种用途,我会把钱按这个顺序砸:

GPU > RAM > SSD > 散热/电源 > CPU

比较推荐的骨架是:

  • GPU: 5090 32GB;买不到或价格离谱就 4090 24GB
  • CPU: Ryzen 9 9950X / 9900X 级别即可;逆向和取证不是纯吃 CPU 的时代了
  • 内存: 128GB 起步更舒服;取证尤其吃内存,内存镜像、日志、索引、多个工具同时开都会占
  • 硬盘: 至少 4TB NVMe,最好双盘:系统/模型盘 + 题目/镜像/缓存盘
  • 电源: 5090 级别别抠,按大瓦数高品质走
  • 系统: 最实战的是 Windows 11 + WSL2,因为逆向/取证 GUI 工具生态仍然大量在 Windows,而本地模型服务、脚本、容器放 WSL2 或 Linux 子环境最顺手

AI 该不该“接管你的电脑”

我的建议是:别让它接管你的主力机,让它接管一个隔离环境。

可行做法是:

  • 一台主机
  • 两个环境
    • Windows 工作区:IDA、Ghidra、x64dbg、Binary Ninja、Autopsy、取证工具
    • Linux/WSL2/VM:本地模型服务、脚本执行、日志处理、RAG 检索
  • AI 只拥有:
    • 指定目录读写权限
    • 白名单命令执行权限
    • 截图权限
    • 调用本地 API 的权限
  • 删除权限、系统设置、联网、浏览器登录态、密码库,一律别给

云端侧如果要做 computer use,OpenAI 的 Responses API 已经把 computer use 放进内建工具体系里;Anthropic 也有 computer use 路线。但比赛环境里更推荐监督式操作,别做无人值守。(OpenAI)

你需不需要补知识库

需要,但先别上来就微调。

绝大多数人一说“让 AI 学会某领域”,第一反应是 fine-tune。
但对你来说,正确顺序是:

先 RAG/检索知识库,后 LoRA/微调。

原因很简单:

  • 你的材料会经常更新:题解、脚本、失败记录、工具手册、插件说明、日志样例
  • 这类东西更适合做“可检索的外部记忆”
  • 真要改模型行为、格式、术语习惯,再上 LoRA

OpenAI 官方把 embeddings 和 retrieval 都做成了标准路线;Anthropic 也明确讲过,小知识库时甚至可以直接整块塞进上下文,知识库再大再做检索,且他们给了 Contextual Retrieval 这种改良检索思路。(OpenAI Developers)

你该往知识库里放什么

不要去乱爬一堆“AI 教程垃圾网页”,真正有价值的是:

  • 你自己打过的题:做出来的 + 没做出来的
  • 你的题目分类笔记:壳、VM、字符串混淆、校验逻辑、位运算、SMC、反调试、异常流
  • 工具使用模板:IDA、Ghidra、x64dbg、Frida、angr、z3、Volatility、Autopsy、yara
  • 常见文件/系统知识:PE/ELF、注册表、事件日志、LNK、Prefetch、ShimCache、AmCache、浏览器 artifacts、内存取证套路
  • 你高频写的小脚本和脚本片段
  • 典型失败案例:比如“这类 VM 我上次误判成 RC4 了”

最值钱的不是“正确答案”,而是“你曾经怎么误判”
这类材料对 AI 的帮助极大,因为它能学你的偏差模式。

“定向学习一个领域”到底怎么做

给你一个最实战的路线:

第一阶段:先做个人知识底座

把你的材料全部整理成纯文本友好的形式:

  • markdown 笔记
  • 题解
  • 脚本
  • 工具命令模板
  • 失败复盘
  • 截图配文字说明

目标不是美观,是可切块、可检索、可引用

第二阶段:做 RAG,而不是先微调

做一个本地知识库:

  • 文档切块
  • 给每块加 metadata:题型、平台、年份、是否做出、关键词、工具
  • 用 embeddings 建索引
  • 查询时先检索,再把命中片段喂给模型

这套东西你既可以自己写,也可以先用现成方案。OpenAI 官方 Retrieval/Embeddings 文档已经把这条路线讲得很清楚。(OpenAI Developers)

第三阶段:做评测集

别凭感觉说“AI 变强了”。
你自己做一个 100 题左右的小评测集就行:

  • 50 个逆向小任务
  • 50 个电子取证小任务

每题都给:

  • 输入材料
  • 标准答案
  • 关键推理点
  • 可接受误差范围

之后你换模型、换 prompt、换知识库、换 agent 方案,都拿这套题回归测试。
没有评测,所谓“定向学习”基本都靠幻觉。

第四阶段:有了稳定知识库和评测,再考虑 LoRA

LoRA/PEFT 的意义主要是:

  • 固化输出格式
  • 固化术语风格
  • 强化特定领域的回答习惯
  • 在小模型上补一点特定任务能力

Hugging Face 的 PEFT 文档明确把 LoRA 作为低成本参数高效微调方案;PEFT 也强调过不少 PEFT 方法能接近全量微调效果。Unsloth 这类工具则进一步把本地 fine-tune 的门槛压低了,连 Qwen3.5 的 LoRA/训练支持都已经给出来。(Hugging Face)

我会怎么给你落一套方案

如果是我替你搭,我会这样定:

线上赛方案

  • 主模型: GPT-5.4 Thinking
  • 副模型: Claude Sonnet 4.6
  • 本地常驻: Qwen3-Coder + 一个 vision 模型
  • 策略: 云端负责想,本地负责看私有材料、跑批量分析、写辅助脚本
  • 原则: 半自动,不裸放全盘权限

线下赛方案

  • 硬件: 单卡 5090 32GB / 128GB RAM / 4TB+ SSD
  • 本地运行: LM Studio 或 Ollama
  • 模型组合:
    • coder:Qwen3-Coder
    • vision:Qwen3.5 视觉路线或其他本地 vision 模型
    • reasoning 备胎:DeepSeek-R1 distilled 系列
  • 工作方式:
    • 逆向:模型吃伪代码、字符串、xrefs、trace
    • 取证:模型吃 timeline、日志摘要、artifact 导出、截图
  • 输出: 所有结论必须附证据片段,不允许只给结论

最后一句最重要

你真正要学的,不是“哪家 AI 最强”,而是这三件事:

  1. 怎么把题目材料整理成 AI 真能吃的格式
  2. 怎么给 AI 配检索和工具,而不是只会聊天
  3. 怎么做自己的评测集,让 AI 朝你的赛道稳定进化

只要这三件事做起来,AI 不是把你淘汰,而是把你从“单兵做题”变成“带着一整个分析系统做题”。

你下一条直接回我两个信息:预算上限,以及你更偏 Windows 主机 / Linux 主机。我就按你的情况,直接给你出一版“逆向+取证双用”的装机单、模型单、部署单。

Pregunta

问一下,我现在应该怎么开始学AI,让我从底层学算法不太现实,我学网络安全都一年半了,我的意思是,就像我学会更好的开车,而不是造车,当然这个过程中汽车的制造多多少少都会学,但不是中心,那么你有什么推荐的学习资源,学习方向吗

Pensamiento

undefined

Pensamiento

undefined

Pensamiento

undefined

Pensamiento

Providing a structured AI learning roadmap

I’ll offer a straightforward roadmap for starting AI, with a week-by-week breakdown. This will help the user gradually progress through important areas like prompting, workflow design, evaluation, and local deployment. I’ll keep the advice concise but useful, ensuring it’s easy to follow for a beginner.

Structuring AI learning roadmap with user background

I’ll suggest a structured 8-week AI learning roadmap, focusing on practical skills like prompting, workflows, local deployment, and RAG. I’ll recommend resources such as OpenAI’s guide, Anthropic’s learning materials, and HuggingFace’s courses. Python is enough to start, with minimal theory. The user’s cybersecurity background will guide project suggestions, like reverse challenge explainers or malware triage helpers.

Thought for 1m 18s

Respuesta

你这个想法是对的:先学会“把 AI 用到很强”,而不是先学“怎么从零造大模型”
对你这种已经在学网络安全、又想把 AI 真正变成比赛和工作战斗力的人,我更推荐一条“驾驶员路线”:

先学会 4 件事:会提需求、会配工具、会做知识库、会评测效果。
把这 4 件事学会以后,你已经比大多数“只会聊天”的人强很多了。像提示工程、工具调用、agent、RAG、evals 这些,已经是官方文档和课程里非常明确的实践主线;真正从底层训练模型、分布式训练、推导 Transformer 数学,不是你现在最应该投入的中心。(OpenAI Developers)

你现在最该学的方向

1. 提示工程和上下文组织

这不是“会不会说话”,而是会不会把任务描述成模型容易成功的形式。OpenAI 的提示工程和 prompting 指南都在强调:清晰指令、角色分工、示例、结构化输出,是提高稳定性的核心;Anthropic 也把这条路线延伸成了“context engineering”,也就是不仅写 prompt,还要管理喂给模型的全部上下文。(OpenAI Developers)

你在安全方向里要练的不是“写一段万能咒语”,而是这种能力:

  • 把逆向题拆成:题目目标、已知现象、关键伪代码、怀疑点、希望 AI 输出格式
  • 把取证题拆成:证据来源、时间线、异常点、待验证假设、希望输出的结论模板

2. 工具调用和 agent 思维

下一步要学的是:别把 AI 当聊天框,要把它当会调用工具的分析器
OpenAI 现在的文档已经把 agents、tools、Responses API 放成一条很明确的路线:模型不只是生成文字,还能调工具、调函数、管理多步任务。这个方向对你特别重要,因为安全场景本来就离不开脚本、文件处理、日志分析和外部工具。(OpenAI)

你应该练到的状态是:

  • 让 AI 帮你写脚本,不是只解释概念
  • 让 AI 生成下一步分析计划,不是泛泛而谈
  • 让 AI 对接本地工具输出,而不是凭空猜

3. 本地模型部署

你既然关心线下赛、不联网、隐私材料,那本地模型部署是必修课
LM Studio 官方文档支持本地下载和运行模型、连接 MCP、提供 OpenAI 兼容接口;Ollama 官方文档也把本地运行模型、API、vision、embeddings、tool calling 做得很完整。对“想用 AI,但不想一上来自己折腾推理框架”的人,这两个是非常合适的入口。(LM Studio)

这部分你不需要一开始就追求“最强模型”,先做到:

  • 能本地拉起一个模型
  • 能通过 API 调它
  • 能喂文本、图片、文件摘要
  • 能把它接到你自己的小脚本上

4. RAG / 个人知识库

如果你真想让 AI 在你的赛道里越用越强,RAG 比微调更该先学
OpenAI 的 embeddings 文档明确把 embeddings 用在 search、clustering 等检索相关场景;这就是做个人知识库的基础。对你来说,知识库里最值钱的不是网上大而全资料,而是你自己的题解、失败记录、脚本模板、artifact 笔记、常见误判。(OpenAI Developers)

先把这些资料变成“可检索记忆”,再谈微调,效率高得多。

5. Evals / 效果评测

这是很多人完全没学,但实际最重要的一块。
OpenAI 现在把 evals 单独做成一整套学习和 API 指南,反复强调:AI 系统是可变的,所以你需要用 evals 去测试提示词、模型切换、知识库变化前后的效果。(OpenAI Developers)

对你来说,评测不是高大上的研究,而是非常朴素的问题:

  • 同一道逆向题,A 提示词和 B 提示词谁更稳
  • 本地模型和云端模型谁更适合“读伪代码”
  • 加上你的知识库之后,取证题正确率到底提升没有

6. 微调放到后面

微调不是没用,但不要把它当第一步
OpenAI 的 fine-tuning 文档本身也在强调:先有好的 prompt 和测试集,再考虑微调;fine-tuning 更适合让模型更稳定地遵循你的格式、风格和特定任务范式,而不是替代基础能力。(OpenAI Developers)

所以你现在应该先做的是:
prompt → tools → knowledge base → evals → 再考虑微调。


我推荐你的学习资源

第一层:先把“会用”学扎实

我最推荐你先看这几类官方资源:

OpenAI Prompting / Prompt Engineering / Tools / Agents / Evals
这套最适合“想快速变强的人”,因为它直接围绕怎么把模型变成可用系统来写。(OpenAI Developers)

Anthropic 的 Learn 和 Context Engineering 文章
适合补“长上下文怎么组织、文档怎么喂、为什么很多 AI 用不好不是模型差而是上下文差”。(Anthropic)

第二层:学开源生态,不急着学训练

Hugging Face Learn / LLM Course / Agents Course 很适合你这种“会写点代码、想进入 AI 实战”的人。它不只是讲原理,也讲开源模型、agent、工具生态。(Hugging Face)

第三层:补最实用的少量原理

fast.ai Practical Deep Learning for Coders 非常适合“有编码基础,但不想被数学先劝退”的人。官方就明确写了,这门课面向有一些编码经验、想把深度学习用到实际问题上的人。你不用全刷,先刷前半段建立直觉就够。(Practical Deep Learning for Coders)

第四层:本地部署

LM Studio DocsOllama Docs 是你后面走线下赛、本地 AI 的最直接入口。(LM Studio)


你不用优先学的东西

这些不是没价值,而是暂时别当主线

  • 从零推导 Transformer
  • 大规模训练框架
  • 分布式并行训练
  • 一堆高数推导
  • 先研究论文再动手

你只需要先补到“够用”的程度:

  • token 是什么
  • context window 是什么
  • embeddings 是什么
  • RAG 是怎么工作的
  • fine-tuning 和 RAG 的区别是什么
  • 量化模型为什么能本地跑
  • 模型为什么会幻觉

这层理解有了,已经足够你把 AI 用得很强。


按你的背景,我建议这样学

第 1 阶段:先学“怎么让 AI 干活”

花 2 到 3 周,把重点放在:

  • 提示工程
  • 结构化输出
  • 长上下文喂法
  • 工具调用
  • API 调用

目标是:
你能把一个安全分析任务描述清楚,并让模型稳定给出你要的格式。

第 2 阶段:开始搭你自己的本地 AI 环境

花 1 到 2 周:

  • 装 LM Studio 或 Ollama
  • 跑一个本地模型
  • 用 Python 调 API
  • 让它能处理文本、截图、日志片段

目标是:
你有一个能离线工作的私人副驾驶。

第 3 阶段:搭个人知识库

花 2 周左右:

  • 把你做过的题、题解、脚本、取证笔记整理成 markdown
  • 做切块和标签
  • 用 embeddings 做检索
  • 让 AI 先检索再回答

目标是:
AI 开始“像你自己的助手”,而不是“像公网上的泛泛模型”。

第 4 阶段:做你自己的评测集

选 30 到 50 个小任务就够:

  • 逆向:读伪代码、找校验、写 z3/angr 辅助脚本
  • 取证:读时间线、找异常、总结证据链

目标是:
以后你每换一个模型、知识库、提示词,都能知道自己到底有没有变强。(OpenAI Developers)


最适合你的练手项目

别空学,直接做项目。

项目 1:逆向副驾驶

输入:

  • 伪代码
  • strings
  • imports
  • 关键调用链
  • 你的怀疑点

输出:

  • 可能的核心逻辑
  • 可疑校验点
  • 建议下断点位置
  • 辅助脚本

项目 2:取证时间线助手

输入:

  • 浏览器历史
  • 事件日志摘要
  • Prefetch / LNK / 注册表线索
  • 文件时间线

输出:

  • 可疑行为序列
  • 时间线总结
  • 证据链草稿
  • 待验证假设

项目 3:你的题库知识库

输入:

  • 你做过的 writeup
  • 失败记录
  • 工具命令模板

输出:

  • 遇到类似题时自动检索相关经验
  • 给出“以前你在哪一步最容易误判”

这三个项目,比你去硬啃很多理论课程更贴近你的目标。


我给你的最短路径

如果你想最省时间,我建议你按这个顺序来:

  1. OpenAI 的 Prompting / Tools / Agents / Evals 文档
  2. Hugging Face 的 LLM/Agents 学习资源
  3. LM Studio 或 Ollama 本地部署
  4. 自己做一个小型 RAG 知识库
  5. 最后再用 fast.ai 补一点原理

这样你会先变强,再慢慢变懂。


你现在就可以开始的第一周任务

今天开始就做这 4 件事:

  • 看 OpenAI 的 prompting 和 tools 文档,学会把任务写清楚。(OpenAI Developers)
  • 装一个本地运行器,LM Studio 或 Ollama 二选一。(LM Studio)
  • 整理 10 篇你自己的题解/笔记,转成 markdown。
  • 用 Python 写一个最小脚本:把笔记检索出来,再喂给模型回答。

你只要把这一周做完,就已经不是“学 AI 概念”,而是在拥有自己的 AI 工作流了。

你要的话,我下一条可以直接给你一份**“网络安全选手版 AI 学习路线图”**,按 30 天拆到每天学什么、装什么、做什么项目。

Pregunta

AI发展太快了,我现在学什么都怕之后被取代,就算是学AI本身也有这个担忧,究竟什么是最保值最有用的呢,我之前学逆向学了汇编语言,各种高级语言,现在在学编译原理,我都不敢保证这些在AI时代是有用的

Pensamiento

undefined

Pensamiento

undefined

Pensamiento

Addressing user’s concerns about valuable skills

The user is unsure about the value of their skills in reverse engineering, assembly, programming languages, and compilers. I can reassure them that the most valuable assets are not specific technical stacks, but core abilities like problem framing, system understanding, and adaptability — especially when working with AI. I’ll mention that even traditional skills remain useful for navigating and verifying complex systems, as professionals with these skills are empowered by AI.

Providing nuanced career advice with structure

I need to explain the durability of certain skills, like problem framing and understanding complex systems, which are more valuable than just mastering technical stacks. I’ll reassure the user by advising them to focus on adaptability and strategic thinking, while stopping the obsession with specifics like reverse engineering. I'll include citations for points backed by available sources, but limit it to 5 key statements. I'll avoid excessive bullet points, keeping the advice minimal but structured.

Thought for 1m 37s

Respuesta

你现在最该保住的,不是某一门“不会过时的技术”,而是一组不会轻易贬值的能力。从最近几份权威报告看,变化确实很快,但被反复点名的并不是“死记某个框架”,而是分析能力、适应力、AI 协作能力,以及网络安全/技术素养:世界经济论坛 2025 报告里,分析性思维仍是雇主最看重的核心技能;增长最快的技能里,AI 和大数据、网络与网络安全、技术素养都排在前列。(World Economic Forum)

所以,真正“保值”的东西,我会压缩成一句话:把复杂系统拆开、建模、验证、再重组的能力。
这类能力不会因为模型更强就失效,反而会更值钱,因为你要负责定义问题、约束任务、检查结论、处理边界情况。微软 2025 Work Trend Index 甚至直接把这种新能力说成“thought partner mindset”:要会给 AI 提供上下文和意图、知道何时委托给 AI、会迭代输出、能发现推理漏洞并及时纠偏。(Azure Static Assets)

放到你身上,你之前学的逆向、汇编、高级语言、编译原理,并没有白学。
它们的价值不一定体现在“以后还要不要手写多少汇编”,而体现在你已经在训练几件非常硬的底层能力:
你会看程序怎么真正执行,会分辨“表象”和“机制”,会从异常行为倒推系统内部结构,会怀疑结论、找证据、做验证。这套能力和 AI 是互补的,不是对立的。 现在高采用地区的 AI 使用模式也更偏向“增强式协作”和“学习/迭代”,而不是单纯一键替代;同时,Anthropic 的报告也明确指出,复杂场景里真正的瓶颈常常是能不能提供对的上下文。(Anthropic)

所以你可以这样理解你学过的东西:

  • 汇编/逆向:不是为了证明你能比 AI 更快反编译,而是让你具备“看穿系统真实行为”的眼睛。
  • 高级语言:不是为了背语法,而是为了快速把想法变成工具、脚本、自动化。
  • 编译原理:不是为了以后一定去造编译器,而是为了学会 AST、IR、数据流、优化、约束、转换这些“抽象系统”的通用思维。
    这些东西在 AI 时代的价值,更多是帮你判断 AI 对不对、该不该信、怎么把它变成工具。这部分是我的判断,但它和上面那些“分析思维 + AI 协作 + 安全技能增长”的大趋势是一致的。(World Economic Forum)

真正容易贬值的,反而往往是这些:

  • 只会背某个框架的 API 细节
  • 只会照教程拼装
  • 只会做“模型回答什么我就信什么”的使用者
  • 只会做单一流水线里、规则很固定的重复劳动

这些更容易被更强的模型、agent、自动化工作流吞掉。Stanford HAI 的 2025 AI Index 也指出,AI 在高难基准和实际编程任务上的能力还在快速上升,而且企业使用率增长很快。(Stanford HAI)

所以你现在不用问“我学的这些会不会没用”,而要问:

我学的这些,能不能转化成 AI 时代的 4 个核心角色能力?

第一,问题定义者:能把模糊问题变成明确任务。
第二,系统建模者:能理解代码、协议、执行流、数据流。
第三,结果验证者:能测试、调试、证伪、找反例。
第四,AI 指挥者:能给上下文、配工具、做知识库、跑评测。
这四个角色,比“会不会某门技术”更保值。(Azure Static Assets)

如果你问我,接下来最值得投入的学习方向,我会给你这个排序:

  1. 继续保留安全/逆向这条主线,因为“网络与网络安全”本身就是增长快的技能方向之一。(World Economic Forum)
  2. 补 AI 实战能力:提示、上下文组织、工具调用、RAG、评测。因为企业越来越需要的不是“会不会点 AI”,而是“会不会把 AI 接进工作流并纠偏”。(Azure Static Assets)
  3. 做一个你自己的 AI 副驾驶项目,比如逆向副驾驶或取证助手。项目能力比“又学了一门概念课”更保值。
  4. 少一些“追最新框架焦虑”,多一些“抽象能力 + 验证能力 + 自动化能力”

我最想替你纠正的一点是:
AI 时代不是“底层没用了”,而是“只会底层、不会借 AI 放大自己”不够了。
你已经在学的很多东西,其实正是让你从“被 AI 替代的人”变成“能驾驭 AI 的人”的底座。

你可以先把今后 2 年的目标改成这句:

我要成为一个能理解复杂系统、能验证 AI、能让 AI 为我工作的安全选手。

这个目标,比“我要不要继续学编译原理”更稳,也更保值。

你要的话,我下一条可以直接给你做一个 “不焦虑版 2 年学习路线”
把你现在学的逆向/编译原理保留下来,同时接上 AI,按“哪些该继续,哪些该浅尝,哪些暂时别碰”给你排出来。

Compartir este Q&A