调研novelai的用户政策、隐私政策等,生成的内容是否有什么禁忌?
생성일: 2025년 11월 21일
답변에 사용된 모델 GPT-5.1 Thinking by Chat01
생성일: 2025년 11월 21일
답변에 사용된 모델 GPT-5.1 Thinking by Chat01
调研novelai的用户政策、隐私政策等,生成的内容是否有什么禁忌?
简单说:NovelAI 在隐私保护和内容所有权上比较“宽松友好”,在生成内容题材上几乎没有专门的“黑名单”条款,但你依然要遵守法律和它的一些使用限制。下面分块给你梳理。
服务主体和适用法律
内容归属权(非常重要)
年龄与账号使用限制
“滥用/不当使用”条款(Misconduct)
根据 ToS 的隐私章节(Section 6):(NovelAI)
访问你的内容
加密与存储
请求日志(prompt 记录)
第三方共享
数据保留
用于模型训练的数据(重要)
FAQ 的“Privacy”部分写得更详细:(docs.novelai.net)
生成的图片是否会被保存?
prompt / 上传图片 / 涂鸦会被记录吗?
Image2Image 上传的图片会被存吗?
生成图片的版权归属
和很多主流平台不同(比如会列一长串禁止内容类型),NovelAI 的 ToS/FAQ 没有列出详细的“禁止生成什么内容”清单。
即便没有写成“不得生成暴力/仇恨/色情”等列表,你在使用里还是要注意这几类:
必须遵守现实世界法律
不能把它当专业服务替代
不能规避赌博等受监管业务
版权与名誉风险
模型训练用数据无法撤回
但这不代表“什么都可以放心生成”,主要风险在于:
你可以把 NovelAI 理解为“技术上比较不设限,但法律和条款责任更多在你身上”的工具。实操时建议:
题材上自我约束
谨慎处理真实人物与 IP
不要把生成结果当作专业意见
账号安全与内容备份
企业/商用场景
如果你有具体打算做的题材(比如某类 NSFW、暴力、宗教、政治等),我也可以帮你从“法律/平台风险”的角度一起过一遍,评估下大概的风险级别。
它比较有名的是动漫风格,那么它能否生成3d风格,以及真人风格的图片?
可以,但有几个“但书”,我直接分两块说:
3d、blender (medium) 这类 3D 向的标签。(docs.novelai.net)3d / blender (medium);说明官方是支持把画面往 3D 渲染方向推的。(docs.novelai.net)💡 实际体验上:
3d, 3d render, blender (medium), pixar 这类词,可以让人物变成类似 3D 动画电影/游戏 CG 那种光照和材质,而不是纯平涂动漫。(Elite AI Prompts)示例提示词(正向)(英文是因为 NAI tag 识别最好用英文):
1girl, 3d, 3d render, blender (medium), detailed lighting, high quality
realistic 和 photorealistic,这就是专门给“写实 / 照片感”用的标签。(docs.novelai.net)所以:
realistic / photorealistic 后,能得到更接近真人比例和质感的图,但眼睛、皮肤、五官还是会有明显“插画感”或“二次元味道”。示例提示词(正向):
1girl, realistic, photorealistic, detailed skin, soft lighting, depth of field
3d / 3d render / blender (medium) 等把风格往 3D CG 推,但整体仍是「3D 动漫」。(docs.novelai.net)realistic、photorealistic 之类标签,但很难变成完全无法分辨的真照片。(docs.novelai.net)如果你愿意告诉我你更想要哪种:
我可以直接帮你写一套适合 NovelAI 的中英双语提示词模版,你复制过去就能用。
介绍一下它的Pricing
为什么Pricing当中,为什么还有无限生成,以及按需付费的区别?
它的几档Pricing到底包含什么东西?
先说结论:
下面分三块讲:整体收费逻辑、各档具体包含什么、以及“无限生成 vs 按需付费”的区别。
NovelAI 现在是**月订阅 + 内部点数(Anlas)**的组合模式:(NovelAI Docs)
订阅周期都是 30 天一续(Paper 例外,它是试用)。(NovelAI Docs)
我给你一个“人话版”概览,然后再特别解释图片那块。
价格:$25/月(NovelAI Docs)
文本:
图片(这里是重点):(NovelAI Docs)
适合:
关键词就两个:文本 = 无限;图片 = 点数 + Opus 特权。(NovelAI Docs)
官方说得很直白:
也就是说,你写文、改文、跑文本冒险、听 AI 朗读,不用担心点数被扣光。
这里的“无限”本质上是“按月订阅吃到饱”。
图片生成算力贵很多,所以它分两层机制:(NovelAI Docs)
订阅送的 Anlas(每月自动补满)
额外购买的 Paid Anlas(按需付费)
所以,“按需付费”其实就是:在订阅基础上,图片超出免费额度后,用 Anlas 做 pay-as-you-go。
只在 Opus 档,而且有条件:(NovelAI Docs)
→ 这种“标准小图”可以不扣 Anlas,你就能一直刷、一直刷,相当于 在这一档配置下是“无限出图”。
但只要你:
就会回到 Anlas 消耗 / 额外付费 的模式。
简单给你一个选档思路(以“图文需求”为主):
只想试试:
主写作、偶尔配几张图:
认真写长篇,故事很长、世界观复杂:
又要长篇写作,又想疯狂出图(包括尝试高级功能):
如果你愿意告诉我你的具体用法(比如:一个月大概想画多少张图、是不是长篇写手、需不需要高分辨率图),我可以帮你算一笔“账”:
那么它一张图多少Anlas?还是变动的,给我一个baseline
简单说:一张图花多少 Anlas 不是固定的,是“跟设置走”的,但可以用一个“默认图 ≈ 5 Anlas”当粗略 baseline。
NovelAI 自己只讲了大原则,没有给公开的精确公式:
界面在你点「Generate」之前,会直接显示这次要扣多少 Anlas,这是最准确的数字来源。
虽然官方没写死,但不少第三方教程/评测都给了一个经验值:
👉 所以非常实用的粗估规则是:
默认尺寸 + 默认步数 + 一次 1 张图 ≈ 5 Anlas / 张
你可以就按这个算:
实际会因为你调分辨率、步数、批量数量有上下浮动,但这个数用来规划“一个月大概能出多少图”非常够用。
以下都会比那种“默认 5 Anlas 一张”的情况更贵:
分辨率拉大(Large、超长竖图/横图)
一次生成多张(2~4 张一批)
Steps 开得很高(比如 40、50 步)
用 Img2Img / Vibe Transfer / upscaler 等高级功能
Opus 有一个特权,会让上面的 baseline 在很多场景下直接变成 0 消耗:(NovelAI Documentation)
Opus:满足这些条件时,图片不扣 Anlas
- 一次只生成 1 张
- 尺寸在“Normal Size” 范围内(最高 1024×1024 左右)
- Steps ≤ 28
- 不是 Img2Img / 没有用别的图当底图
在这个范围里你就可以理解成:
Opus = 小中图“无脑刷”不用管 Anlas,只有玩大图/批量/高步数/进阶功能时才真正用到那 10,000 Anlas。
如果你告诉我:
我可以帮你按这些习惯,把“一个月大概能生成多少张图”粗算成一个表,让你更好规划要不要上 Opus、要不要买额外 Anlas。
比如我有一张动漫图片,novelai能帮我分析出这个动漫图片的风格、画师、提示词吗?
可以简单理解成:官方网页上的 NovelAI 现在没有那种“一键帮你反推 prompt / 画师 / 风格”的功能,但它有两类相关能力:
我分两种情况给你讲清楚。
在 NovelAI 的图片界面里,同一页里你刚生成的图,会在右侧 History 里排成一列;你点回去之前那张,就能看到当时的 prompt、反向提示、步数、seed 等参数,然后继续改。(docs.novelai.net)
但如果你:
网页端目前 不会自动从图片里读出 prompt 给你看,也没有“image → prompt”按钮。
NovelAI 把自己生成的图的提示词和设置,藏在 PNG 的 alpha 通道和 metadata 里,专门开源了一个脚本来读:(GitHub)
novelai-image-metadatanai_meta.py 可以从 NAI 生成的 PNG 里解析出:
所以如果你的动漫图是 NovelAI 官方生的 PNG(元数据没被压缩/抹掉),理论上可以这样做:
nai_meta.py 你的图片.png,就能看到当时的 prompt 和参数。这一套是“本地技术流”的玩法,官方网页本身不会帮你做这一步。
NovelAI 有 Image2Image / Vibe Transfer /(V4 的 Potion) 这类功能:你可以上传一张图,让 AI 把这张图的 画风、配色、构图感 抽出来,然后配合你自己的 prompt 生成新图。(docs.novelai.net)
但是:
这张图风格 = 某某画师 + 某某 tag + 某年画风
所以从“结果”看是:
✅ 能“吃掉画风并复用”
❌ 不能“以文字形式列出风格标签”
虽然 NovelAI 训练集里有大量 画师名 (style) 这种 tag,可以用来控制画风,官方文档也建议用“风格/年代/媒介标签”去影响画面。(docs.novelai.net)
但:
我这边也不能根据一张图“鉴定”出真实创作者是谁,这种识别真实个人身份/归属,风险比较大,也不够准确。
想要从任意动漫图里猜 tag,一般有两种思路,但都是 第三方工具,不是 NovelAI 自带:
1girl, long hair, blue eyes, school uniform, ... 这样的标签。(GitHub)这些工具只能给你一个 “接近的 prompt 草稿”,不可能 100% 恢复原 prompt——就算是同一个提示词,每次生成出来的图也会有差别。
要反推原 prompt
要利用一张外来动漫图的“画风”
自动分析画师/提示词
如果你愿意,把你关心的那张图发给我,我可以站在“会写 prompt 的人类”的角度,帮你拆成一套 可用的 NAI 正/反向提示词模板(但我也会老实跟你说:那只是“合理猜测”,不是原作者真正用的那串)。
有哪些基于NovelAI生成的图片进行分享的著名网站?
大致可以分三类:专门的 AI 图站 / booru、综合插画站、社交社区 / 官方活动。下面给你点名几个跟 NovelAI 关系比较近、也确实有人大量分享 NAI 图的地方。
novelai 标签页面,目前能看到 2 万多张带 novelai 标签的图片,说明很多作品标明是用 NovelAI 做的。(aibooru.online)👉 用法:
novelai、novelai v4,或者角色名 + novelai。⚠️ AIBooru 里 NSFW 很多,建议登录后先开黑名单 / 模糊功能。
novelai 标签,定义里写得很清楚:
generator:novelai,并且自动隐含标签 machine learning generated、stable diffusion,说明这里的图是用 NovelAI 这类模型生成的。(twibooru.org)👉 如果你正好对 MLP / 同人圈感兴趣,可以去搜 novelai 标签,看别人怎么把 NAI 用在特定圈子角色上。
novelai-artists.vercel.app,页面上写的是 “NovelAI Gallery | Women / Men / NSFW Zone”,每张图旁边会展示 基本 prompt 模版、画师字段、seed、模型等。(novelai-artists.vercel.app)👉 如果你想抄写/学习别人的 prompt 结构,这个站非常适合当字典用。
这些不是“只收 NovelAI”,而是大平台里有 NAI 作品专区或标签:
#NovelAI 标签的作品,之后数量只会更多。(Wikipedia)👉 用法:
NovelAI、#NovelAI、或者角色名 + NovelAI。#NovelAI、NovelAI Diffusion 之类的标签,就能看到各种生成作品和 prompt 讨论(实时性很强,风格也混得比较杂)。👉 用法:
#NovelAI;X 上搜 #NovelAI。如果你告诉我你更偏向哪种用途(撸图学习 prompt、还是自己发图涨粉),我可以帮你组合一个“逛站 + 发图”的小路线,顺便提醒你各个平台对 AI 图的大致态度和注意事项。
那么因为NovelAI的小图能无限生成,那么我是否可以先生成小图,再用相同的种子去生成大图?
种子的作用在不同分辨率之间还有效吗?效果好吗?
结论先说在前面:
我分开解释一下原理 + 实操建议。
在扩散模型里面,seed 决定的是“最初那团噪声”。
简单想象流程:
所以:
你可以把它理解成:
同一个 seed 在 同分辨率 下是“复刻按键”,
在 不同分辨率 下,变成了“同一个世界线的平行宇宙”。
如果你做到以下基本一致:
通常会看到:
也就是说,你可以用小图先挑“目前构图/姿势我满意”,然后再用同 seed 拉大图,基本不会变成完全另一个人。
但因为分辨率变了,噪声展开方式也变了,所以:
所以别期待是那种:“先 512×768 生一个,记下 seed 然后 1024×1536 一键复刻,只是更清晰”——
那是“超分辨率放大器”的工作,而不是“重新生成+same seed”的效果。
因为你已经知道:
一个比较实用的 workflow 是:
这里的目的:
用免费小图做“草稿构图生成器”。
接下来你有两种路:
效果预期:
如果你更想要的是“尽量保持原画面,只是变大变细致”,更推荐:
这种方式更接近传统意义上的“高清重制”,虽然也会变,但比“完全重新画一张大图”要稳定很多。
注意:Img2Img / Upscale 都要花 Anlas,属于 Opus 也要扣的那一档。
按你问的两点来直接答:
在同一个分辨率下,seed 是真正的“锁图键”;
一旦分辨率变了,seed 变成“约束整体风格和构图方向的锚点”。
看你对“好”的标准:
如果你的期待是:
“我想同一张图的一个高清版复刻”
→ 单靠 same seed + 改分辨率,你会觉得“不够稳定”。更推荐小图 + Img2Img/upscale。
如果你的期待是:
“我想在同一个气质/构图方向上,出几张类似但细节不同的图”
→ 同 seed 跨分辨率 +微调 prompt,很好用,相当于“同一角色的不同版本”。
你想省 Anlas,又想最终有大图,可以这样玩:
Opus 小图阶段(免费):
锁定模板:
大图阶段(花 Anlas):
如果你愿意告诉我你常用的分辨率(比如你想最终要 3:4 竖图、16:9 壁纸、还是手机壁纸),我可以帮你写一套更具体的参数推荐:
novelai它有lora吗,还是完全通过提示词控制风格?
短句先说结论:
下面分开讲一下。
从官方文档和第三方的功能对比来看:
所以按现在(2025 年底)的情况,可以直接当成:
✅ 可以选不同官方模型、用高级控制工具
❌ 不能往官方服务里加载你从 CivitAI 下来的.safetensorsLoRA
官方给的建议是:
watercolor (medium), realistic, 3d, anime screencap 之类。(docs.novelai.net)这相当于“全局底色 + 再用 tag 微调”。
Vibe Transfer 是它家独有的一个东西:
.naiv4vibe 文件。(docs.novelai.net)这个机制很像:
可以粗暴类比为:“官方黑箱版 LoRA / Textual Inversion”,只是你看不到原始权重,只能通过界面控制。
另外还有 Character Reference 功能:
你在 CivitAI / CivArchive 之类地方看到的:
这些都是:
顺带一嘴文本端(不是图片):
这个也更偏“官方封装的小微调”,而不是你随便丢个 LoRA 权重进来。
如果你现在主要纠结的是:
“我究竟要不要学 LoRA,还是只靠 NovelAI + prompt + vibe 玩?”
你可以跟我说你是:偏“本地折腾派”还是“云端省事派”,我可以帮你对比一下:“用 NovelAI + 提示词” vs “本地 SD + LoRA” 各自的学习成本和好处。
有哪些著名的网站,可以通过图片反推提示词?
先把重点说在前面:
现在常见的“图 → 提示词”网站,本质都是“猜一个比较像的 prompt / 标签”,而不是把原作者的提示词100%还原。
大致可以分三类:读 PNG 元数据、用 CLIP/BLIP 之类模型生成自然语言 prompt、用 WD14 这类动漫 tagger 给出 booru 标签。
下面给你列几个比较有名、实用的站点。
如果图片本身是 Stable Diffusion 一类模型生成,而且 PNG 元数据没被擦掉,那最精确的办法其实是:
→ 直接读 PNG metadata 里的 prompt,而不是让 AI 去猜。
教程站 Stable Diffusion Art 就说,第一优先应该试 PNG Info:有些 PNG 文件里会包含完整的 prompt、negative prompt、模型名、步数等信息;如果你不用本地 WebUI,也可以用免费的在线网站 jimpl.com 来查看 PNG 元数据。(Stable Diffusion Art)
用法:上传 PNG → 看有没有 prompt 字段。
有的话这基本就是“原咒语”,比下面所有“猜”的方法都靠谱。
如果没有元数据,才轮到下面这些“图 → prompt”工具出场。
特点:
特点:
专门的 “Image to Prompt” 工具页,可以选择输出给:
支持多语言输出,包括简体中文。(Image Prompt)
免费用户每天有次数限制(文档写的是 Image-to-text 工具合计每天 5 次),可付费解锁更多。(Image Prompt)
官方明确写了不允许 NSFW 图片上传,会拦截。(Image Prompt)
适合:
特点:
适合:
除此之外,还有一堆类似的 “image → prompt” 工具,比如:
如果你主要是看 动漫图 / 二次元图 / booru 风格的 tag,那比起自然语言,有时反而更需要“标签列表”,比如:
1girl, long hair, blue eyes, sailor uniform, looking at viewer, ...
wd-tagger Space,也是上传动漫图 → 输出 rating、角色名和各类标签。(Hugging Face)这类工具的用途:
它输出的不是一句“完整 prompt”,而是一堆适合写在 prompt 里的标签,但对动漫图来说反而更实用。
没有工具能保证“还原原始 prompt”
优先顺序可以这样排:
生成的 prompt 要自己改一改
注意隐私和版权
如果你愿意,我可以根据你常用的图(比如:真人照片、二次元萌系、厚涂插画等),帮你配一套“推荐组合”:
NAI Diffusion V4.5 Full 与 NAI Diffusion V4.5 Curated 这个两个模型,有什么具体的区别?
简单说:
其余底层架构、功能是一样的。
在官方文档的模型页面里,两个模型挨在一起写:(NovelAI)
“Just like our previous Full models, V4.5 Full includes a more comprehensive, albeit less curated, dataset.”(NovelAI)
含义就是:
当你想生一些特别具体的东西,而 V4.5 Curated 做不到时,可以试试 Full。(NovelAI)
“V4.5 Curated … trained on a somewhat smaller training set of cleaner and more focused images… It’s great for general use and the safest choice when streaming video if you want to make extra sure you don’t generate any sensitive images on accident.” (NovelAI)
也就是:
官方在“Add Quality Tags(质量标签)”文档里,还透露了一个细节:当你勾着“添加质量标签”开关时,系统会自动往 prompt 里加一些隐藏 tag,不同模型加的 tag 不一样:(NovelAI)
V4.5 Full 自动加的:
, location, very aesthetic, masterpiece, no text
→ 主要是画质/构图向,没主动做“分级”限制。
V4.5 Curated 自动加的:
, location, masterpiece, no text, -0.8::feet::, rating:general
这里有两点很有意思:
rating:general:典型 booru 风格的“普通级(非 R18)”标记;-0.8::feet:::给 feet 这个 tag 一个 -0.8 的负权重,相当于默认弱化足部/恋足类描写。说明什么?
rating:general 之类过滤,等于给你更多自由,但也更容易踩到“敏感”边缘。再加上一些日文玩家的测评,专门提到:V4.5 Curated 基本上 nsfw 标签是不起作用的,R18 要素不太会反映出来,并表示“期待 Full 放出后解决这一点”。(Patreon)
→ 综合下来可以安全地说:
V4.5 Curated:
V4.5 Full:
架构层面,两个模型共享同一套 V4.5 改进:(NovelAI)
fur dataset,) 与 background dataset, 等特殊 tag。真正不一样的是:模型“知道什么”和“默认会给什么样的图”。
可以这么理解:
官方 Goose Tip 也直接写了:
如果你想画非常 specific 的东西,而 Curated 做不到,那就试试 Full。(NovelAI)
这一点反而很简单:
,+空格分隔;可以按这个简单策略来玩:
默认用谁?
什么时候切到 Full?
两个模型配合用的小套路:
如果你愿意给我一两条你经常用的 prompt,我可以帮你分析:
再次调研可以通过图片反推提示词,尤其是反推novelai生成图片的。
并且novelai的一个特点就是提示词中包含画师组合串
所以要关注反推的内容中是否包含画师的画风。
先给你一句人话版结论:
我按这两个场景,把跟 NovelAI 相关、比较靠谱的工具/网站给你分好类。
https://novelai.net/inspect (NovelAI)👉 实际效果:
这个不是“反推”,而是“读回官方保存的原始咒语”。
有几个专门针对 NAI 的小工具,可以离线/本地读出 NAI 写在 PNG 里的隐写信息或 tEXt chunk 信息:
NovelAI metadata Viewer(网页版)
“This tool does NOT upload images to the server. It runs in your browser.”(makeprompt.github.io)
naipng(Python 库 + CLI)
novelai-image-metadata / nai_meta.py(官方开源脚本)
nai_meta.py 可以从图片的 alpha 通道里提取 metadata(所谓 “stealth pnginfo format”)。(GitHub)NovelAI metadata viewer 派生工具 / ComfyUI 节点
novelai-metadata-viewer 网页(GitHub),基本上就是上面工具的可视化版。(GitHub)👉 这些都属于:只要 NAI 的 metadata 还在,就能百分之百读出原始提示词,画师组合串也一字不漏。
对纯官方 NAI PNG 来说,更推荐上面那一批“专门对 NAI 做适配”的工具;通用 PNG-info 对某些 NAI 版本/导出方式可能读不全。
如果图片已经被:
那基本 metadata 就没了,只能靠“图像 → 文本反推”来猜一个类似的 prompt。这里重点看哪些能帮你猜出画师组合/画风。
代表:
fffiloni/CLIP-Interrogator-2 (Hugging Face)clipinterrogator.org 等封装 (clipinterrogator.org)特点:
“分析图像并对 artists、mediums、styles 和 keywords 排名,给出高质量 prompt”。(NATURAL 20)
也就是说,它会很主动地在输出里塞:
by xxx, yyy, zzz, oil painting, digital art, anime style, ... 这样的画师 + 画风组合。👉 如果你的目标是:
希望反推出 “NAI 常见的画师组合串”,
然后把这些名字改成 NAI 的 tag 格式直接塞回 prompt 用,
那目前这一类是最合适的“反推起点”。
实操建议:
把图丢进 CLIP Interrogator,模式选 best 或 max flavors;(Hugging Face)
拿到结果之后:
by AAA, BBB, CCC 这种 artist 串分开;artist 那一段直接整理成 NAI tag,比如:
textAAA, BBB, CCC, ...
然后配合你自己写的细节(发型、服装、镜头等)再微调。
注意:它提到的“画师”,只是 CLIP 认为风格接近的那几位,不代表这张图真的是那个人画的,也容易出现“永远有 Rutkowski 一席之地”之类偏差,只能当风格参考,不适合作为“鉴定原作者”。
这类网站很多,常见的几家:
ImageToPrompt.cc / .com 等
JustBuildThings – Stable Diffusion Prompt / AI Image Analysis
ImagePrompt.org – Image to Prompt
和 CLIP Interrogator 的差异:
代表:
它做什么:
对“画师组合串”的帮助:
👉 总结:
画师A, 画师B, 画师C 这种组合串。这类工具不是直接从图里反推,而是帮你理解“某个画师 tag 的风格长什么样”,方便你假设/验证:
NovelAIv4-Style-Codex(GitHub 项目)
Artist Tags on NovelAI Boys(Carrd)
👉 这些可以配合“反推结果”用:
by A, B, C,你就去 Style-Codex 里看 A/B/C 的示例;按“对 NovelAI 画师组合串的帮助程度”给你排个梯队:
👉 只要是 NAI 正常导出的 PNG,这些工具会直接还原 原始提示词 + 画师组合串 + 所有参数。(GitHub)
假设你拿到一张图,想搞清楚/复刻它的“画师组合 + 其它 tag”:
先判断是不是 NAI 源图(自已或别人给的 PNG)
读不出 metadata(或是 JPG/压缩图)时:
by A, B, C, anime style。(NATURAL 20)A, B, C,(画师组合串)如果你愿意,可以把你现在手上最关心的一张图(或者链接)发给我,我可以按上面这套思路“模拟”一遍: