小红书内容创作 AI 工具

薯脑Rmind

把值得学习的爆款博主
变成你的随身顾问

多模态数据收集+LLM 结构化解码+Prompt Engineering 迭代

250+
爆款笔记
1.2w+
互动数据点
5
位博主 Agent
5
个品类

为什么做薯脑Rmind

访谈了 8 位刚起号的小红书博主,她们说——

陪跑太贵,学不起

找了个博主陪跑,一次 3000,跑了两次感觉也没学到什么。我就是个想副业的打工人,哪来这个钱

— 美妆博主,起号 2 个月

身边有个朋友找了陪跑老师,每周一次,一年花了快两万。我看着她的内容也没比我好多少。这钱花的太冤了

— 穿搭博主,在职备考
看不懂数据,不知道该怎么办

千瓜我买了三个月,看了一堆折线图,就是不知道这跟我自己有什么关系。数据挺好看的,但我不会用

— 美食博主,宝妈

我会刷爆款,会截图,记了 200 条标题。但轮到自己写的时候,完全空白。我缺的不是素材,是判断力

— 生活博主,起号 45 天
AI 写稿太生硬,发不出手

ChatGPT 帮我生成的文案,一眼就看出来是 AI 写的。我的粉丝又不傻,我自己都尴尬,根本不敢发

— 家居博主,想副业

我想学的是某个博主说话的感觉,不是让 AI 凑字数。我需要的不是模板,是那个人的思路

— 珠宝博主,职场新人

薯脑Rmind 核心价值

产品想解决的三个核心问题

让对标变得可对话

传统对标工具只给你数据和排行榜。薯脑Rmind 让博主本身成为你随时可以提问的导师,而不是一张静态的分析报告。

从方法论到个性化建议

爆款公式千篇一律,你的困境独一无二。薯脑Rmind 基于你的真实情况给出专属建议,而不是套话式「要做好人设」。

降低门槛,让好的指导不再是奢侈品

过去只有付得起几千块陪跑的博主才能得到专属指导。现在每个新人都能拥有自己的博主导师,随问随答。

薯脑Rmind 产品定位

小红书博主工具现状分析

数据导向对话导向个性化定制通用方法论新红 / 千瓜数据 / 灰豚数据提供博主数据报表,用户自己解读蝉小红定制分析报告,但仍是静态数据ChatGPT / 通用 AI能对话,但不了解小红书生态薯脑Rmind

目标用户

刚起号 0~3 个月的小红书新手博主。她们有内容生产意愿,但缺乏判断力个性化指导,付不起高价陪跑,也看不懂复杂的数据分析平台。

核心价值

把原本复杂的博主数据,通过对话式 Agent 重新呈现——随时提问、随时获得专属回答,像身边有个懂小红书的朋友。降低理解门槛,不再需要懂数据分析,只需要说出你的困惑。

市场上缺少一款把「博主 Know-how」与「对话式 AI」结合的工具。薯脑Rmind 填补的,是「像你最喜欢的博主一样思考,用你最熟悉的方式被指导」这个空白。

薯脑Rmind 工作原理

从博主笔记到Agent个性化对话

STEP 01 · 数据解码管线

基于开源项目 blogger-distiller 构建数据采集与解码管线。对每位博主:

扫码登录小红书,抓取最近 50 篇公开笔记,提取标题、正文、评论、点赞、收藏、发布时间等 23 个维度数据。通过 K-Means 聚类识别博主的内容主题分布,利用 LLM 结构化提取从笔记原文中抽取博主的价值观、口头禅、选题偏好、标题公式等,产出包含 10 个章节的 SKILL.md 档案。

「脚本保下限,AI 冲上限」的架构——用规则保证数据可靠,用 LLM 挖掘深度洞察。

原始笔记(50篇)
数据清洗 · 23维提取
主题聚类(K-Means)
LLM 结构化解码
SKILL.md 档案(10章节)

STEP 02 · Prompt Engineering 迭代

从硬编码人格到泛用 wrapper,5 轮迭代

让 AI 像某位博主一样说话,不是把 SKILL.md 塞进 Prompt 就完事。经历了 5 轮 wrapper 迭代,核心问题是:

v1 直接硬编码人格 → 每个博主都要手写,不可扩展;v2 加三层穿透结构 → 回答变成报告,失去对话感;v3 引入任务映射表 → 解决了信息过载;v4 语气来源约束 → 解决了「所有博主都说家人们」的 AI 感;v5 泛用化 wrapper → 适配任意 SKILL.md 档案,当前版本。

版本核心改进遗留问题
v1硬编码博主特征不可扩展
v2三层穿透结构丧失对话感
v3任务映射表语气仍不准
v4语气来源约束仅适用单一档案
v5泛用化 wrapper当前版本

STEP 03 · Agent 运行时架构

用户的每一次提问,经过怎样的链路

用户输入问题 → 前端发送至 /api/chat → 服务端加载对应 SKILL.md → 与 wrapper 拼接生成 System Prompt → 注入 <skill_document> 标签包裹的档案内容 → 调用 Claude API 流式响应 → 逐字符返回前端。

首字符延迟控制在 800ms 以内,流式响应确保用户不会感受到等待。

用户输入
Next.js 前端
/api/chat 路由
读取 SKILL.md + wrapper
拼接 System Prompt
Claude API(流式)
返回前端 · 渐进显示