访问验证

请输入访问密码后查看商业计划书正文。

密码错误,请重试。

ClawMe

为大文本专业知识群体搭建的AI工作台,提供可溯源的知识引擎

ClawMe:Claw my knowledge

市场痛点:信息过载与”知识腐烂”

80%
专业知识处于结构坍塌状态

资料存入网盘后沦为”数据死海”,
无法跨文档建立深度逻辑关联。

通用大模型的”硬伤”

  • 无法容忍的”幻觉”风险 在严谨的学术研究或法律卷宗中,大模型常生成看似合理但实际不存在的案例,导致专业人群无法信任。
  • 阅后即焚的短时记忆 受限于上下文窗口,关掉对话框即遗忘。用户不得不反复上传资料,缺乏知识沉淀的复利。

核心定位:从”对话框”走向”知识内核”

当前:通用大模型

特征:流式输出,看完即走。 用户面对的是一个”对话框”。这本质上还是搜索引擎的变体,解决的是基础问答,缺乏长期知识的深层沉淀与资产化转化能力。

未来:AI 成为专业知识的执行引擎

特征:资产沉淀,异步协同,自动执行。 我们不是把 AI 做成一次性的对话工具,而是把分散资料加工成可持续调用的知识资产。持续增长的私有数据,才是未来人与人之间最大的区别,也是 AI 与 AI 之间最大的区别。系统通过语义切片、结构化关联和工具编排,让 Agent 在后台完成深度推理、信息检索与复杂执行。

产品架构

L1: 底座信息源(Data Input)
本地论文库/卷宗等
Notion/知识库
PubMed等外网
音视频转录
L2: 知识加工层(AI Processing)
智能语义切片
AI打标签
自动构建知识图谱
L3: 检索与召回层(Retrieval System)
混合多路召回引擎
向量语义
全文匹配
知识图谱
L4: 知识引擎层(Execution Kernel)
MCP协议
行业专属 Skills
通用 Skills
L5: 应用交互层(Application Endpoints)
学术 AI
律师 AI
OpenClaw
知识库MCP
Native 客户端

产品创新点:深加工与绝对溯源

Advanced Chunking
高级结构化切片

放弃大厂按通用硬切的粗暴方式,采用基于语义、章节、论文术语、法律条款层级的“智能切片”,从物理层面确保底层知识素材逻辑的连贯性与完整性。

Automated KG
自动化知识图谱

自动提取并构建人名、案例、化合物等实体网络。让存入的孤岛文档自动交织成网状神经连接的知识库。这就是真正的“数字第二大脑”。

Hybrid Retrieval
混合多路精确召回

结合“向量语义 + 全文关键词 + 图谱关系”进行三重检索。不依赖大模型死记硬背,每一句输出都可溯源至原文出处,从根源上遏制幻觉。

竞争壁垒:我们 vs. 通用大模型

通用大模型 (ChatGPT/Kimi)

记忆缺乏复利效应

受限于上下文窗口,处理长文本容易遗忘。用户关闭页面后资产清零,无法建立长期的个人/企业级专业壁垒。

封闭的聊天框生态

必须进入大厂的网页聊天。无法深度嵌入院校实验室、顶尖律所的本地工作流与机密内网数据环境。

我们的知识工作台

资产沉淀带来极高迁移成本

基于 L2 加工层,存入论文和卷宗会不断生长为庞大的知识图谱。用得越久,AI 越像用户自己,迁移成本极高。

混合检索,每句话可溯源

不依赖大模型死记硬背,而是基于精确召回的原文片段进行推理。输出附带出处引用,让专业用户可验证、敢信任。

市场验证:Obsidian 证明了什么

400万+
用户
$25M
ARR (预估)
9 人
全职团队

它验证的核心命题:

知识工作者愿意为"数据所有权 + 可扩展性"付费。

它的成功不靠协作套件,不靠 AI 叙事,而靠一套极少妥协的产品原则 — 本地优先、数据可控、生态开放。

我们与 Obsidian 的关系

共享的价值观

本地优先、数据属于用户、模型/平台中立、插件生态开放

关键差异

Obsidian 让用户"手动连接思想" — 它是空白画布,用户自己搭系统
我们让 AI "自动连接知识并执行" — 自动切片、建图谱、推理、产出

我们的机会

Obsidian 服务"愿意手动搭系统的极客"
我们服务"没时间搭系统但同样需要知识资产化的专业人群"

AI Hub

Model-Agnostic (模型中立架构)

作为应用层,我们不造大模型,而是做最聪明的调度器。无论哪家发布了最强模型,我们都能 24 小时内接入。

智能动态路由

根据任务难度自动分发:极度复杂的逻辑调度 GPT5.4/Claud4.6;超长文本总结调度 DeepSeek/Kimi;基础切片调度开源小模型。降低综合算力成本

隐私分层管理

针对医疗记录、未发表论文、机密卷宗,系统可自动路由至用户本地AI大模型(如 Gemma)处理,彻底切断公网数据泄露风险。

目标客群:避开红海,深耕高价值

  • 科研学术工作者
  • 法律/合规专业人士
  • 金融研报与分析师
  • 公务员

不做纯 C 端产品(如ima,get笔记)竞争,精准锁定对“错误零容忍”且具备“极高付费能力”的 Prosumer (内容生产和消费)群体。

商业模式:可持续的收入矩阵

Pro 订阅制 (SaaS)

面向独立律师、研究员。提供优先算力路由,高容量云端知识库以及基础通用 Skill 插件库的使用权限。打造高客单价现金流。

MCP 生态抽佣

长线愿景:开放底层平台,允许行业专家开发特定领域插件(如: 某专利侵权分析 Skill),形成类似App Store的应用抽成生态。

企业私有化部署

面向国内院校,专家团队,国家级科研实验室、律所。提供物理服务器打包与本地工作台部署,收取部署与年度维护费。

当前进展与后续规划

当前验证数据

累计营收
¥120K+
付费转化率
12%

这说明用户不是停留在“尝鲜 AI”,而是愿意为知识资产沉淀、检索效率与专业生产力持续付费,产品已经完成初步商业验证。

下一阶段重点

继续优化本地知识库检索
持续提升本地知识库的召回准确率、检索速度与结果可解释性,让长文本和专业资料的调用更加稳定可信。
扩展知识库入口与触手
增加网页收录、移动端收录,以及各类文库和网盘导入能力,让用户更低成本地把分散知识沉淀进统一工作台。
强化知识资产化闭环
从“导入 - 加工 - 检索 - 调用”形成完整闭环,进一步提高留存与复购,为后续规模化增长打基础。

融资计划与估值逻辑

天使轮融资方案 (Angel Round Ask)

目标融资金额
$3.0M
出让股权
10%
投后估值
$30M

基于单一客群的 Bottom-Up 估值验证

中国大文本群体 (以高校教师/教授为例) ~2,000,000 人
极早期市占率目标 (仅 1%) 20,000 人
预期年客单价 (ARPU) $300 - $500 / 年
保守年经常性收入 (ARR) $8,000,000
“我们不是笔记应用。
我们打造的是垂直领域即开即用的知识引擎”
— 核心商业逻辑