最近看到 @数字生命卡兹克 分享了一个他用了两年的深度研究 Prompt,号称半小时能搞懂任何陌生领域。我仔细读完后,觉得这套方法论确实有东西——不是那种"万能模板"式的心灵鸡汤,而是一套真正可操作的研究框架。
这个Prompt在解决什么问题?
大多数人在面对一个陌生领域时,最常见的做法是:搜一堆文章,东看西看,花三五天建立一个模糊的认知。问题不在于信息不够多,而在于没有一个结构化的提问框架——你不知道该从哪些角度去切入,信息之间也串不起来。
卡兹克的解决方案叫「横纵分析法」,本质上是把语言学和社会科学里经典的研究视角(索绪尔的历时/共时分析、纵向/横截面研究)抽离出来,封装成一个 AI 可以直接执行的 Prompt。
这个思路本身就很聪明:好的 Prompt 不是让 AI 随便回答,而是把人类已有的方法论编码进去,让 AI 按照经过验证的框架去执行。
两条轴到底在追什么?
纵向:时间深度
纵向分析要求 AI 沿着时间线,把研究对象从诞生到现在的完整故事还原出来。不是罗列年表,而是要讲清楚每个关键节点背后的决策逻辑——为什么选了 A 而不是 B?当时的约束条件是什么?
这一点非常关键。很多研究报告的问题是"知道发生了什么,但不知道为什么"。比如你研究 Cursor,如果只知道"2024年发布了 Composer 功能",那只是信息搬运。但如果能理解为什么 Anysphere 在那个时间点选择做 Composer、当时竞品在做什么、这个决策背后的技术赌注是什么,你才真正理解了这个产品。
横向:同期广度
横向分析是在当下时间点做切面,把研究对象和竞品放在一起比。但这里有个细节设计得很好——它区分了三种场景:
- 无直接竞品(新品类/独占领域)→ 分析为什么没有竞品、潜在竞争者可能从哪冒出来
- 少量竞品(1-2个)→ 逐一深入对比
- 竞品充分(3个以上)→ 选最有代表性的 3-5 个展开
这个分场景处理的设计比"请对比所有竞品"要高明得多。现实世界里很多东西确实没有直接竞品,硬比反而会出问题。
交汇:真正的洞察
最有价值的部分是最后的「横纵交汇」——把纵向的发展脉络和横向的竞争格局交叉起来看。卡兹克的原话说得很精准:
纵向告诉你它是怎么走到今天的,横向告诉你它今天站在哪。两条轴一交叉,你就能看到一些单独看任何一条轴都看不到的东西。
举个具体的例子。假设你在研究新能源汽车电池技术:纵向看,你发现某家公司早期押注了磷酸铁锂路线,当时行业普遍认为能量密度不够、不主流;横向看,它当前在成本控制和安全性上优于多数三元锂竞品。交汇分析则能揭示:这个成本优势正是源于当年那个不被看好、但如今被证明是务实的"保守"技术路线选择。 单看纵向只会觉得"它选了磷酸铁锂",单看横向只会觉得"它成本低",只有两条轴交叉,才能看到因果关系。
为什么这个Prompt比大多数"研究模板"好用?
我见过太多所谓的"深度研究 Prompt",本质上就是让 AI "请从背景、现状、趋势三个角度分析xxx"。这种 Prompt 的问题是颗粒度太粗,AI 会给你一个泛泛而谈的八股文。
卡兹克这个 Prompt 的优势在于:
-
每个维度都有具体的执行指令。不是"分析一下历史",而是要求追溯起源、梳理演进历程、还原决策逻辑,而且明确要求"不要写成干巴巴的年表"。
-
写作风格有明确约束。要求"叙事驱动,不是罗列驱动"、"用人话写"、"避免咨询公司式套话"。这一点很多人忽略,但其实 Prompt 里对输出风格的约束,直接决定了你拿到的报告能不能读得下去。
-
篇幅有自适应机制。纵向分析 6000-15000 字、横向 3000-10000 字、交汇总结 1500-3000 字。它不是拍脑袋定的数字,而是根据研究对象的复杂度动态调整——历史越长越详细,竞品越多越展开。
-
对不确定性的诚实标注。要求"如果某些信息无法确认,明确标注为推测"。这一点在 AI 生成内容中尤为重要——你必须知道哪些是事实、哪些是模型推测的。
社区反馈:近 8000 star 意味着什么?
这个 Prompt 背后的 GitHub 仓库上线不到一个月,已经收获了 7994 个 star 和 1184 个 fork。在 AI 工具类仓库里,这个增速相当惊人。
从社区反馈来看,用户评价集中在几个点:
- 上手门槛低:只需改一行「研究对象 = xxx」就能用,不需要理解复杂的 Prompt 工程技巧
- 报告可读性好:卡兹克在 Prompt 里加入了写作 Skill 的风格约束,出来的报告不像咨询公司的八股文,更像是"能从头读到尾的深度报道"
- 适用范围广:从技术概念(MCP 协议、RAG)到公司分析(Anthropic、字节跳动),从游戏(洛克王国)到时事(国际关系),都能用同一套框架
社区也暴露了一些值得注意的问题。比如有用户在 issue 中指出,Prompt 里用了"当前时间"这样的绝对表述,容易导致模型硬编码日期——后来仓库做了修复,改为相对时间描述。这说明再好的 Prompt 也需要在实际使用中持续迭代。
实际使用建议
模型选择很重要。 它需要支持 Deep Research / 深度研究功能的模型才能发挥最佳效果,比如 ChatGPT 的 Deep Research、Claude 的深度研究模式、豆包的专家模式、DeepSeek 的专家模式。这些模式会真正联网搜索、交叉验证,一次任务通常 10 分钟以上,出来的报告质量明显高于普通联网搜索。如果只用普通联网搜索的模型,不到一分钟就出结果,效果会大打折扣——这是卡兹克自己也坦诚承认的局限。
研究对象的定义要精确。 "AI" 太宽泛,"Claude Code 的终端集成能力" 就好得多。Prompt 的效果跟研究对象的颗粒度直接相关——越精确,纵向的故事线越清晰,横向的竞品对比也越有针对性。
报告是起点,不是终点。 这个 Prompt 能帮你快速建立认知框架,但它替代不了深入的、亲自下场的研究。最好的用法是:拿到报告后快速通读建立框架,然后针对感兴趣的点再去深挖。卡兹克自己的说法是:"横纵分析法生成的 AI 报告 + 自己深挖的组合,比从零开始的效率高太多了。"
已收录到提示词库
这个 Prompt 已经收录到了本站的提示词库,可以直接查看和复制:
如果你用 Claude Code 或 Codex 这类 Agent 工具,卡兹克还把这套方法论封装成了一个叫 hv-analysis 的 Skill,装上之后直接说「帮我研究一下 xxx」就能自动执行,还支持联网搜索和 arxiv 论文查询,最后会生成一份排版好的 PDF 报告。完整开源仓库在 GitHub 上可以找到。
说实话,看到这个 Prompt 的时候,我欣赏的不只是模板本身。模板谁都能写,但把人类积累的系统性研究方法论(历时/共时分析、纵向/横截面研究)提炼出来,用 AI 能理解的方式重新编码——这个思路本身值得思考。
Prompt Engineering 有很多方向:有人在研究怎么精确控制输出格式,有人在探索多轮对话设计,有人在优化 Agent 的工具调用。卡兹克走的是另一条路:把人类已有的思维框架变成 AI 可执行的结构化指令。这两种方向并不矛盾,但后者往往被忽略——大家都在琢磨"怎么让 AI 更听话",却很少有人思考"人类已经有哪些好的思维方法,可以借 AI 之力大规模执行"。
卡兹克说得好:这个时代做研究,真正稀缺的不再是信息,而是你对这个世界有多好奇。而一套好的研究框架,能让你的好奇心以更高的效率落地。
原文作者:@数字生命卡兹克 原文链接:微信公众号
评论 (0)
发表评论
请先登录后发表评论