大多数人每天使用AI的方式都是一样的:打开ChatGPT,输入问题,复制答案,关闭标签页。这不是工作流。这只是一个搜索引擎加了几个额外步骤。

真正的AI工作流连接多个工具,自动化重复部分,让你找回不知道自己浪费的时间。在过去一年测试了数十种设置后,我找到了一个框架,它能够持续节省每周10-15小时,而且不需要编码、付费订阅或计算机科学学位。

什么是AI工作流(为什么大多数人没有)?

AI工作流是一个可重复的AI辅助步骤序列,用于处理特定类型的工作。它不是"多使用ChatGPT"。它是结构化的,有明确的输入、输出和触发条件。

这样想象:你可能有一个处理电子邮件的工作流。你打开收件箱,扫描主题行,回复紧急消息,标记后续处理的项目,存档其余内容。你不再思考这些步骤。你只是执行它们。

AI工作流做的是同样的事情,除了AI处理你曾经手动完成的部分——起草回复、总结长线程、从附件中提取数据、格式化报告。

大多数人没有AI工作流的原因很简单:他们把AI看作单个工具而不是系统中的一个组件。一个提示,一个输出,完成。这对快速提问有效,但会留下巨大的价值浪费。

关键要点

AI工作流不是"多使用ChatGPT"。它是一个可重复的系统:明确的输入、结构化的提示、有方向的输出和定期审查。框架是捕获 → 处理 → 路由 → 审查。

四层框架

每个有效的AI工作流都遵循相同的四层结构。做好这一点是"AI有点有用"和"我真的无法想象没有它如何做这份工作"之间的区别。

第一层:捕获——如何将输入导入系统?

这是原始输入进入你的工作流的地方。电子邮件、会议记录、文档、数据导出、Slack消息——无论你的工作生成什么原始材料。目标:把所有内容转换成AI可以处理的格式。

1
会议 → 转录工具
使用Otter.ai、Fireflies或Granola之类的工具自动转录每次通话。Granola处理混乱、重叠的对话比我测试的任何其他工具都好。免费层每月提供25场会议。
2
电子邮件 → 批量处理
大多数电子邮件客户端现在原生支持AI摘要。如果你的不支持,将重要线程转发到专用文件夹,每周批量处理一次。
3
文档 → Claude的200K上下文
PDF和Word文件可直接放入Claude。对于任何不超过50页的内容,拖放即可——无需预处理。
专业提示

不要尝试捕获所有内容。选择消耗最多时间的2-3种输入类型并从那里开始。一旦系统运行,你可以稍后扩展。

第二层:处理——时间到底在哪里被节省?

这是大部分时间节省发生的地方。处理是指将原始输入转换为结构化和有用的东西。

来自我工作流的真实例子:每周一,我收到8-12份行业报告(PDF,总计约200页)。在使用AI之前,阅读和总结需要约4小时。现在需要20分钟。

流程:将批次上传到Claude,运行一个结构化提示来提取主要发现、市场数据变化、竞争对手动向以及与上周摘要相矛盾的任何内容。审查输出,标记任何需要更深入阅读的内容。保存结构化摘要。

这是单个任务上92%的时间减少。

关键要点

技巧不是魔法提示——是结构化提示。准确告诉AI你想要的输出格式、优先顺序和跳过内容。使用ICC框架:说明、上下文、约束。每次都这样。

使这个工作的提示模板:

说明:将这些报告总结成周情报简报。 背景:我在跟踪[行业]趋势用于[角色/目的]。上周的关键主题是:[粘贴3-4个要点]。 约束: - 每份报告最多500字 - 标记任何与上周发现相矛盾的数据点 - 使用此格式:[关键发现] → [意义何在] → [行动项] - 完全跳过方法论部分

那个提示,持续使用,把4小时的任务变成20分钟的审查。

第三层:路由——输出去哪里?

大多数AI工作流在这里崩溃。人们很好地处理信息,然后把所有东西倒入一个文档,再也不看它。

路由意味着将处理后的输出发送到正确的目的地:

会议摘要 → 项目管理工具(行动项变成任务)
报告亮点 → 团队Slack频道(周摘要格式)
电子邮件草稿 → 发件箱供发送前审查
数据提取 → 电子表格用于长期跟踪

连接一切的工具很重要。对于大多数人,最简单的选项是提示库——为你工作流每个步骤保存的提示集合,按任务类型组织。当你有15个不同任务的15个不同提示时,你需要在浏览器中访问它们,而不是埋在Google文档中。免费提示优化器是个开始——但按工作流阶段组织的完整提示库是长期目标。

第四层:审查——每个人都跳过的层

每个AI输出都需要人工审查。不是因为AI不可靠(虽然有时候是),而是因为审查是你捕捉错误、注意模式和改进工作流本身的地方。

1
每天(5分钟)
扫描AI生成的摘要以查找任何看起来不对的地方。标记不准确之处。这可以在问题到达其他人之前捕捉它们。
2
每周(15分钟)
批量审查该周的AI输出。摘要变得更好还是更糟?提示需要调整吗?
3
每月(30分钟)
审计完整工作流。什么有效?什么很慢?我还在手动做什么可以自动化的事情?

这个审查节奏是将静态工作流转变为随时间改进的工作流的原因。

哪个AI模型用于哪一层?

最佳模型 为什么
长文档处理Claude200K上下文窗口、精确引用
快速迭代任务ChatGPT (GPT-4o)快速,擅长来回交互
研究和事实核查Perplexity引用来源、最快验证
电子表格和Google工作区Gemini原生集成、更少复制粘贴

重点不是使用所有四个模型。而是为每个任务类型使用正确的模型,而不是强制一个工具做所有事情。有关更深入的比较,请参阅我们的ChatGPT vs Claude vs Gemini 分析

真实例子:内容研究到已发布草稿

这是我用于研究和起草文章的实际流程——包括这篇。

工作流前时间: 每篇文章约6小时
工作流后时间: 每篇文章约2.5小时

第一步——主题研究(30分钟 → 10分钟):将一批Reddit线程粘贴到Claude中,要求它识别没有令人满意答案的前5个反复出现的痛点。这暴露了我单独滚动永远找不到的角度。

第二步——大纲(45分钟 → 15分钟):生成包括目标读者经验水平的结构化大纲、同一主题上三篇竞争文章作为背景以及这些文章遗漏的具体差距。编辑5分钟——移动部分、添加要点、删除冗余。

第三步——章节起草(3小时 → 1.5小时):逐章节起草,使用AI进行第一稿,然后用我自己的声音改写。AI处理结构。我处理具体性、例子和编辑观点。我从不发布未经大量改写的AI生成文本。

第四步——编辑(1小时 → 30分钟):通过校对提示运行,根据来源检查所有声明,验证统计数据。总计:2,000字研究支持的文章需要2.5小时。这是58%的时间减少。

杀死AI工作流的5个错误

1. 一次自动化过多。从一个任务开始。让它可靠地工作。然后添加下一个。在第一天构建10步管道的人在第三天会放弃整个事情。

2. 不保存提示。如果你输入超过两次相同类型的提示,保存它。提示库不是可选的——是基础设施。

3. 忽视上下文窗口。往单个提示中塞入太多会降低质量。将大型任务分成连续步骤而不是一个巨大的提示。

4. 跳过审查层。未经人工审查直接进入生产的AI输出最终会让你尴尬。

5. 为任务使用错误的模型。模型有优势。匹配它们。使用快速模型进行深度分析会给你浅层结果。

关键要点

从AI中获益最多的人不是拥有最好提示的人——是那些围绕AI工具建立可重复系统并随时间改进这些系统的人。从一个任务开始。从那里构建。

你的第一周:从哪里开始

第1-2天:审计你的一周。追踪每个花费超过15分钟且涉及文本处理、总结、起草或数据格式化的任务。

第3天:选择单个最高频率、最高时间成本的任务。这是你的第一个工作流候选。

第4-5天:为那个任务构建工作流。编写提示。测试它们。保存有效的。

第6-7天:真正运行工作流。计时。记录什么会破坏。修复它。

下周,添加第二个任务。再下一周,第三个。在一个月内,你将拥有一个节省你真正有意义的时间的系统。

底线

想要更多这样的工作流?我们每周深入详细讲解一个AI工作流——工具、提示和确切的步骤。加入通讯获取它在你的收件箱中。

自己试试:将任何提示粘贴到我们的免费提示优化器中,看看结构化提示实际上是什么样子。