吴恩达:产品管理又一次成为了效率瓶颈。过去硅谷习惯1:7或1:4产研比例,随着AI对工程的提效,已经逐渐不满足实际需求,产品管理(决定做什么)效率成为整个团队的瓶颈。团队内有人甚至提出了1:0.5的比例。

前段时间看到吴恩达的演讲里提到AI和产品管理,最近工作中也在提倡多使用AI工具,针对这个问题引发了一些思考。

跟我个人体验相符,经过一段时间的尝试,可以说现有的AI工具在产品管理方面的帮助有限。从AI整体来说,虽然对产品经理日常一些信息检索、文档撰写和整理有一些帮助,但同时也给产品经理带来了新的工作——应对AI大范围滥用可能造成的问题(如风控、内容审核等)。

目前的问题在哪?

在精准描述的前提下,LLM可以做一些分析,提供新的信息、视角。最终的决策权衡,还需要人的思考和判断,尤其是强业务属性、强监管的领域。几个老生长谈的问题:

  1. 上下文(Context) 已有的业务包含着海量上下文信息,影响决策。没人能掌握所有Context,且存在大量隐性的、非文本化的、难以被语言精准描述、甚至是灰色的内容。完全掌握并精准投喂给AI基本不可能。

  2. 成本(Token Cost) 目前还是太贵。长对话的情况下,模型的每次输出都需要再把之前所有的上下文信息拿过来一起参与计算,成本是平方级增加的(O(N²)、Transformer的注意力机制)。目前的计算成本,无法支持太长的上下文。

  3. 累积误差(Compounding Error) 在自动化多步骤任务中(Agents),每个步骤的错误会累加,导致最终结果的错误率高到难以接受。如果一步操作正确率99%,10步操作结果正确的概率即99%^10≈90%,100步99%^100≈37%。

  4. 可解释性(Interpretability) 模型输出不可解释,影响信任度。就算输出可投产,也依赖大量测试和控制。

问题能否解决?

或许可以通过提升硬件计算效率、架构优化等方式逐渐解决前两个问题,后两个问题不会被消除。但只要实际测试效果达到可接受水平,就可以投入应用。工程层面并不一定要求完美。就像我们并不完全了解湍流的数学本质,但依然可以用大量的风洞实验吹出可用的飞行器。 基础条件具备后,或许可以从0开始构建「AI Native」模式的产品:第一天起,就保证所有业务逻辑、法规法规、产品决策、日常沟通、Code Base等全部信息显性化并投喂给模型,作为所有人的「秘书」,捕捉所有信息,参与所有决策,逐步替代人工。或许这种情况下模型才可以真正在「管理」工作方面起到足够大的辅助作用(甚至替代)。 对已有业务,几乎不可能在「修车不熄火」的情况下完成这种级别的范式重构。可能不如直接「AI Native」重写来的更高效。

可以做哪些准备?

目前的AI短期内还是只能在很具体的微观任务上起到帮助作用。或许现阶段更应该探索的是,对产品管理工作流进行足够详细的拆解和抽象,非关键决策的流程尝试用AI工具进行提效,让产品经理的时间更多的花在前瞻性、创新性的事情上。 碳基脑子执行这类任务的效率简直高到离谱,瓶颈在IO;但硅基脑子在IO方面遥遥领先。碳基脑子需要提升沟通效率,硅基脑子需要投喂Context。都依赖高质量的数据。 或许可以先做准备:重视知识库建设,让所有信息和知识显性化、结构化;建立「共识词典」,在团队内部固化每个概念、名词的严谨含义,摒弃各类模糊空间。所有人好好说话,避免假大空的文字。适当减少IM在协作中的使用,鼓励用邮件、文档等严谨、高信息密度的形式协作。这些都会降低碳基脑子IO效率,隐藏和模糊问题,造成信息失真;还会大幅增加硅基脑子的Token Cost —— 费时又费电。