20人、零PM、90%代码由AI写——Palona AI的反直觉组织实验

Palona AI 联创任川分享 20 人 AI 原生团队实验:零 PM、零 SRE、90% 代码 AI 生成,Code Review 效率提升 144 倍,核心方法论是把「人」重新定义为「上下文提供者」。

Research Brief

「未来可能没有工程师,大家都是 Builder。」1
说这话的人叫任川(Kelvin Ren)。他是 Palona AI 的联合创始人,前 Google、LinkedIn 工程师,现在正用一支 20 人的团队,在没有全职 PM、没有 SRE 的情况下,构建餐饮行业的 AI Agent 产品。
这句话听上去像是 AI 狂热者的豪言,但他能给出一套具体的运作逻辑。
一位程序员在现代办公室专注编写代码,屏幕上高亮显示着代码行
一位程序员在现代办公室专注编写代码,屏幕上高亮显示着代码行

20人团队,拿掉了什么

2024 年 4 月,Palona AI 在硅谷成立,专注于为餐饮连锁客户提供 AI Agent 解决方案,2025 年 1 月完成约 1000 万美元种子轮1。团队规模大约 20 人。
大多数 20 人公司已经在头疼「人手不够」,Palona 的路数反过来——主动减人。
「20 人团队,没有一个全职 PM,零 SRE。」任川说得平静,但这对任何一个见过传统软件团队的人来说都算冲击。没有 PM 意味着什么?需求沟通、路线规划、与客户对齐这些事谁来做?没有 SRE 又怎么保证服务稳定?
他的答案是:这些工作,由工程师直接承接,由 AI 辅助完成。
任川把这描述为刻意的架构选择:减少「人与人之间的交互」,让决策路径更短。不是因为招不到人,而是觉得多余的协作本身就是问题。

Code Review 从 1-2 天压到 10 分钟

最能说明问题的是一个具体数字:Palona 的 Code Review 效率提升了 144 倍1
传统团队的 Code Review 需要 1-2 天——等待有空的同事、来回沟通上下文、回复评论。在 Palona,这件事压到了 10 分钟以内。背后的机制是把 AI 引入代码审查流程,让 AI 承担初步检查和上下文理解的工作,人只在关键判断点介入。
这不是孤立的优化,而是他们更大方法论的体现:90% 的代码由 AI 生成
两位开发者在屏幕前共同查看代码,一人指着屏幕上的代码讲解
两位开发者在屏幕前共同查看代码,一人指着屏幕上的代码讲解

人是「上下文提供者」,不是执行者

任川说的最关键的一句话是这个:
「应该是人为 AI 提效,而不是反过来——人是 Context Provider,为 AI 提供上下文让 AI 工作。」1
这个逻辑翻转了大多数公司「用 AI 给员工提效」的惯性思路。他说的不是 AI 帮你写代码,而是你的工作内容变成了「把任务背景、业务逻辑、质量标准喂给 AI」。人的核心贡献从执行(写、改、测)变成了描述(说清楚什么是对的、什么是重要的)。
所以「零 PM」背后其实有逻辑:如果工程师本身就在做「定义任务、注入上下文」的工作,PM 的很大一部分职能已经被工程师和 AI 分解掉了,并没有真空。

一条反直觉的经验

任川分享了一条他自己也觉得「反直觉」的实践心得:减少人与人之间的交互2
通常我们觉得团队协作越紧密越好。但他的观察是:在 AI 能够处理大量执行层任务之后,过多的人际协作反而成为决策瓶颈。每一次同步会议、每一轮评审等待,都是上下文传递的摩擦。与其靠人传递上下文,不如把上下文沉淀成 AI 能理解的结构,让 AI 完成传递。
听上去反常识。但仔细想想,AI 最怕的恰恰是上下文断裂——当人反复传递背景信息时,信息失真的概率也随之增加。减少人际中间环节,某种程度上也是在给 AI 减少噪声。Palona 目前 20 人的运转状态,至少证明这件事跑得通。

适用场景:这套打法适合谁

需要说清楚一点背景:Palona AI 是一家技术密度极高的 AI Agent 创业公司,团队核心成员几乎全是工程师,产品本身就是 AI 系统。这套「零 PM、零 SRE、AI 生成 90% 代码」的玩法,建立在一个前提上——团队里每个人都有能力直接和 AI 协作完成端到端的工作。
对于以下背景的团队,参考价值最大:
  • 种子到 A 轮阶段的 AI Native 创业团队,人手有限、不得不重新分配职能边界
  • 工程师背景的创始人团队,愿意且能够承接跨职能职责
  • 正在考虑是否引入 PM 或 SRE 的早期团队,可以先跑通「AI + 全栈工程师」模式再评估
对于规模更大、职能更分散的团队,「零 PM」可能会带来其他协作问题;但「把人定义为 Context Provider」这个底层逻辑,以及 Code Review 工作流的改造思路,几乎适用于任何规模的技术团队。
AI 原生组织最终指向一个问题:在 AI 能做到的边界不断扩张之后,人的不可替代性到底在哪里?按任川的逻辑,不是执行力,不是工具熟练度——是你能不能把「正确的事」说清楚。这比写代码难多了。

Add more perspectives or context around this content.

  • Sign in to comment.