AI时代,软件从数据库开始
未来的软件形态是 Agent + 数据库。没有前后端中间商,Agent直接CRUD。数据库技能相当保值,而 PostgreSQL 会成为 Agent 时代的数据库。
SaaS已死?软件从数据库开始
AI行业近年大爆发,生成式模型席卷各个领域,仿佛不谈AI就落伍了。然而软件的世界终究是从数据库开始的。微软 CEO 纳德拉在公开访谈中表示:在 Agent 时代,SaaS is Dead,而未来的软件形式将是 Agent + Database 。
“…I think, the notion that SaaS business applications exist, that’s probably where they’ll all collapse, right in the Agent era…”
— Satya Nadella https://medium.com/@iamdavidchan/did-satya-nadelle-really-say-saas-is-dead-fa064f3d65d1
“对于 SaaS 应用,也就是各类企业软件,这确实是个至关重要的问题。进入 Agent 时代之后,传统‘业务应用’这一层大概率会被压缩乃至消解。 为什么?本质上,这些应用就是一张 CRUD 数据库外加一堆业务逻辑。 而这些业务逻辑今后都会迁移到智能 Agent 中 —— 这些 Agent 能跨多库 CRUD,不会在意底层是什么后台,想改哪张表就改哪张表。 逻辑一旦全部上移到 AI 层,人们自然就会开始替掉后端,对吧?”
这个观点一出,业界一片哗然:难道几十年来我们习以为常的软件中间层要被挤掉,只剩智能 Agent 直接对话数据库了吗?如果你使用过一些 Vibe Coding,或者 MCP 桌面端,就能理解纳德拉想说什么。 你可以在 Claude / Cursor 中直接通过对话来访问像 PostgreSQL 这样的数据库。让 AI 根据你的问题,生成查询,处理并整合结果。在一些比较简单分析场景中,它的表现已经超出我的预期了。
在未来,当所有应用的逻辑都移动到 AI Agent 层后,能坚挺地留在后端撑场子的,也就是数据库了。 今天,老冯就来和大家聊聊,为什么在AI浪潮下数据库依然是那个“定海神针”,同时也探讨AI时代软件开发哪些技能会贬值、哪些依然保值,并展望 Agent 时代,哪些数据库能够笑到最后。
Agent + DB:AI时代中间商消失
曾几何时,我们习惯了在应用里点点点,然后后台服务器去查询数据库、执行逻辑,再把结果返回前端给我们看。在这个过程中,应用本身其实是用户和数据库之间的“中间商”。但在AI时代,这个中间商正面临失业危机——智能代理可以直接跟数据库对话,把中间那层壳子拿掉。
想象一个生动的例子:订机票。传统流程是用户打开订票网站或App,填写日期地点,前端把请求发给后端,后端调用数据库或第三方API查航班,再把结果包装成网页返回给你。在整个过程中,浏览器或者 APP充当了中介。然而在Agent+Database的新形态下,你也许只需要对着你的AI助手说:“帮我订下周一去东京的最便宜的直飞航班,靠窗座,谢谢!”
接下来像魔法的事情发生了:这个AI Agent 会自动去几个航空公司的数据库或接口抓取航班数据,比价筛选,直接在数据库里下单锁座,然后给你回复:“搞定啦,电子机票已发邮箱。” 整个过程几乎没有传统意义上的前端界面—— AI Agent 本身就是界面,它替你完成了以前由多个软件系统串联才能完成的工作。
当然,符合大部分用户想像的 AI Agent 可能是那种 RPA Computer Use Agent,就是 AI 替你去移动鼠标敲键盘,通过网站或者 API 去请求服务。但是如果我们考虑理想的终局状态 —— 那些网页界面都是给人用的,机器其实不需要这么麻烦,完全可以绕过所有的前后端,直接操作最核心的东西 —— 数据库。
当然,现实中完全去掉中间层还需要解决安全、权限等诸多问题。不过大方向是高度确定的。应用逻辑越来越多由AI Agent 驱动,数据库则成为这些AI的“原料仓库”和“工作台”。在这个新范式下,数据库不但没被边缘化,反而因为直接面对AI请求而地位特殊。
纳德拉说的正是这种 Agent 直连数据库的终局状态。在 AI 时代,“没有中间商赚差价”不再只是段子,而是可能成为现实:中间应用层被压缩甚至消失,AI直接对接数据库完成任务。Agent 就像全能的小秘书,各家数据库成了它手里的工具箱。听起来很科幻?其实趋势已经很明显了:最近 MCP 爆火不过是 Agent 时代的前奏。
我听陆奇博士说过,比尔·盖茨其实几十年前就已经判断出软件领域的最终形态是 PDA (个人数字助理),当然几十年前受技术条件限制,手持好记星文曲星式的 PDA 肯定离着 AI 数字秘书差着十万八千里。但现在,这个愿景已经完全具备实现的技术条件了。当下爆火的 MCP 不过是 Agent 时代的前夜,而 Google 发布的 ADK,A2A 则可能才刚刚拉开 Agent 时代的序幕。
数据库为什么不会过时?
有人或许担心:AI都这么智能了,会不会有一天不需要传统数据库,让 AI 直接生成就行?这个想法听上去很酷,但实际情况是模糊智能系统无法取代精确的数据库系统,原因有很多:
1. 模糊系统 vs 精确系统: 大型语言模型本质上是概率模型,擅长处理不确定性和模糊问题,但让它们记住精确事实可不容易。在这一点上,它跟人类有着一样的缺陷 —— 都是模糊系统。人脑再好使,问题复杂了也需要求诸于计算器,Excel,数据库等 精确工具。无论AI多聪明,它要给出靠谱的结果,背后还是得有准确的数据支持,而数据库擅长的正是精确存储和检索。AI生成一段文本可以有点小误差无伤大雅,但要是涉及订单数量、财务报表这些严肃数据,一丝偏差都可能酿成大祸,这时候还是得靠传统数据库的精确性来保障。模糊AI负责智能推理,精确数据库负责事实基石,两者是互补而非互斥关系。
2. 没有数据库,AI就是无源之水: AI需要海量数据作为原始生产资料,这是显而易见的道理。计算机领域有句老话:“Garbage In, Garbage Out(垃圾进,垃圾出)”,在AI时代依然是真理。如果喂给AI模型的数据源本身质量堪忧,那AI只会加速吐出垃圾结果。这意味着企业越依赖AI决策,就越需要高质量的数据来训练和提供给AI调用。数据从哪儿来?还不是从各种数据库和数据仓库里来!正如业内所强调的:AI系统只能达到其所用数据的水准。因此,数据库作为数据的载体和提供者地位不降反升。哪怕未来最先进的AI代理,上线第一天也得先连接上你的数据库取数,否则就是个巧妇难为无米之炊的空架子。
3. 信息的可靠存储与可信度: 人类社会早就明白保存信息的价值。尽管人类可以“口耳相传”,但记忆容量有限,传承会模糊走样。从商周铸鼎刻字、甲骨铭文,到史官笔录春秋,再到印刷术和现代的图书馆档案室,我们一直在追求更可靠、更长久的存储方式。数据库正是信息社会的“鼎”和“史册”。它承担着记录和保管的重要职责,是当代的“数字档案库”。LLM 可以用有损压缩的方式模糊记住主要的知识,但精确保留的原始实时记录依然还需要外部存储。只要人类还重视信息的可靠存储和可信度,数据库的重要性就不会消失。
说到底,问题的关键在于 LLM Agent 替代的是“人”本身,而非人使用的工具。当然肯定有人会问前后端开发也是工具,为什么就数据库这个工具不一样呢?那是因为要解决存储与记忆的问题,无论是人类还是大模型 Agent,都需要使用数据库,这是解决问题的需要面对的本质复杂度。然而本质上来说 LLM/Agent 并不需要这些 给人使用的中间工具 来操作数据库,它本身就拥有这样的能力,这些对 Agent 来说属于无谓的额外复杂度。
当然我们不排除以后会出现一种将数据库直接融入大模型中的新物种(比如沙丘中的人肉计算机“门泰特”,用模糊系统来仿真精确系统),可以直接将数据存储在模型权重中并实时更新,动态调整,让现在的数据库“过时”。但起码对于最近十几年来说,依然是遥远的设想而已。
IT技能:哪些贬值,哪些保值?
我最近重新做了 Pigsty 的官网。整个过程就我一个人,全是我靠嘴来说,Cursor 来脑补,最后摇个 Gemini 2.5 来画图。我想找个前端大手子帮我美化一下,大手子说,我也只能做到这个水平了。他要价 1000 ¥/页面,而我耗时十几分钟靠嘴实现了这样的效果。另一个例子是文档翻译,在三年前,我花了五千块找了个计算机研究生,帮我把三十多份文档从中文翻译成英文。而现在一个翻译工作流,半个小时就能信达雅的将中文内容翻译成各种语言。
AI 带来的生产力提高是非常惊人的,但反过来说,AI 消也灭掉了很多工作岗位,比如翻译,插画师,前端UX 等。你可以说,细分领域 1% 的头部专家永远有饭吃,但 99% 的工作岗位被铲平了,基本上也就意味着这个行业被 AI “替代”掉了。
让许多人震惊的是,AI 最先替代的并不是传统意义上很多人设想的体力劳动或一般性脑力劳动,而是高创造性的领域。例如,创造 AI 的软件工程师/程序员本身就在 AI 时代面临着巨大的冲击。
随着 Anthropic 的 Claude Code Agent 代码泄漏,各种代码 Agent 已经出现了百花齐放。中低级程序员目前已经接近团灭状态,UI / UX 哭晕在厕所,前后端岌岌可危。很多技能在 Vibe Coding 面前快速贬值 —— 几年经验的程序员,被 20 $/月的 AI Agent 打翻在地。不过总的来说,尽管程序员本身受到 Code Agent 的巨大冲击,但好在其他行业还在补数字化的课,程序员作为平均最熟悉 AI 的群体,起码不至于像翻译/插画那样跳崖式塌方。
那么什么 IT 技能最保值呢?在这个剧烈变化的时代中,有一项技能依然稳如老狗,那就是数据库。 AI 行业现状发展瞬息万变,跟之前前端领域有一拼,刚学的新花样很可能过两个月就过时了。反而是几十年前的数据库设计,建模,SQL 等知识在几十年后依然硬朗坚挺。并且按目前的发展势头,还会在 AI 时代继续坚挺下去。未来掌握数据库和数据工程技能的程序员,会更加抢手。而纯粹只会切图写页面、不懂业务数据的人,饭碗可能就危险了。
AI 时代,哪些数据库有机会
那么,哪些数据库值得学习呢?
展望未来数据库江湖,在AI和新应用需求的冲击下,胜出的将是那些满足 Agent 需求的数据库 —— 当然老冯懒得说一些正确而无用的冠冕堂皇屁话 —— 没其他数据库什么事儿了,基本上就是 PostgreSQL 了。
首先,OpenAI 用的是什么?PostgreSQL。然后,Cursor 用的是什么?PostgreSQL,此外,还有 Dify,Notion,Cohere,Replit,Perplexity,你会发现,新一代 AI 公司的数据库选型惊人的一致。Anthropic 虽然没有公开说他们用什么,但是 MCP 的例子里大剌剌摆着 PostgreSQL 作为除了文件系统之外的第二个例子,就很能说明问题了。
而 Cursor 的 CTO Sualeh Asif 在斯坦福 153 Infra @ Scale 上的演讲说的更直接(https://www.youtube.com/watch?v=4jDQi9P9UIw )
用 Postgres 就行了,别整那些花里胡哨的东西。
大家选择 PostgreSQL 原因很简单, PostgreSQL 可以在一个数据库里解决所有问题:关系型数据,向量数据,JSON文档数据,GIS 地理空间数据,全文检索词向量与倒排索引数据,图数据,甚至还有 OLAP 分析性能比肩 CK 的 DuckDB 列式存储引擎。而这种多模态的能力正是 Agent 复杂多面需求所需要的终极 All-In-One 解决方案:如果你能通过 PG 扩展用一行 SQL 解决千行代码才能解决的问题,那么就可以极大降低 LLM 的心智负担,智力要求与 Token 消耗。
PostgreSQL 生态 + pgvector 俨然成为 LLM-驱动产品的“默认安全牌”。pgvector 在很多人印象里只是 PG 生态中的一个扩展,实际上直到 OpenAI Retrivial Plugin 带火向量数据库赛道之前,这还都属于个人兴趣项目。然而在 PG 社区生态的合力下,例如 AWS ,Neon,Supabase 都砸入了大量资源改进它,让他从六七款 PG 向量扩展中脱颖而出,在一年时间内实现了 150 倍的性能改进,将整个专用向量数据库赛道变成了一个笑话。 —— 即使是专用向量数据库中最能打的 Milvus,也无法撼动这一点:它不是在跟某个 PG 社区爱好者打擂台,而是跟 AWS RDS 团队和好几个精英团队在拼资源 … )
当然,我认为 SQLite 也会在 Agent 时代进一步大放光彩,当然 PG 生态也有 PGLite/DuckDB 来这个领域竞争。
当然最后是老冯的广告时 间。PostgreSQL 是个好数据库,但想用好这个数据库其实并不容易。无论是天价的 RDS 还是稀缺的 DBA,对许多用户都不是一个可选项。但比起手工土法自建来说,我们提供了一个开源免费的更好选择:开箱即用的 PostgreSQL 发行版 Pigsty,打包了 PG 生态所有能打的扩展插件(当然 pgvector 必须默认安装),让你一分钟,几条命令就从一台裸服务器上拉起生产级的 PostgreSQL RDS 服务。如果你需要专家的服务支持,我们提供可以摇人兜底的付费订阅选项~:但软件本身是开源免费不要钱的,纯属做做公益,交个朋友,希望能够帮助大家用好 PostgreSQL。