Skip to main content

AI的效果悖论/骗局

现象

看起来现在的大模型已经无所不能,LLM的语言能力,nano banana的图像,Sora的视频等等

能生成几乎是任意的数字内容,其实在早几年的CV(卷积网络)时代就已经有过一次惊艳了。

但是,这里面有个被人忽略的问题:

  1. 人类提供的信息很少
  2. AI模型能够听懂的、接受、接收的信息很少

所以,生成名人的头像、视频是一种看似很难,实际上很简单的事情

因为,AI模型已经有足够的预训练时候存储进去的背景信息,只要人类提供足够小的提示,就能产生足够符合预期的结果

深层次的原因

之所以你能感到惊讶是因为,AI以一种完全不同的方式在处理信息

你之前认为的很难的一些操作,实际上对于大量数据和算力面前根本不是问题

你的提问(需求)越少,答案就越是典型,算法约容易满足,你越是惊讶

你能用一句话表达的任务,一定是一个非常的典型的,有大量数据的任务

但是你不知道的是,算法的困难在于满足一个精细的,冗长的需求

这就考验模型的抽象能力、自洽能力

实际上

一个合格的工具,优秀的工具,其必须能支持足够复杂的定制需求,必须足够聪明去执行复杂的指令

AI编程的一个成功的因素就是,AI可以通过大量的已有代码来理解背景和需求作为输入,从而产生符合预期的结果

clawdbot cowork claudecode 本质上还是在一直对话。

但是还是那个本质的问题,如果要是一个有价值 工具,输入的信息必须多