AI的效果悖论/骗局
现象
看起来现在的大模型已经无所不能,LLM的语言能力,nano banana的图像,Sora的视频等等
能生成几乎是任意的数字内容,其实在早几年的CV(卷积网络)时代就已经有过一次惊艳了。
但是,这里面有个被人忽略的问题:
- 人类提供的信息很少
- AI模型能够听懂的、接受、接收的信息很少
所以,生成名人的头像、视频是一种看似很难,实际上很简单的事情
因为,AI模型已经有足够的预训练时候存储进去的背景信息,只要人类提供足够小的提示,就能产生足够符合预期的结果
深层次的原因
之所以你能感到惊讶是因为,AI以一种完全不同的方式在处理信息
你之前认为的很难的一些操作,实际上对于大量数据和算力面前根本不是问题
你的提问(需求)越少,答案就越是典型,算法约容易满足,你越是惊讶
你能用一句话表达的任务,一定是一个非常的典型的,有大量数据的任务
但是你不知道的是,算法的困难在于满足一个精细的,冗长的需求
这就考验模型的抽象能力、自洽能力
实际上
一个合格的工具,优秀的工具,其必须能支持足够复杂的定制需求,必须足够聪明去执行复杂的指令
AI编程的一个成功的因素就是,AI可以通过大量的已有代码来理解背景和需求作为输入,从而产生符合预期的结果
clawdbot cowork claudecode 本质上还是在一直对话。
但是还是那个本质的问题,如果要是一个有价值 工具,输入的信息必须多
No comments to display
No comments to display