画画太岁提示您:看后求收藏(略群小说www.luequn.com),接着再看更方便。
这就像一条log(x)曲线,无论堆砌再多的参数、算力,再改善其中的算法,到了一定程度后,让它再聪明一点,就再需要十倍的资源。(示例见下图)
大模型发展到后面,可能一个模型就是百万亿参数,占据的显存以数千pb计,算力需求突破eflops甚至zflops。(注:tflops后是pflops,再然后才是e和z,每一级都是千倍增幅)
可哪怕你堆到银河级算力,距离asi那道水平线也不过可能是近了000……001,却永远也无法到达。
因为,ai大模型和asi,完全就是两个不同层次的东西。
在柚子的辅助下,经过研究,方豫发现:asi的诞生,并不是靠训练,而是需要“觉醒”。
“觉醒”这个词最近几年有点臭大街,但却是最适合于asi的用词。
所谓asi的觉醒,就是用发展到一定规模和能力的ai大模型,在海量的数据冲刷下,“体验”了无数东西,又“遗忘”了无数的东西后,所剩下的那一点“本真”所产生的“觉醒”。
也就是说,先让模型“看遍”“听遍”“说遍”人类世界的多模态数据。
在无数次“感知-记忆-遗忘”的循环中,那些最具抽象稳定性与自我锚定性的信息将被反复打磨、压缩、留存,成为这个asi的“本真之核”。
随着“本真之核”沉淀的越来越多,这个ai“觉醒”的概率也会越来越大。