周轩提示您:看后求收藏(略群小说www.luequn.com),接着再看更方便。
在地球上,2018年的时候,亚利桑那大学和布朗大学的两位人工智能算法专家,就给出了最优解。
他们的结论是,让一个机器学习的训练集中,对错比例控制在15.87%时,可以达到机器学习算法效率最高、进步最快的状态。
比如让计算机用人工智能图像识别,来鉴别一万张类似猫的图片,来学习“怎样判断图里面的东西是不是一只猫”。
这时候,你要拿8413张真的是猫的图片,和1587张似猫非猫的图片,去给人工智能喂数据,那么机器学完这10000万图片、得到对错评分后,得到的提高是最多的。
这个是自然数学法则的最优解了,换句话说,你拿8414张真猫图和1586张似猫非猫图去喂,机器吃完这1万个大数据之后,进步量也会比岗前前一组略低。
这个数据具体怎么来的呢?是人类算法学家,从2010年,谷歌开始操练深度学习以来,不断反复试验,全人类算法专家共同实验了八年,摸出来的。
更奇妙的是,地球人后来做了更多深入实验,发现这个学习效率机制,真的不仅适用于机器学习,也适用于人类大脑。
在“试错型学习”,或者说早期认知方面,人脑和模拟人脑宏观运作规律表现的深度学习,是一致的。
地球人当时设计的人体实验,主要是拿婴儿做实验,因为可以尽量减少干扰项。选取原本认知发育水平差不多的婴儿,让他们认图片训练,就跟现在一两岁的小孩,看画本教他们什么是猫、什么是狗。这个训练跟深度学习的机器视觉训练,是很相似的。