当计算力爆发,AI或将迎来“开挂”节奏
科技日报记者 华凌
人工智能被称为未来十大科技之一,技术上取得的进步将推进人类社会迈入更加智慧的世界。如果说十年前人工智能还是“草色遥看近却无”,如今已是“百花齐放春满园”。业内人士将算法、数据和算力视为推动人工智能发展三大要素,其中将算力形容是支撑人工智能走向应用的“发动机”。
近日,脸谱人工智能副总裁杰罗姆·佩森蒂在接受《连线》杂志采访时,谈到人工智能发展和计算能力的问题。基于OpenAI 最近指出“高级人工智能所需的计算能力每3个半月翻一番”的状况,他认为“科研成本的持续上涨,会导致在该研究领域碰壁,我们到了一个需要从优化、成本效益等方面考虑的地步”。
那么,为何人工智能需要如此强大的计算能力;计算能力是否会限制人工智能的发展;我们能否不断满足人工智能持续扩大的计算需求?
计算力也是生产力
“2016年3月,谷歌人工智能阿尔法(AlphaGo)战胜韩国棋手李世石时,人们慨叹人工智能的强大,而其背后巨大的‘付出’鲜为人知:数千台服务器,上千块CPU,高性能显卡,以及对弈一场棋所消耗的惊人电量。”远望智库人工智能事业部部长、图灵机器人首席战略官谭茗洲在接受科技日报记者采访时表示。
为何如此耗费算力?具体而言,在经典的冯·诺伊曼计算机架构中,存储单元和计算单元泾渭分明。运算时,需要将数据从存储单元读取到计算单元,运算后会把结果写回存储单元。在大数据驱动的人工智能时代,AI 运算中数据搬运更加频繁,需要存储和处理的数据量远远大于之前常见的应用。当运算能力达到一定程度,由于访问存储器的速度无法跟上运算部件消耗数据的速度,再增加运算部件也无法得到充分利用,即形成所谓的冯·诺伊曼“瓶颈”,或“内存墙”问题。这就如同一台马力强劲的发动机,却因为输油管的狭小而无法产生应有的动力。
谭茗洲指出,“当前随着人工智能算法模型的复杂度和精度愈来愈高,互联网和物联网产生的数据呈几何倍数增长,在数据量和算法模型的双层叠加下,人工智能对计算的需求和挑战越来越大。无疑,人工智能走向深度学习,计算力已作为评价人工智能消耗的重要成本。计算力即是生产力,甚至是一种权力。”
谭茗洲说,现在人工智能运用深度学习的框架,多数时依赖大数据进行科研训练,形成有效模型,这些都十分消耗计算力。另外,在区块链上,AI也会消耗更多的计算力,如挖矿,主要运用计算解密码挖比特币。
“相比云计算和大数据等应用,人工智能对计算力的需求几乎无止境。”中国工程院院士、浪潮集团首席科学家王恩东指出。
据介绍,人工智能最大的挑战之一是识别度不高、准确度不高,提高准确度就要提高模型的规模和精细度,提高线下训练的频次,这需要更强的计算力。准确度也是算出来的,比如大型互联网公司或者知名人工智能创业公司,有能力部署规模比较大的人工智能计算平台,算法的模型已经达到千亿参数,万亿的训练数据集规模。
创新体系结构突破瓶颈
显然,频繁的数据搬运导致的算力瓶颈及功耗瓶颈,已经成为对更为先进算法探索的限制因素。而计算力瓶颈对更先进、复杂度更高的 AI 模型研究产生影响。
据了解,最先进的自然语言处理模型XLNet有约4亿模型参数,而据估算,人脑中细胞间互联轴突个数在百万亿到千万亿数量级,两者相差约六个数量级。显然AI在认知问题上离我们追求的所谓通用人工智能还有巨大差距,预计将需要计算能力和计算系统的能源效率比现在至少提高几个数量级。因此人工智能要进一步突破,必须采用新的计算架构,解决存储单元和计算单元分离带来的算力瓶颈。
王恩东曾指出,“计算力的提升对体系结构提出挑战。在半导体技术逐步接近极限的情况下,计算机发展迎来体系结构创新的黄金期,计算力的提升将更多通过体系结构创新来满足。”
