人工智能发展需破解巨量算力应用难题

佚名
2021-11-28
来源:新华社

如何能像人类一样具备逻辑、意识和推理等认知能力,是人工智能研究一直在探索的方向。“目前来看,通过大规模数据训练超大参数量的巨量模型,被认为是非常有希望实现通用人工智能的一个重要方向。”中国工程院院士王恩东日前接受采访时表示,随着巨量模型的兴起,巨量化已成为未来人工智能发展的一个重要趋势。

全球知名科技市场研究机构国际数据公司(IDC)日前发布的《2021-2022中国人工智能计算力发展评估报告》指出,人工智能算法模型呈现大规模趋势,巨量模型将是规模化创新的基础,算力成为根本保障。

巨量化的核心特征是模型参数多、训练数据量大、模型应用规模大。当前,谷歌、微软、英伟达、浪潮、智源研究院、百度、阿里等全球知名AI公司和机构相继推出了各自的巨量模型。

前述报告显示,2011年以来,全球人工智能模型参数从千万级增至千亿级。2020年美国的GPT-3深度学习模型参数规模高达1750亿,是当时全球最大的AI巨量模型,在文本分析、机器翻译、机器写作等自然语言处理应用领域表现出色;2021年中国的“源1.0”模型参数规模升至2457亿,训练数据集规模达到5000GB。构建大模型,提升人工智能处理性能,成为时下流行的模型发展趋势。

“如此巨量的数据调用需要强大的算力支持,计算产业面临着新的趋势和挑战。”王恩东说,一方面,多样化的场景需要多元化的算力,巨量化的模型、数据和应用规模需要巨量的算力,算力已经成为人工智能继续发展的重中之重;另一方面,从芯片到算力的转化依然存在巨大鸿沟,多元算力价值并未得到充分释放。

他认为,释放多元算力价值、促进人工智能创新,需要重视智算系统的创新,加大人工智能新型基础设施建设,设计好从技术到应用的各环节链条。同时,加快推动开放标准建设,通过统一、规范的标准,将多元化算力转变为可调度的资源,让算力好用、易用。

阅读6508
分享
写下你的评论吧