AI训练成本报告

推荐会员: lex     发布时间: 2020-08-09 10:48  阅读次数: 1,156 views
方舟投资(ARK Invest)近日发布了一篇分析报告显示,AI训练成本的提高速度是摩尔定律(Moore’s law)的50倍。摩尔定律是指计算机硬件性能每两年提升一倍。
两年间,AI训练成本下降了100倍
方舟评估委员会在其报告中发现,从1960年到2010年,按照摩尔定律,用于训练的AI算力翻了一番。
人工智能计算的复杂度自2010年以来每年飙升10倍(每秒千万亿次运算)。与此同时,过去三年的训练成本每年下降10倍。
2017年,在公共云上训练像 ResNet-50这样的图像分类器的成本约为1000美元,到了2019年只需大约10美元。
方舟评估委员会预测,按照目前的速度,到今年年底,其训练成本应降至1美元。

该公司预计,随着这一成本的下降,推理的成本(在生产过程中运行一个训练有素的模型)将会下降。
比如,在过去两年中,对十亿张图像进行分类的成本从10,000美元降至仅0.03美元。

对于那些与像谷歌、 DeepMind 这样资金雄厚的公司进行竞争的初创公司来说,这无疑是天籁之音。
DeepMind 去年亏损5.72亿美元,且背负着超过10亿美元的债务。
尽管一些专家认为,科技巨头无可匹敌的实验室有能力从事新的研究,但训练成本也是AI工作中不可避免的开支,不论是在企业、学术界还是其他领域。
AI算法效率每16个月翻一番,与OpenAI报告结果一致
方舟投资的这些发现似乎与 OpenAI 最近一份报告的发现结果一致。
OpenAI 的报告指出,自 2012 年以来,人工智能模型在 ImageNet 分类中训练神经网络达到相同性能所需的计算量,每 16 个月减少了 2 倍。

OpenAI观察到16个月AI模型的效率倍增时间(任意给定时间的较低计算点用蓝色表示,测量点用灰色表示)
据 OpenAI 介绍,它发现谷歌的 Transformer 架构超越了以前由谷歌开发的较先进模型——seq2seq,在seq2seq推出三年后,其计算量减少至原来的1/61。
谷歌的 Transformer 架构超越了之前的较先进模型—— seq2seq,后者也是谷歌开发的,在 seq2seq 推出三年后,计算能力下降了61倍。
Deepmind 的 AlphaZero 是一个从零开始自学如何掌握国际象棋、将棋和围棋游戏的系统。

仅仅一年后,DeepMind 的 AlphaZero 在围棋比赛中,其计算量比 AlphaGoZero 少 8 倍,就能与 AlphaGoZero 匹敌。
AI发展尚处于初期阶段,训练较先进AI模型的成本依然惊人
方舟投资报告指出, 硬件和软件的突破使得AI训练成本下降。
在过去的三年中,芯片和系统的设计不断发展,为深度学习添加了专用硬件,从而使性能提高了16倍。
例如, Nvidia于2017年发布的 V100显卡,比三年前发布的 K80 快1800%  (显卡通常用于训练大型人工智能系统) 。
在2018年至2019年间,由于麻省理工学院、谷歌、 Facebook、微软、 IBM、 Uber 等公司的软件创新,V100的训练性能提高了大约800% 。

ARK 分析师 James Wang 写道,「从AI训练成本下降的速度来看,人工智能发展还处于初期。」
摩尔定律的第一个十年里,晶体管数量每年翻一番。
我们在人工智能训练和推断中看到从10倍到100倍的成本下降表明,人工智能的发展尚处于初级阶段,未来几十年可能会出现较慢但持续的增长。
值得注意的是,虽然AI模型训练的费用似乎在下降,但是在云中开发复杂ML模型仍然昂贵得让人望而却步。

根据 Synced 最近的一份报告,华盛顿大学的 Grover 专门用于生成和检测虚假新闻,训练较大的Grover Mega模型的总费用为2.5万美元。
OpenAI 花费了1200万美元来训练它的 GPT-3语言模型。
而谷歌花费了大约6912美元来训练 BERT,这是一种双向变换模型,它重新定义了11种自然语言处理任务的技术。
来源:http://www.dataguru.cn/article-15585-1.html
关键词:

版权声明:本站原创和会员推荐转载文章,仅供学习交流使用,不会用于任何商业用途,转载本站文章请注明来源、原文链接和作者,否则产生的任何版权纠纷与本站无关,如果有文章侵犯到原作者的权益,请您与我们联系删除或者进行授权,联系邮箱:service@datagold.com.cn。