硅谷各家公司在对新技术的追求上从来都没消停过,现在它们又在人工智能上较起了劲,这么热闹的事情Facebook怎么会缺席呢,它宣布将开源自家的人工智能硬件平台。

  Facebook这次开源的是一种名为Big Sur的人工智能平台,它可以运行新的人工智能算法。此外,它包含了8个图像处理单元,也是NVIDIA的Tesla M4 GPU板。
  GPU是一种适用于深度学习算法的微处理器,每个GPU都包含了数十个功耗300瓦的芯片。与CPU类似,GPU是专为执行复杂的数学和几何计算而设计的。
  换言之,Big Sur可以在一台设备上存储更多的信息,这样Facebook的每项工作都会明显加快。
  Facebook人工智能研究部门的首席工程师舍康·皮安迪诺(Serkan Piantino)表示:“随着人工智能硬件性能的不断增强,我们可以利用更多的数据,效率也会变的更高。同时,迭代周期也逐渐加快,所以我们可以在机器学习和人工智能领域做出更多的成绩。”
  在人工智能领域的研发上,各家公司的投入都相当巨大,谷歌(微博)、IBM、Uber和百度都是该领域的佼佼者,它们为了争夺深度学习领域的专家甚至不惜“大打出手。”
  既然人才如此之稀少,成果如此之宝贵,为什么Facebook还要开源自家人工智能平台供他人学习呢?这不等于是将自己的设计蓝图拱手相让,放任对手加速追赶吗?
  当然,这也不是Facebook第一次当“冤大头”了,我们不必大惊小怪。此前,该公司在一项名为Torch(火炬)的计划中开源了许多深度学习的代码库。此外,谷歌也是开源先锋,此前它开源了自家名为Tensortflow的软件。
  其实对两家公司来说,这些开源的代码库是它们好的招聘广告,它们不必再费力去寻找人才,人才自会对这些代码感兴趣。此外,若自家平台能得到广泛使用,也会为公司赢来该领域的话语权。
  不过Facebook的做法比谷歌更为大胆,因为后者至今都不愿开源自家的硬件平台,而Facebook则在该领域采取了“软硬兼施”的策略。
  除了吸引人才和夺取话语权,Facebook对AI硬件平台的开源还能为公司节省大把的钞票。通过对硬件平台的开源,Facebook可以快速在业界建立自己的硬件标准,如果其他公司采用了Facebook的设计,从长远来看会大大摊平硬件平台的成本,还能提升其普及率。