人工智能、机器学习、深度学习,这些概念正在这两年快速兴起。作为未来科技的发展方向,各大科技公司也都在这方面投入了巨大的资源和精力。
Google 和 Facebook 当然是其中的翘楚。对于 Google 来说,这些技术可以让他们的搜索引擎更加好用,帮助他们巩固自己在核心技术上的优势;而对 Facebook 来说,虽然他们在这个领域不如 Google 的影响力大,但事实上,正如我们在周一为大家介绍的深度文章中谈到的那样,AI 领域已经成为了他们重要的发展方向之一。
Facebook 在这个图形处理单元的技术是与 Nvidia 合作的。GPUs 被广泛应用于人工智能领域,因为相比英特尔公司生产的传统处理器,芯片对他们来说拥有更加独立的处理内核。这让它可以更好地处理 AI 所需要的那些愚蠢但是数量庞大的数据计算。
每一个 Big Sur 服务器都可以装配多达 8 个的 GPUs,每一个的最大输出功率可达到 300 瓦。它基于 Nvidia 的 Tesla M40 GPU 设计,但也可以适配其他的 GPU。
更快、更灵活、更高效
在官方博文中,Facebook 认为自己的这个设计比起之前的设计会更快、更灵活、更高效。
在速度方面,他们如此说道:「凭借 Nvidia 的 Tesla 加速计算平台,Big Sur 比我们的上一代设计版本要快两倍。这意味着我们训练机器的速度会快两倍,探索网络的能力也会更强。」
在性能方面,虽然也有很多其他的高效计算系统,但 Big Sur 已经优化了服务器的散热和电源效率,这能够让 Big Sur 在 Facebook 自由空气冷却的开放计算数据中心工作,让他们可以更好地搭配其他的工作。