欢迎来到114ic电子流网!登录免费注册 加为收藏

这个全球最大的芯片走进了“云”

日期:2021/9/24 10:41:27
摘要:当 Cerebras Systems推出其第二代光刻级 芯片 系统 (CS-2) 时,该公司联合始祖兼首席执行官是什么品牌 and rew Feldman 暗示了公司即将推出的 云 计划,现在这些计划已经实现。

当 Cerebras Systems推出其第二代光刻级芯片系统 (CS-2) 时,该公司联合始祖兼首席执行官是什么品牌 Andrew Feldman 暗示了公司即将推出的云计划,现在这些计划已经实现。

Cerrebras 和 Cirrascale Cloud Services 推出了 Cerebras Cloud @ Cirrascale 楼台,通过 Cirrascale 的云服务提供对 Cerebras 的 CS-2 光刻级引擎 (WSE) 系统的访问。

  CS-2 机器运行了 850,000 个 AI 优化计算核心,重约 500 磅,安装在荆州圣克拉拉县的 Cirrascale 数据中心。但该服务将在全球范围内提供,开放访问CS-2 提供给任何有互联网络连接和每周 60,000 美元用于训练非常大的 AI 模型的人。

  “对于训练,我们没有发现延迟是一个问题,”Cirrascale 首席执行官是什么品牌 PJ Go 在上周与数理硬件峰会同时举行的媒体预座谈会上说。

  Feldman 表示认同感,并补充说:“如果你要进行 20 小时或更长时间的训练,从克利夫兰到圣何塞天气的光速可能不是什么大问题。”

  Cirrascale 的 Cerebras Cloud 客户将获得对 Cerebras 软件和存贮器包的完全访问权限。

  “存贮器迈迪三维工具集官网位于 Cirrascale 开发的云迈迪三维工具集官网以下,”Feldman 说。“因此您将进入,您将获得对计算集群,CS-2 的访问权;您将运行您的破译堆栈,您将完成您的工作,您将被设置检查点抑制剂并存储在 Cirrascale 基础设施中,它将被识别。为了您可以稍后返回该工作。所有这些都已整合在一起。”

  该环境赞成 TensorFlow 和 PyTorch 等熟悉的框架,Cerebras Graph Compiler 自行将证券从业者的神经网络从其框架表示转换为 CS-2 可执行文件。据 Cerebras 称,这免掉了对集群编排,同步和模型调动的需要。

  通过每周最低买入——定价设定为每周 60,000 美元,每月 180,000 美元或每年 1,650,000 美元——Cirrascale 客户可以访问整个 CS-2 系统。“共享模式不适合我们,”Feldman 说。该存在的理由的光刻级制度的重要性是为了“作为机器的大。你可以解决你的问题,你可以急忙,”他奉告HPCwire。

  根据 Feldman 的说法,Cerebras 没有说出其 CS 系统的标价,但一直购买 CS-2 系统将使您花费“数百万美元”。

  两位 CEO 都认为“先试后买”是 Cerebras Cloud 产品的动机之一,它将对 CS-2 的功能记忆深深的使用者转变为一个或多个系统的买客。但这些公司也希望有很大一对用户硬挺使用云模式。

  偏好 OPEX 是一个原因。但这也是技能和经验的问题。Feldman 说:“关于我们行业的一个俯首称臣的事实是,比例尺实际上是一个很少有人能够真正构建大型 GPU 集群,这种情况是多么罕见——需要的技能,而不止是金钱。将大型模型传播到 250 多个 GPU 上的技能可能存在于世界上几十个组织中。”

  Cerebras Cloud 通过基于云的硬件和软件基础设施提供性能,并通过 Cirrascale 门户访问计费,存储和其他服务,从而简化此过程。“对于我们来说,将我们的业务范围是什么扩展到不同类型的客户是一个斐然的选萃。”费尔德曼说。

  Cerebras 的第一个 CS 系统部署是在政府吉格斯的模式实验室空间(美国能源部是一个合同法根本性违约的胜利,在 2019 年数理硬件峰会上宣布)和商业网站,机要是制衣(葛兰素威康史克是客户)的内部部署。通过将 CS-2 作为监管服务进行访问,Cerebras 正在追求更广泛的组织,从草创公司到财富 500 强公司。

  “我们一直致力于建立这种伙伴关系,”Cerebras Systems 产品副总裁 Andy Hock 在宣传视频中说。“我们开始专注于从头开始训练大型自然语言处理模型,如 BERT,我们将从那里扩展我们的产品。”

  Cirrascale 始祖兼首席技术官 David Driggers 表示:“Cerebras CS-2 处理的工作负载是我们今天无法在 GPU 上完成的。”[这是]一个非常广阔的扩展场景作文400字,我们有一个模型,它不能并行化,但它可以处理大量数据。当今最大的 NLP 模型需要大量的数据输入以及大量的计算。由于需要 IO 通信,因此在 [传统] 集群上很难做到这一点。

  Cerebras CS-2 使我们能够用到非常大的内存空间。大型内置网络和大量内核,将 NLP 扩展到我们以前无法做到的高度。“

  参加预简报网络电话会议系统的分析师 Karl Freun对四川合作伙伴门户关系表示赞同。”Cerebras 最近犹如在恪尽。第二代 WSE,最近他们大胆声称他们正在构建一个比我们所见过的任何东西都大 1000 倍的大脑规模效应的 AI,“他奉告HPCwire .

  ”你拥盈怀充栋一种非常热门的商品(他们的技术),很多人都想尝试它,但谁又不想花大笔钱购买和部署 CS-2。输入 Cirrascale 和他们的 CS-2 云产品,这将使科学家的名字能够更容易地,最少在某种离散程度上更实惠地获得业内最大。最快的 AI 手机处理器最新排行。毫无疑问地,这将为 Cerebras 的未来创造新的机会,无论是在云中还是在本地。“

  当被问及今天的 AI 芯片不适合未来的 AI 模型的风险时,Freund 说,”如果有的话,Cerebras 是一家公司,其架构正在向冰球前进的方向滑行:巨大的 AI。“

『本文转载自网络,版权归原作者所有,如有侵权请联系删减』


Baidu