Ops4AI 实验室

借助彻底优化的网络,最大限度实现 GPU 投资价值,助您实现宏大 AI 愿景。瞻博网络的 AI 数据中心解决方案是高性能 AI 训练、推理和存储群集的最快、最灵活的部署方式,也是 IT 资源有限情况下最简单的运维方式。现在,您可以在瞻博网络 Ops4AI 实验室中亲眼见证。

瞻博网络可助您一臂之力

客户和合作伙伴现在可以在瞻博网络位于加利福尼亚州森尼韦尔总部的专有实验室中,验证其 AI 模型的性能和功能。

IT Technician Works on a Laptop in Big Data Center full of Rack Servers. He Runs Diagnostics and Maintenance, Sets up System.

测试瞻博网络经 AI 优化的以太网是否足以媲美 InfiniBand,甚至有过之而无不及

客户现在可以针对自身用例,验证经 AI 优化的以太网交换机性能,亲自体验用于推理、训练和存储的全栈瞻博网络 AI 数据中心解决方案。使用 MLCommons® MLPerf BERT-large、DLRM、Llama 2 或自带模型 (BYOM),测试 AI 的性能和功能。

Data Center Female It Specialist Using Laptop. Server Farm Cloud Computing and Cyber Security Maintenance Administrator Working on Computer. Information Technology Professional.

验证设计,确保成功

瞻博网络验证设计 (JVD) 适用于全栈交换矩阵、GPU 和存储网络给客户十足信心,确信其 AI 群集已经过全面审查、测试,随时可以大放异彩。无需猜疑,即插即用。

AdobeStock-163119344

AI 全生命周期管理并实现自动化

在设计、构建、部署持续 AI 运维并实现其自动化的过程中,使用 Juniper Apstra 基于意图的网络解决方案。Apstra 为客户提供更加灵活的招聘选择,在整个 AI 基础架构中实现端到端通用 NetDevOps 流程。

准备好了吗?

填写此表格,报名访问实验室。

Ops4AI 实验室常见问题解答

Ops4AI 是什么?

我们的全新 Ops4AI 解决方案提供了极具影响力的增强功能,能够为客户带来卓越价值。Ops4AI 包括以下瞻博网络组件的独特组合:

通过对上述组件进行整合,Ops4AI 能够助力高性能 AI 数据中心加速实现价值,同时降低运维成本并简化流程。

客户可以在实验室中运行哪些 AI 模型?

瞻博网络 AI 实验室利用各种 AI 模型,包括:

  • LLAMA2  
  • BERT  
  • DLRM  
  • 客户也经常自带模型 (BYOM)

客户可以运行标准模型(BERT、LLAMA、DRLM)进行基准测试和性能测试。此外,客户还可以自带模型,在由主干/分叶网络拓扑结构组成、拥有轨道优化设计的瞻博网络验证设计 (JVD) 上试运行。我们也会在实验室中测试提交的 MLCommons 文件。 

何为 MLCommons?

MLCommons 是一个基于开放协作理念构建的 AI 产业联盟,旨在改善 AI 系统。它帮助全球各地的公司和高校构建更出色的 AI 系统。

瞻博网络是第一家在 2/3 月初向 MLCommons 提交多节点 Llama2 推理基准的公司。最近,我们又提交了 MLPerf Training4.0 基准测试。我们致力于利用以太网构建开放的架构,来实现数据中心网络基础架构中的 GPU 互联。 

实验室目前正在使用哪些产品?

  • 瞻博网络 QFX 系列、PTX 系列,带 400G 和 800G 接口
  • Juniper Apstra 数据中心交换矩阵管理和自动化解决方案(高级)
  • WEKA 存储
  • 英伟达 GPU(H100、A100);即将新增其他 AI 加速器(如 AMD MI300X)

AI 实验室的客户测试结果是否会被公开?

我们重视客户模型和测试数据的保密性和隐私性。因此,我们不会使用客户模型来与其他客户进行测试。虽然 MLPerf 模型公开可用,但客户模型不会被共享。 

我是瞻博网络渠道合作伙伴。我应如何为客户获取访问实验室的资格?

请访问合作伙伴中心页面,以提交访问申请。