当前位置:主页 > 关于我们 > 产品资讯

HPE 为边缘提供专用推理服务器

成都惠普HPE服务器工作站总代理HP Enterprise 将推出第一款专门针对机器学习人工智能推理的服务器

机器学习是一个两部分的过程,训练和推理。训练是使用来自 Nvidia 和 AMD 的强大 GPU 或其他高性能芯片来“教”AI 系统。

GPU 对于该任务来说是多余的,可以使用功率低得多的处理器。进入高通的Cloud AI100 芯片,该芯片专为边缘人工智能而设计。它拥有多达 16 个“AI 内核”,支持 FP16、INT8、INT16、FP32 数据格式,所有这些数据格式都用于推理。这些不是定制的 Arm 处理器,它们是专为推理而设计的全新 SoC。AI100 是 HPE Edgeline EL8000边缘网关系统的一部分,将计算、存储和管理集成在单个边缘设备中。推理工作负载的规模通常更大,并且通常需要低延迟和高吞吐量来实现实时结果。HPE Edgeline EL8000 是一个 5U 系统,最多支持四个使用双冗余机箱集成交换机集群的独立服务器刀片。它的小兄弟 HPE Edgeline EL8000t 是一种 2U 设计,支持两个独立的服务器刀片。


除了性能之外,Cloud AI100 还具有低功耗。它有两种形式,一个 PCI Express 卡和一个安装在主板上的双 M.2 芯片。PCIe 卡的功率包络为 75 瓦,而两个 M.2 外形单元消耗 15 瓦或 25 瓦。典型的 CPU 消耗超过 200 瓦,而 GPU 超过 400 瓦。
高通表示,Cloud AI 100 支持所有关键的行业标准模型格式,包括 ONNX、TensorFlow、PyTorch 和 Caffe,可以从可以编译和优化部署的预训练模型导入和准备。Qualcomm 拥有一套用于模型移植和准备的工具,包括对自定义操作的支持。

网络安全中的三大人工智能神话人工智能应该成为帮助网络安全团队抓获恶意行为者的工具。然而,Devo 委托的韦克菲尔德研究报告发现仍有工作要做。
高通表示,Cloud AI100 的目标客户是制造/工业客户,以及具有边缘 AI 需求的客户。边缘 AI 推理计算的用例包括计算机视觉和自然语言处理 (NLP) 工作负载。对于计算机视觉,这可能包括制造、物体检测和视频监控以及损失预防和检测中的质量控制和质量保证。对于 NLP,它包括编程代码生成、智能助手操作和语言翻译。

【公司名称】成都强川科技有限公司

【代理级别】成都惠普HPE服务器工作站总代理

【销售经理】黄经理

【联系方式】手机:028-85047106   13880364254

【公司地址】四川省成都市武侯区一环路南2段新世纪电脑城东楼17B

公司地址
成都强川科技有限公司

成都市一环路南二段新世纪电脑城东17楼B座
邮编:610000

展开