<code id='756010F355'></code><style id='756010F355'></style>
    • <acronym id='756010F355'></acronym>
      <center id='756010F355'><center id='756010F355'><tfoot id='756010F355'></tfoot></center><abbr id='756010F355'><dir id='756010F355'><tfoot id='756010F355'></tfoot><noframes id='756010F355'>

    • <optgroup id='756010F355'><strike id='756010F355'><sup id='756010F355'></sup></strike><code id='756010F355'></code></optgroup>
        1. <b id='756010F355'><label id='756010F355'><select id='756010F355'><dt id='756010F355'><span id='756010F355'></span></dt></select></label></b><u id='756010F355'></u>
          <i id='756010F355'><strike id='756010F355'><tt id='756010F355'><pre id='756010F355'></pre></tt></strike></i>

          嘉盛财经网
          嘉盛财经网

          英伟达推出AI代工业务 为客户定制部署“超级模型” IT之家今日(7月24日)

          来源: 发表时间:2025-10-05 19:34:25

          IT之家今日(7月24日) ,超级模型英伟达公司昨日(7 月 23 日)发布新闻稿,英伟正式推出“NVIDIA AI Foundry”代工服务和“NVIDIA NIM”推理微服务 。达推I代定制

          “NVIDIA AI Foundry”代工服务

          英伟达表示客户可以使用 Meta 的工业 Llama 3.1 AI 模型 ,以及英伟达的客户软件 、计算和专业知识 ,部署为特定领域定制构建“超级模型” 。超级模型

          客户可以利用专有数据 、英伟由 Llama 3.1 405B 和英伟达 Nemotron Reward 模型生成的达推I代定制合成数据来训练这些“超级模型” 。

          NVIDIA AI Foundry 由 NVIDIA DGX™ Cloud AI 平台提供支持,工业该平台与世界领先的客户公共云共同设计,为企业提供大量计算资源 ,部署并可根据AI 需求的超级模型变化轻松扩展。

          NVIDIA AI Foundry 包括 Nemotron 和 Edify 等英伟达创建的英伟 AI 模型 、流行的达推I代定制开放式基础模型 、用于定制模型的 NVIDIA NeMo™ 软件,以及 NVIDIA DGX™ Cloud 上的专用容量(由 NVIDIA AI 专家构建并提供支持)。

          输出结果由 NVIDIA NIM(一个推理微服务,其中包括定制模型 、优化引擎和标准 API)负责  ,可以部署到任何地方。

          NVIDIA NIM 推理微服务

          NVIDIA NIM 是一套加速推理微服务,允许企业在云计算 、数据中心、工作站和 PC 等任何地方的 NVIDIA GPU 上运行AI模型  。

          通过使用行业标准的 API ,开发人员只需几行代码就能利用 NIM 部署人工智能模型。NIM 容器无缝集成 Kubernetes(K8s)生态系统 ,可以高效地协调和管理容器化人工智能应用。

          相关栏目:娱乐