IBM 的 ModelMesh 开源,使开发人员能够大规模部署 AI 模型
admin
2023-07-31 10:13:08
0

1554122456_machine_learn_story1554122456_machine_learn_story

模型服务是 AI 用例的关键组成部分。它涉及根据用户请求提供来自 AI 模型的推理。涉足企业级机器学习应用的人都知道,提供推理的通常不是一个模型,而是成百上千个模型串联运行。这是一个计算上非常昂贵的过程,因为您无法在每次要为请求提供服务时启动专用容器。这对于跨 Kubernetes 集群部署大量模型的开发人员来说是一个挑战,因为存在诸如允许的最大 Pod 数量和 IP 地址以及计算资源分配等限制。

IBM 通过其专有的 ModelMesh 模型服务管理层解决了这一挑战,用于 Watson 产品,例如 Watson Assistant、Watson Natural Language Understanding 和 Watson Discovery。由于这些模型已经在生产环境中运行了几年,ModelMesh 已经针对各种场景进行了彻底的测试。现在,IBM 正在将此管理层贡献给开源完整的控制器组件以及模型服务运行时。

ModelMesh 使开发人员能够以“极大规模”在 Kubernetes 之上部署 AI 模型。它具有缓存管理功能,还充当平衡推理请求的路由器。模型被智能地放置在 pod 中,并且可以适应临时中断。ModelMesh 部署可以轻松升级,无需任何外部编排机制。在将新请求路由到模型之前,它会自动确保模型已完全更新和加载。

IBM 用一些统计数据解释了 ModelMesh 的可扩展性,接着说:

一个部署在单个工作节点 8vCPU x 64G 集群上的 ModelMesh 实例能够打包 20K 简单字符串模型。除了密度测试之外,我们还通过发送数千个并发推理请求来对 ModelMesh 服务进行负载测试,以模拟高流量假日季节场景,所有加载的模型都以个位数毫秒的延迟响应。我们的实验表明,单个工作节点支持 20k 模型,每秒最多 1000 个查询,并以个位数毫秒的延迟响应推理任务。

IBM 已经将 ModelMesh 贡献给了自己、Google、Bloomberg、 NVIDIA和 Seldon 早在 2019 年。您可以在下面提到的各种 GitHub 存储库中查看 ModelMesh 实现贡献:

  • 模型服务控制器
  • 用于编排模型放置和路由运行时适配器的 ModelMesh 容器
  • modelmesh-runtime-adapter – 在每个模型服务 pod 中运行的容器,并充当 ModelMesh 和第三方模型服务器容器之间的中介。它还包含负责从存储中检索模型的“puller”逻辑
  • triton-inference-server – Nvidia 的 Triton 推理服务器
  • seldon-mlserver – Python MLServer,它是 KFServing 的一部分

相关内容

热门资讯

Windows 11 和 10... Windows 11/10 文件夹属性中缺少共享选项卡 – 已修复 1.检查共享选项卡是否可用 右键...
事件 ID 7034:如何通过... 点击进入:ChatGPT工具插件导航大全 服务控制管理器 (SCM) 负责管理系统上运行的服务的活动...
Hive OS LOLMine... 目前不清退的交易所推荐: 1、全球第二大交易所OKX欧意 国区邀请链接: https://www.m...
Radmin VPN Wind... Radmin VPN 是一款免费且用户友好的软件,旨在牢固地连接计算机以创建一个有凝聚力的虚拟专用网...
如何修复 Steam 内容文件... Steam 内容文件锁定是当您的 Steam 文件无法自行更新时出现的错误。解决此问题的最有效方法之...
Hive OS 部署 PXE ... 目前不清退的交易所推荐: 1、全球第二大交易所OKX欧意 国区邀请链接: https://www.m...
如何在Instagram上扫描... 如何在Instagram上扫描名称标签/ QR? 总而言之,您可以通过大约四种不同的方法来扫描这些I...
在 Windows 11 中打... 什么是链路状态电源管理? 您可以在系统控制面板的电源选项中看到链接状态电源管理。它是 PCI Exp...
farols1.1.501.0... faro ls 1.1.501.0(64bit)可以卸载,是一款无需连接外部PC机或笔记本计算机即可...
Hive OS 新建飞行表的方... 目前不清退的交易所推荐: 1、全球第二大交易所OKX欧意 国区邀请链接: https://www.m...