企业正在寻找一种简单的方法来嵌入数据,以构建和部署RAG 管道,」NVIDIA 企业生成式AI 软件总监Amanda Saunders表示,「将NVIDIA NIM 和NeMo 与WEKA 结合使用,将为企业客户提供一条快速途径,以大规模开发、。」
WARRP 参考架构的第一个版本现已开放免费下载。请浏览s:获取副本。
Supercomputing 2024 的与会者可前往WEKA 的1931 号展位,了解更多详 白俄罗斯 号码数据 情和观看新解决方案的示范。
支援AI 云端服务供应商感言
Applied Digital
「随着越来越多公司利用先进的AI 和生成式AI 推理技术,为客户和员工赋能,他们都意识到利用RAG 可以提高简洁性、功能性和效率,」Applied Digital 技术总监Mike Maniscalco 表示,「WEKA 的WARRP 堆栈提供了一个非常实用的参考框架,在NVIDIA 强大技术和可靠、可扩展的云端基础设施支援下,将RAG 管道交付到生产部署环境。」
Ori Cloud
「领先的生成式AI 公司正在Ori Cloud上运行,以训练全球规模最大的LLM,并且由于我们与WEKA 数据平台的整合,GPU 使用率已达致最高,」Ori Cloud 创办人兼行政总裁Mahdi Yahya 表示。 「我们期待与WEKA 携手合作,使用WARRP 架构构建强大的推理解决方案,协助Ori Cloud客户最大限度地发挥RAG 管道的效益,从而加速AI 创新。