HPE 在 Discover 上宣布进军人工智能云市场,首款大语言模型震撼登场
HPE进军人工智能云市场,推出HPE for Large(HPE for Large Model),帮助各类企业私下训练、调整和部署大规模人工智能。
HPE宣布通过扩展HPE产品组合进军人工智能云市场。 新产品基于 HPE 的按需、多租户超级计算云服务构建,可网以向任何组织(从初创公司到大型财富 500 强公司)提供大型语言模型。
HPE for Large(HPE for Large Model)的推出给企业带来了无限的新机遇——HPE领先的人工智能软件与超级计算技术的结合,为客户打造了一个可持续的超级计算平台,可用于训练、调优和部署大型语言模型。私人规模的人工智能。
HPE for Large 是 HPE 与德国人工智能初创公司 Aleph Alpha 合作开发的,为用户提供经过验证的、即用型大型语言模型,以支持需要文本和图像处理和分析的用例。 未来,HPE还将推出一系列专注于特定行业和领域的AI应用。 这些应用将涵盖气候建模、医疗保健和生命科学、金融服务、制造和运输等行业。
HPE总裁兼首席执行官奈里表示:“我们正在经历人工智能领域的跨代变革,这将带来网络、移动技术和云等颠覆性变革。曾几何时,人工智能是资金雄厚的政府实验室领域和全球云巨头主导的领域;而现在,HPE通过提供一系列人工智能应用,致力于创造人人可用的人工智能,此次推出的大语言模型是迈出的第一步。我们的一系列人工智能计划。运行在HPE可靠且可持续的超级计算机上,通过按需、按量付费的云服务交付,可以大规模、负责任地训练、调整和部署模型,帮助组织更好地利用人工智能驱动创新,颠覆市场,创造突破性成果。”
HPE 是超级计算领域的全球领导者和专家。 HPE打造了全球速度最快的超级计算机,突破了百亿亿次计算的瓶颈,有能力为人工智能提供前所未有的性能和规模。
与并行多个工作负载的通用云产品不同,HPE for Large 在 AI 原生架构上运行。 该架构特别适合运行单次大规模全算力AI训练和仿真工作负载。 该产品将支持数百到数千个CPU或GPU同时工作,以处理人工智能和高性能计算工作负载。 这种能力可以有效、可靠、高效地训练人工智能,创建更精确的模型,加速企业从概念验证到生产的进程,从而更快地解决问题。
HPE for LLMs - HPE AI 应用系列中的首款产品
HPE for Large已开放用户访问,这是Aleph Alpha提供的预训练大语言模型,支持多种语言版本。 HPE for Large 允许客户使用自己的数据来训练和微调定制模型,这样他们就可以根据已有的信息获得更有价值的实时见解。
该服务可以帮助企业构建和推广各种人工智能应用,这些应用可以集成到企业自身的工作流程中,以业务数据和研究驱动释放商业价值。
Aleph Alpha创始人兼首席执行官乔纳斯表示:“通过使用HPE的超级计算机和人工智能软件,我们高效、快速地训练了适合关键业务的大型语言模型,可供银行、医院和律师事务所等使用。数字助理,加快决策速度,同时为企业节省宝贵资源。Aleph Alpha很荣幸成为HPE大语言模型的研发合作伙伴,我们期待未来继续扩大与HPE的合作——延伸到云端并将其用作向我们的最终客户提供的服务,以实现新的业务应用程序和研究创新。”
HPE 创建超级计算级人工智能训练、调优和部署
HPE for LLM 将按需提供,在业界最强大、最具可持续性的超级计算机 HPE Cray XD 超级计算机上运行,从而使客户无需购买和管理自己的超级计算机,因为这些计算机通常成本高昂、复杂且需要特定的专业知识。 该产品利用 HPE Cray 编程环境,这是一个完全集成的软件套件,可优化 HPC 和 AI 应用程序,并提供一整套用于开发、移植、调试和调整代码的工具。
此外,超级计算平台还为 HPE 的 AI/ML 软件提供支持,包括用于快速训练大型模型的 HPE 机器学习开发环境,以及用于集成、跟踪和审核数据与可重现 AI 功能的 HPE 机网器学习数据管理软件,以生成值得信赖且准确的数据楷模。
HPE for LLMs - 在可持续计算系统上运行
HPE 致力于为客户提供可持续计算。 HPE for LLM 运行在托管设施中,例如北美的托管设施,这些设施可以使用近 100% 的可再生能源来支持超级计算机所需的规模和容量。
广告声明:本文所包含的外部跳转链接(包括但不限于超网链接、二维码、密码等)用于传达更多信息并节省选择时间,结果仅供参考。 IT之家所有文章均包含此声明。