广告

NVIDIA 推出大型语言模型云服务以推进 AI 和数字生物学的发展

时间:2022-09-21 作者:NVIDIA 阅读:
NVIDIA NeMo 大型语言模型(LLM)服务帮助开发者定制大规模语言模型;NVIDIA BioNeMo 服务帮助研究人员生成和预测分子、蛋白质及 DNA……

美国加利福尼亚州圣克拉拉  GTC   NVIDIA 于太平洋时间2022 年 9 月 20 日发布两项全新大型语言模型(LLM)云 AI 服务——NVIDIA NeMo 大型语言模型服务和 NVIDIA BioNeMo LLM 服务,使开发者能够轻松调整 LLM 并部署定制的 AI 应用程序,其可用于内容生成、文本摘要、聊天机器人、代码开发,以及蛋白质结构和生物分子特性预测等。

通过 NeMo LLM 服务,开发者能够在 NVIDIA 管理的基础设施上使用被称为提示学习的训练方法快速定制多个预训练基础模型。NVIDIA BioNeMo 服务是云应用程序编程接口(API),它可以将 LLM 用例扩展到语言以外的科学应用中,加快制药和生物技术公司的药物研发速度。

NVIDIA 创始人兼首席执行官黄仁勋表示: “大型语言模型具有改变每个行业的潜力。通过对基础模型进行调整,可将 LLM 的力量带给数百万的开发者,让他们无需重新构建庞大的模型,即可创建各种语言服务并推动科学发现。”

NeMo LLM 服务通过提示学习提高准确性,加快部署速度

借助 NeMo LLM 服务,开发者可以使用自己的训练数据定制基础模型——从 30 亿个参数到世界上最大的 LLM 之一 Megatron 530B。与从头开始训练模型所需的数周或数月相比,该过程只需几分钟到几小时。

提示学习是使用一种名为 P-tuning 的技术来定制模型,使开发者只需使用几百个示例就能快速定制最初需要使用数十亿个数据点训练的基础模型。定制流程生成任务专属的提示标记,这些标记会与基础模型相结合,为特定用例提供更高的准确性和更相关的响应。

开发者可以使用同一模型定制多个用例并生成许多不同的 Prompt Token。游乐场功能提供可以轻松实验并与模型互动的无代码选项,进一步提高了 LLM 对行业特定用例的有效性和可及性。

一旦准备好部署,经过调整的模型即可在云实例、本地系统上或通过 API 运行。

BioNeMo LLM 服务使研究人员能够充分利用大规模模型的力

BioNeMo LLM 服务包括两个用于化学和生物学应用的新 BioNeMo 语言模型。该服务提供蛋白质、DNA 和生物化学数据方面的支持,帮助研究人员发现生物序列中的模式和洞察。

BioNeMo 使研究人员能够利用包含数十亿个参数的模型来扩大研究范围。这些大型模型可以储存更多关于蛋白质结构、基因间进化关系的信息,甚至可以生成用于治疗的新型生物分子。

 API 提供对 Megatron 530B 和其他现成模型的访

除了调整基础模型之外,LLM 服务还提供通过云 API 使用现成和定制模型的选项。

这让开发者可以访问包括 Megatron 530B 在内的各种预训练 LLM,以及使用 NVIDIA NeMo Megatron 框架创建的 T5 和 GPT-3 模型。NVIDIA NeMo Megatron 框架现已进入公测阶段,可支持各种应用和多语言服务需求。     

汽车、计算、教育、医疗、电信等行业的领导者正在使用 NeMo Megatron 为客户提供中文、英语、韩语、瑞典语等语言的领先服务。

供货情

NeMo LLM 和 BioNeMo 服务以及云 API 预计将在下个月开放抢先体验,开发者现在就可以申请并了解详情。

现在可以从 NVIDIA NGC™ 获得 NeMo Megatron 框架的公测版,并且该框架在优化后,可在 NVIDIA DGX™ Foundry 和 NVIDIA DGX SuperPOD™ 以及 Amazon Web Services、Microsoft Azure 和 Oracle Cloud Infrastructure 的加速云实例上运行。

想要体验 NeMo Megatron 框架的开发者可以免费试用 NVIDIA LaunchPad 实验室。

本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
您可能感兴趣的文章
  • AMD在印度设全球最大设计中心 继AMD在Semicon 2023 上宣布的 4 亿美元印度投资后,近日AMD官宣了在印度班加罗尔开设了其最大的全球设计中心,扩大在印度的研究、开发和工程业务。AMD 印度地区负责人 Jaya Jagadish表示:“印度设计中心于 2004 年成立,只有少数员工。如今,AMD 全球员工的 25% 位于印度,他们支持 AMD 在数据中心、游戏等领域的领先产品的开发、PC 和嵌入式客户。这个新设施标志着我们成长历程中的下一个里程碑,我们将成为半导体进步的重要贡献者。”
  • 黄仁勋再谈中国特供芯片:尽力与所有人开展业务 尽管黄仁勋重申将重视中国市场,且继续推出特供版AI芯片,但性能无疑会再次“阉割”。据悉,H20等全新特供芯片的研发、设计、生产,将通过后道点断生产工艺,来满足美国新的AI禁令要求。
  • 《2023-2024年中国人工智能计算力发展评估报告》发布 《报告》显示,2023年上半年,中国人工智能服务器市场规模环比增长54.1%。IDC预计,全球人工智能硬件市场(服务器)规模将从2022年的195亿美元增长到2026年的347亿美元,五年年复合增长率达17.3%;在中国,预计2023年中国人工智能服务器市场规模将达到91亿美元,同比增长82.5%,2027年将达到134 亿美元,五年年复合增长率达21.8%。
  • 长鑫存储推出LPDDR5存储芯片,加入DDR5竞争战局 除了以上三大存储原厂,南亚科、威刚、十铨、宇瞻等都积极投入DDR5相关产品。随着长鑫存储突破LPDDR5之后,国内内存接口芯片龙头企业澜起科技也在行业内率先率先试产DDR5 第二代产品并率先推出DDR5第三代产品。市场研究公司Omdia预计,2023年四季度DDR5销售比例预计将超过20%(基于服务器DRAM),2024年有望进一步上升至51%。
  • 新一代国产CPU——龙芯3A6000发布,无需国外技术授权 龙架构(LoongArch)从顶层架构,到指令功能等全部自主设计,无需国外授权,得到了上百个与指令系统相关的国际软件开源社区的支持,得到了统信、麒麟、欧拉、龙蜥、鸿蒙等操作系统的支持,得到了WPS、微信、QQ、钉钉、腾讯会议等基础应用的支持,已形成与X86、ARM等并列的基础软件生态。
  • “英国英伟达”Graphcore被迫退出中国市场 对Graphcore而言,时间是非常重要的。2022年5月,Graphcore宣称新一代芯片将在2024年的某个时候上市。届时,Graphcore需要向市场和资本证明自己的发展潜力。这很重要,也很紧迫。
相关推荐
    广告
    近期热点
    广告
    广告
    可能感兴趣的话题
    广告
    广告
    向右滑动:上一篇 向左滑动:下一篇 我知道了