Welcome to Micron.com, please Log in or Register an account to continue.
- 概述
- AI 产品
生成式 AI 训练和应用
从实时自然语言处理 (NLP) 数据,到个人助理和 AI 艺术创作,借助美光的专用内存和存储解决方案,每个人都能运行生成式 AI 应用。了解美光如何提供在终端设备上运行生成式 AI 应用所需的速度和容量。
智能制造
美光利用 AI 提升质量。在我们的智能工厂中,团队成员携手 AI,利用数据改善运营,在业界前沿 AI 内存和存储解决方案的制造中实现了创纪录的产量、良率和质量。了解美光的 AI 内存解决方案如何支持 AI 驱动的工业 4.0 设备。
企业业务中的 AI
美光的高性能内存和存储解决方案助力实现可落地的商业智能。了解我们针对机器学习训练和深度学习的前沿高性能解决方案,以及美光面向未来投资的专注于创新的 AI 公司。
常见问答
运行 AI 数据和机器学习数据工作负载时,内存对于系统整体性能而言至关重要。适合 AI 数据和机器学习数据工作负载的内存主要有两种:一种是高带宽内存 (HBM);另一种是双倍数据率 (DDR) 内存,特别是新推出的 DDR5。为 AI 训练数据工作负载选择哪种内存取决于很多因素,如 AI 模型训练算法的具体要求、自动化数据处理的规模和系统总体配置等。HBM3E 和 DDR5 均具有显著优势,在选择时应考虑 AI 内存的具体使用情况、预算及当前的硬件。美光针对 AI 模型训练提供了新一代 HBM3E 和 DDR5。
HBM3E 具有前沿的架构和高带宽容量,无论从带宽、速度还是能效1 方面看,都属于目前的高端 AI 模型训练内存解决方案。相比 HBM 解决方案,DDR5 AI 训练内存模块是当前更为主流的高速内存解决方案,在大规模部署时更具成本效益。
要打造理想的机器学习数据和 AI 模型存储解决方案,需要考虑若干因素。重点考虑因素包括速度、性能、容量、可靠性、耐用性和可扩展性等。AI 工作负载的理想智能存储解决方案取决于具体应用的特定需求、预算及系统总体配置。美光提供性能出色的 NVMe SSD,可满足机器学习数据和 AI 模型存储的特定需求。 美光 9400 NVMe SSD 的容量高达 30TB,专为 AI 模型训练、高频交易和数据库加速等关键工作负载而设计,为 PCIe® 4.0 存储设定了新的性能基准。 美光 6500 ION NVMe SSD 是针对网络数据湖的大容量理想解决方案。
混合 AI(有时被称为分布式 AI)是基于云计算和基于边缘的 AI 系统组合。
目前,大多数 AI 系统都基于数据中心,可以通过云服务访问,为生成式 AI 等应用提供更强大的性能。
另一方面,基于边缘的 AI(也称为端侧 AI)是指数据处理直接发生在设备(如智能手机、汽车、个人电脑和物联网设备)上的 AI 系统。其无需与云进行持续的数据通信,因而可以改善隐私、带宽和延迟限制,还可在没有连接的情况下工作。
混合方法在云和边缘设备之间分配和协调 AI 工作负载。平衡基于云的 AI 模型和直接在设备上运行的模型,并辅以云中的长期分析和改进,可以在边缘实现实时、自主决策。
从本质上讲,混合 AI 结合了基于云和基于边缘的 AI 各自的优势,来提供理想的用户体验。
1美光 HBM3E 提供超过 1.2TB/s 的更高内存带宽,在相同的堆栈高度下容量提高超过 50%。数据速率测试估计值基于在制造测试环境中执行的 shmoo 图引脚速度。
1美光 HBM3E 提供超过 1.2TB/s 的更高内存带宽,在相同的堆栈高度下容量提高超过 50%。数据速率测试估计值基于在制造测试环境中执行的 shmoo 图引脚速度。