HBM全称为High Bandwidth Memory,直接翻译即是高带宽内存,是一款新型的CPU/GPU内存芯片。
继续阅读分类: 人工智能
随着时代快速发展的人工智能,已然成为引领新一轮科技革命和产业变革的核心驱动力,并全面深刻地改变着人类的生产和生活方式。
AMD 宣布推出 MI300 GPU 加速器
AMD 今天宣布推出期待已久的 MI300X 加速器芯片,AMD 打算成为 NVIDIA 旗舰 H100 GPU 的有力竞争对手。
继续阅读大数据浪潮与企业技术重塑
AI/ML正在如何重塑企业内部的技术权力结构。
继续阅读GPU互联技术:NVLink、IB、ROCE
AI 时代 GPU 成为核心处理器,分布式训练诉求提升。GPU 采用并行计算方式,擅长处理大量、简单的运算,因此多适用于图像图形处理和 AI 推理。
继续阅读GPU与CPU的区别
OpenAI公司的ChatGPT在短短一个月内快速风靡全球,人工智能的快速发展,离不开高性能、高算力的硬件支持。
继续阅读AI服务器占领市场还需等多久
考虑基础设施时,超大规模运算和云构建者谈论的是兆瓦、服务和存储的混合,以及在一兆瓦功率下提供的总容量。
继续阅读通俗理解数据中心的第三个关键芯片“DPU”
DPU 最直接的作用是作为 CPU 的卸载引擎,接管网络虚拟化、硬件资源池化等基础设施层服务,释放 CPU 的算力到上层应用。
继续阅读GPU架构与CUDA基础
CUDA是一个崭新的硬件和编程模型,它直接答复了这些问题并且展示了GPU 如何成 为一个真正的通用并行数据计算设备。
继续阅读多卡GPU是如何互联通信的
在单个GPU性能有限的情况下,将两个或多个GPU连接起来这种在当时看起来非常荒谬的想法竟然渐渐成为提升系统GPU性能的主流方法。
继续阅读