电子发烧友网
电脑版
提示:
原网页
已由神马搜索转码, 内容由
www.elecfans.com
提供.
首页
前沿观察
行业动态
新品技术
视频推荐
更多导航↓
往期专题
前沿观察
>>查看更多
大模型时代,国产GPU面临哪些挑战
电子发烧友网报道(文/李弯弯)随着人工智能技术的快速发展,对GPU计算能力的需求也越来越高。国内企业也正在不断提升GPU性能,以满足日益增长的应用需求。然而,相较于国际巨头,国内GPU仍然存在差距,国产GPU在不断成长的过程中也存在诸多挑战。 在大模型训练上存在差距 大语言模型是基于深度学习的技术。这些模型通过在海量文本数据上的训练,学习语言的语法、语境和语义等多层次的信息,用于理解和生成自然语言文本。大语言模型是
发表于 04-03 01:08 • 4087次 阅读
国产GPU在AI大模型领域的应用案例一览
电子发烧友网报道(文/李弯弯)近一年多时间,随着大模型的发展,GPU在AI领域的重要性再次凸显。虽然相比英伟达等国际大厂,国产GPU起步较晚、声势较小。不过近几年,国内不少GPU厂商成长非常快,并且不断推出新品,产品也逐渐在各个领域取得应用,而且在大模型的训练和推理方面,也有所建树。 国产GPU在大模型上的应用进展 电子发烧友此前就统计过目前国内主要的GPU厂商,也介绍了这些厂商主要的产品及产品发布、量产进展情况。可以看到
发表于 04-01 09:28 • 3034次 阅读
盘点国产GPU在支持大模型应用方面的进展
电子发烧友网报道(文/李弯弯)目前谈到GPU,大家首先想到的应该就是英伟达了。近一年多时间来,随着大模型的发展,英伟达GPU的强大实力可谓无人不知。而相比之下,国产GPU的声势就小了许多。事实上,近些年国内也有不少GPU企业在逐步成长,虽然在大模型的训练和推理方面,与英伟达GPU差距极大,但是不可忽视的是,不少国产GPU企业也在AI的训练和推理应用上找到位置。 景嘉微 景嘉微是国产GPU市场的主要参与者,目前已经完成JM5、JM7和J
发表于 03-29 00:27 • 4113次 阅读
AI算力GPU开始腾飞,背后是电源管理的持续支持
电子发烧友网报道(文/黄山明)近期,IDC出具了一份报告显示,AI PC在中国PC市场中新机的装配比例将在未来几年内快速攀升,预计2024年将迅速增长至55%,在2027年将达到85%,而今年也将成为AI PC元年。 不仅是AI PC,还包括AI服务器、AI手机、AI汽车等,众多AI实际应用让算力GPU的需求大增,也在不断追求性能更高的GPU。而随着GPU性能的提升,其功耗与稳定性的难度也随之增加。这就需要电源管理在背后为其提供稳定的电力供应,让GPU提供更好的AI算力支持
发表于 03-30 00:12 • 3515次 阅读
英伟达发布新一代H200,搭载HBM3e,推理速度是H100两倍!
电子发烧友网报道(文/李弯弯)日前,英伟达正式宣布,在目前最强AI芯片H100的基础上进行一次大升级,发布新一代H200芯片。H200拥有141GB的内存、4.8TB/秒的带宽,并将与H100相互兼容,在推理速度上几乎达到H100的两倍。H200预计将于明年二季度开始交付。此外,英伟达还透露,下一代Blackwell B100 GPU也将在2024年推出。 英伟达预计在2024年推出H200和B100两款芯片。来源:英伟达官网 首款搭载HBM3e 的GPU ,推理速度几乎是H100 的两倍 与A100和H100相比,H200最
发表于 11-15 01:15 • 2787次 阅读
英伟达GH200、特斯拉Dojo超级算力集群,性能爆棚!算力之争加剧!
电子发烧友网报道(文/李弯弯)今年8月,在计算机图形学顶会SIGGRAPH 2023现场,英伟达发布了新一代GH200 Grace Hopper平台,该平台专为处理大语言模型、推荐系统、矢量数据库等全球最复杂的生成式 AI 工作负载而构建。 日前,这款GH200 Grace Hopper超级芯片首次亮相MLPerf行业基准测试,在此次测试中,具有更高的内存带宽和更大的内存容量的GH200与H100 GPU相比,性能高出17%。要知道,英伟达的H100 GPU产品性能在业界已经是处于遥遥领先的水平。 相比于H10
发表于 09-14 09:10 • 2707次 阅读
行业动态
>>查看更多
新一代GPU之王B200面世,带动产业链狂欢!
电子发烧友网报道(文/周凯扬)作为AI时代不容置疑的无冕之王,英伟达每年举办的GTC大会不仅是针对英伟达软硬件生态开发者的一场盛会,也是英伟达展示肌肉的舞台。在近日举办的GTC大会上,英伟达CEO黄仁勋在发布新品的同时,也宣告了一个新的计算时代的到来。 黄仁勋表示,我们需要更大的模型,然后用更多的多模数据去训练它,而不再局限于互联网上的文本数据,还有图片、图表。正如我们通过电视来获取支持知识一样,这些大模型也将快速
发表于 03-19 23:58 • 3054次 阅读
GPU交期缓解,AI服务器厂商营收暴涨
电子发烧友网报道(文/周凯扬)AIGC在应用软件掀起的这股热潮背后,却隐藏着AI服务器组件缺货的难题。在云服务厂商和互联网厂商大肆采购AI GPU的趋势下,不少服务器厂商虽然订单不断,却也面临着供应上的烦恼。然而,在2023年上下游的共同努力下,2024年开年之际,AI服务器的供应问题终于有了显著缓解。 营收翻倍,股价暴涨的超微 超微于近期公布了他们2024财年Q2季度的财报数据,其营收达到了创纪录的36.6亿美元,相较去年有了103%的同比增长
发表于 02-20 00:17 • 2465次 阅读
AI从GPU席卷至MCU,内存的重要性与算力等同
电子发烧友网报道(文/周凯扬)在市场对AI的不懈追求中,似乎绝大多数人都把重心放在了算力上。然而决定真正AI计算表现的,还有内存这一重要组成部分。为此,除了传统的标准内存选项外,市面上也出现了专门针对AI进行优化的内存。 高性能AI芯片需要超高带宽内存 无论是英伟达最新的服务器GPU,还是一众初创公司推出的AI加速器,我们都可以看到HBM出现的越来越频繁,比如英伟达H100、谷歌TPU等等。美光、SK海力士和三星等厂商都在布局这类超
发表于 11-29 01:04 • 1666次 阅读
A17 Pro vs 8Gen3,手机旗舰SoC迭代,GPU和NPU成为下一轮发力点
电子发烧友网报道(文/周凯扬)随着2023年步入尾声,无论是苹果还是高通,都已经推出了新一代的旗舰手机SoC,这也昭示着安卓与iOS阵营手机性能的又一次年末大比。然而,对比过去拼通用计算性能和通用图形计算性能的局面,今年两大厂商都已经开始卷向其他的计算负载,比如光追、超分这样的特殊GPU负载,以及终于被积极调动算力的NPU单元。我们就从CPU,GPU和NPU三个手机SoC主力计算单元来分析苹果A17 Pro和高通骁龙8Gen3在设计上新一轮迭代。 CPU
发表于 11-01 09:02 • 4443次 阅读
新品技术
>>查看更多
英伟达GPU垄断局面下,开源能否成为颠覆市场的关键力量?
开源是AMD AI软硬件生态系统的一大卖点,虽然ROCm软件自 2016 年推出以来一直是开源的,但是固件的开源也很重要,AMD GPU 上的MES固件AMD 单独开发的,不是开源的。
发表于 04-18 14:25 • 254次 阅读
科技驱动未来,提升AI算力,GPU扩展正当时
GPU可以大幅缩短AI算法的训练和推断时间,从而节省时间和成本
发表于 04-16 18:22 • 779次 阅读
为什么GPU适用于AI?AI服务器产业链格局分析
GPT模型对比BERT模型、T5模型的参数量有明显提升。GPT-3是目前最大的知名语言模型之一,包含了1750亿(175B)个参数。在GPT-3发布之前,最大的语言模型是微软的Turing NLG模型,大小为170亿(17B)个参数。训练数据量不断加大,对于算力资源需求提升。
发表于 04-09 10:38 • 462次 阅读
RISC-V芯片新突破:CPU与GPU一体化核心设计
X-Silicon 的芯片与其他架构不同,其设计将 CPU 和 GPU 的功能结合到单核架构中。这与 Intel 和 AMD 的典型设计不同,后者有独立的 CPU 核心和 GPU 核心。
发表于 04-07 10:41 • 370次 阅读
视频推荐
更多推荐
46
00:33
占比升至16%!台积电中国大陆客户订单加急
44
00:36
退出价格战后宝马多地4S店出现霸王条款
205
00:36
传OpenAl与博通就开发人工智能芯片进行谈判
142
00:34
郭明錤质疑iPhone 16订单增长预测 不认可“苹果智能” 推动换机