第566章 破局奇招(1/2)
请关闭浏览器的阅读/畅读/小说模式并且关闭广告屏蔽过滤功能,避免出现内容无法显示或者段落错乱。
要搞清楚cuda是什么,先要明白cpu和gpu的区別。
cpu架构有复杂的控制单元和巨大缓存。
这种设计是为了处理复杂逻辑运算。这要求cpu必须有很强的单核性能。
但cpu物理核心数量有限,就算最高端的伺服器cpu,面对海量简单计算时,也会因为线程数量限制而排队。
快看网的推荐算法,本质是海量矩阵乘法。
这些计算本身不复杂,不需要多强逻辑推理,但数量极其庞大。
让cpu去算矩阵,是高射炮打蚊子,效率极低,而且容易把伺服器撑爆。
gpu架构完全不同。
gpu没有复杂控制单元,內部塞满了成百上千个简单的流处理器。
这些流处理器只能做基础运算。
但因为数量庞大,它们可以同时並行处理海量数据。
这完美契合了ai算法和推荐系统需要的大规模並行计算。
可是,硬体再强,也需要软体驱动。
在cuda出现前,程式设计师想用显卡算力做非图形渲染的通用计算,简直是噩梦。
他们必须把非图形数据,强行偽装成图形像素数据,通过复杂图形api通道传给显卡。
等显卡算完,还要把输出像素数据反向解析回通用数据。
这种操作极其繁琐,写错一行代码,就会导致程序崩溃。
所以,空有强大並行算力,却没人能轻易用在非游戏领域。
直到黄仁勛做出大胆决定,推出cuda。
cuda全称是计算统一设备架构。
它本质是一个软体开发平台和编程模型。
英伟达在每张显卡底层嵌入了cuda硬体指令集,同时在软体层面推出一整套编译器、库文件和开发工具。
cuda最伟大也最可怕的地方在於,它允许程式设计师直接用最普及的c语言,调用显卡底层算力。
程式设计师不再需要学晦涩的图形api,也不需要偽装数据。
只要会写c语言,只要装了cuda开发包,就能轻鬆把一段並行计算代码跑在英伟达显卡上。
这极大降低了gpu通用计算门槛。
华尔街投资人不理解,为什么一家卖硬体的公司,要养几千软体工程师维护一个免费给开发者用的平台。
但黄仁勛顶住压力,强行推广cuda。
他甚至跑到各大学计算机系,免费发支持cuda的显卡,鼓励学生用cuda做科研计算。
这是一个极度长远的阳谋。
隨时间推移,越来越多程式设计师习惯用cuda。
各种基於cuda的科学计算库、深度学习框架开始在开源社区生长。
当2025年大模型时代爆发,全球科技公司都需要海量算力训练ai时,他们发现一个绝望的现实。
所有成熟ai算法,所有好用的深度学习框架,底层代码都是基於cuda写的。
而cuda,是英伟达的私有闭源技术。
它只支持英伟达自家显卡。
如果买一批ad显卡,会发现根本无法运行主流ai算法,因为ad硬体解析不了cuda指令。
想在ad显卡上跑通大模型,必须把整个软体生態从底层重写。
这个工作量,大到没有公司愿意承担。
这就是为什么,到了ai时代,所有人都只能捏著鼻子去抢购英伟达高价算力卡。
算力可以製造,但生態一旦形成,就是一道嘆息之墙。
夏冬放下手机,揉了揉眉心。
他现在处境很矛盾。
本章未完,点击下一页继续阅读。