好文推荐:如何打破CUDA垄断?LLVM奠基人长文解读
推荐理由
AI编译器是现在各大软硬件厂商争夺的核心要地,本文作者Chris Lattner是LLVM项目的主要发起人与作者之一,Clang编译器的作者,苹果公司编译器开发团队的首席架构师,苹果新编程语言Swift创造者,在这篇万字长文中,他详述了AI编译器发展史。
阅读地址
https://www.chaspark.com/#/hotspots/1138522768379686912
文中列到的关键事件时间线
2001年:NVIDIA推出GeForce3,第一款带有可编程着色器的GPU,引入Shader Model 1.0。
2006年:NVIDIA推出CUDA(统一计算设备架构),首个面向GPU的通用编程平台。
2008年:Chris Lattner在苹果公司担任首席工程师,负责实现OpenCL,并将其贡献给Khronos Group进行标准化。
2009年:苹果决定放弃OpenCL,推出Metal作为替代。
2012年:AlexNet使用两块NVIDIA GeForce GTX 580 GPU训练,开启了现代深度学习革命。
2014年:NVIDIA推出cuDNN库,用于加速深度学习操作。
2015年:谷歌推出TensorFlow深度学习框架。
2016年:Meta(Facebook)推出PyTorch深度学习框架。
2016年:TVM(Tensor Virtual Machine)项目由陈天奇和路易斯・塞泽教授发起。
2017年:Chris Lattner加入Google Brain团队,帮助扩展TPU软件栈。
2018年:TVM项目开源并融入Apache。
2018年:Chris Lattner及其团队在谷歌开始构思和开发MLIR编译器框架。
2019年:Triton作为哈佛大学的研究项目首次发表,Philippe Tillet随后加入OpenAI。
2022年末:ChatGPT爆火,推动生成式人工智能和GPU计算走向主流。
2023年3月:XLA项目更名为OpenXLA,并宣布独立。
2023年末:AI模型开发框架vLLM发布0.7版本。
2024年末:NVIDIA收购OctoAI,从而控制了许多TVM的原始开发者。DeepSeek等团队通过直接使用PTX汇编绕过CUDA以追求极致性能。
2025年:NVIDIA在GTC大会上宣布CUTLASS Python和cuTile两款新的Python eDSL。
- 点赞
- 收藏
- 关注作者
评论(0)