<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Gpu on Tony老师的博客</title><link>https://blog.tanteng.space/tags/gpu/</link><description>Recent content in Gpu on Tony老师的博客</description><generator>Hugo</generator><language>zh</language><lastBuildDate>Tue, 07 Apr 2026 14:00:00 +0800</lastBuildDate><atom:link href="https://blog.tanteng.space/tags/gpu/index.xml" rel="self" type="application/rss+xml"/><item><title>CUDA 并行计算原理解析：GPU 加速的本质</title><link>https://blog.tanteng.space/posts/cuda-getting-started/</link><pubDate>Tue, 07 Apr 2026 14:00:00 +0800</pubDate><guid>https://blog.tanteng.space/posts/cuda-getting-started/</guid><description>&lt;p>2006 年，NVIDIA 推出了 &lt;strong>CUDA（Compute Unified Device Architecture）&lt;/strong>——一套针对自家 GPU 的并行计算平台和编程模型。在此之前，GPU 的职责单一，仅限于图形渲染；CUDA 的出现，使得开发者可以用熟悉的 C/C++ 语言直接调用 GPU 的算力。&lt;/p>
&lt;p>大语言模型训练、深度学习推理、科学计算——这些涉及 TB 级数据处理的任务，底层几乎都运行在 CUDA 之上。本文以中立视角，剖析 CUDA 的核心设计，并透过一个实战例子展示其并行计算模型。&lt;/p></description></item></channel></rss>