找到 1 篇关于此标签的文章
Karpathy 的微型教学 GPT 被部署到 FPGA 上,跑出 50,000 tps——关键是把权重存进芯片内部而非外部内存。这验证了边缘 AI 推理的瓶颈在内存带宽,硬件创业者开始押注片上存储路线。