llama.cppGemma-4
llama.cpp Adds Audio Processing Support via Gemma-4 E2 A/E4A Models
llama-server 现已支持通过 Google Gemma-4 E2A 与
E4A 多模态模型在本地运行语音转文字推理,
大幅扩展了这一开源推理引擎的应用边界。
Apr 12·1 分钟
OpenCodellama-server
OpenCode + 本地 LLM:哪些模型最适合独立开发者任务
在 RTX 4080 上对 OpenCode 与 6+ 款自托管 LLM 进行实战基准测试,涵盖真实编码任务。
Apr 6·1 分钟