返回首页
Gemma
找到 8 篇关于此标签的文章
Pocket LLM端侧AI
手机本地跑 AI 不再需要联网—— 一个开源安卓应用正在把这件事变得可操作
Pocket LLM v1.4.0 本周更新:安装包从捆绑模型压缩到约 200MB,用户可在 App 内自行下载所需模型、离线运行 AI 对话。这不是大公司发布会,而是开源社区悄悄推进「手机本地 AI」可用性的一个缩影——值得关注的信号是,离线 AI 的门槛正在从「极客专属」向普通用户移动。
Apr 191 分钟
TranslateGemmaGemma
我 们用 TranslateGemma-12B 对比了 5 款前沿大模型的 字幕翻译能力——它全面领先,但有一个严重 缺陷
Alconost 基准测试显示,这 款 12B 专用模型击败了 GPT-5.4 和 Claude Sonnet-4,但会悄无声息地输出错误的 中文字体变体。
Apr 141 分钟
GemmaQwen3
Why some small/medium models fail at grammar checking task?
Gemma 4B、GPT-OSS-20B 和 Qwen3-80B 在语法无误的句子中「幻觉」出拼写错误, 暴露了指令微调模型在语法检查场景下的系统性缺陷。
Apr 131 分钟
AI智能体开源模型
Gemma 4"听话"危机:AI智能体落地的致命陷阱
谷歌最新开源模型Gemma 4在实际业务流程中拒绝执行指令、忽视工具调用,暴露AI智能体商业化落地的核心风险,迫使企业重新评估AI自动化投入决策。
Apr 91 分钟
Qwen-32Bllama.cpp
本地 LLM 在 8-9 次链式调用后工具调用准确率下降
Qwen 32B、Gemma 9B 和 Command R 32B 在 8 次以上工具调用后均出现类似故障,原因是注意力稀释而非上下文限制。
Apr 81 分钟
OpenCodellama-server
OpenCode + 本地 LLM:哪些模型最适合独立开发者任务
在 RTX 4080 上对 OpenCode 与 6+ 款自托管 LLM 进行实战基准测试,涵盖真实编码任务。
Apr 61 分钟
Gemmallama.cpp
Gemma E2B 在 M3 Pro 上实现本地实时多模态 AI 运行
开发者利用 Parlor 项目,在 Apple M3 Pro 上本地运行 Gemma 4 E2B,实现实时音视频输入与语音输出,无需云端依赖。
Apr 51 分钟
llama.cppQWEN
OpenClaw Runs Local AI Agents on MacBook Air 16GB via TurboQuant
OpenClaw uses llama.cpp TurboQuant cache compression to run agentic AI models on 16GB MacBook Air at 10-15 tokens/sec.
Apr 52 分钟