返回首页
本地大模型
找到 6 篇关于此标签的文章
AMDL M Studio
一个 Reddit 帖子揭示的真相:本地跑 AI 大模型,硬件门槛比厂商说的要高得多
一位用户发现自己 24GB 内存的 AMD 迷你电脑只能给 AI 模型分配 8GB 显存,想扩到 16GB 却无从下手。这个看似普通的技术求助,折射出一个被低估的现实:「在家跑 AI」的硬件门槛,远比营销话术描述得复杂。
Apr 201 分钟
Qwen3本地大模型
本地运行 AI 编程时, 要不要关掉「思考模式」?一个值得厘 清的实用问题
在自己电脑上 跑大模型写代码时,「思考模式」(模型在给出 答案前先进行内部推理的机制)到底是 帮手还是负担?这个问题在开发者社区里有真 实争议。我们认为,这不只是技 术设置问题,而是折射出当前 AI 编 程工具链一个尚未解决的结构性 矛盾。
Apr 181 分钟
本地大模型LoRA微调
9B本地数据分析师:LoRA微调让小模型自主完成89%工作流
一个9B参数模型经LoRA微调后,无需人工干预完成89.7%的数据分析任务,这意味着"数据分析外包"的成本逻辑正在被彻底重写。
Apr 101 分钟
本地大模型算力成本
llama.cpp张量并行突破:本地AI算力门槛再降一级
多GPU本地推理加速落地,企业无需依赖云厂商即可运行大模型,私有化部署的算力成本与技术门槛同步下移,采购决策窗口正在打开。
Apr 91 分钟
Gemma 4llama.cpp
修复 llama.cpp 中 Gemma 4 工具调用问题:根本原因解析
llama.cpp 中处理 Gemma 4 聊天模板的四个漏洞导致工具调用结果崩溃或陷入循环。
Apr 81 分钟
Qwen3.5Gemma4
Qwen3.5 与 Gemma4 及云端大模型对比:Python Turtle 绘图基准测试
Reddit 用户对本地与云端大模型进行 Python Turtle 绘图基准测试,发现 Gemma4 与 Gemini 在视觉风格上高度相似,本地量化模型表现强劲。
Apr 61 分钟