返回首页

Ollama

找到 8 篇关于此标签的文章

OllamaGemma4

Deploy Gemma 4 Locally on Mac with Public Remote Access

Full- stack guide: Ollama + OrbStack + frp + Nginx exposes local Gemma 4 inference to the public internet via HTTPS.

Apr 133 分钟
OpenRouterOllama

科技估值重置:对独立 AI 开发者意味着什么

估值压缩正在击垮那些被风投资金撑大 的竞争对手——精简的独立开发者如今拥有结构性成 本优势。

Apr 131 分钟
Ollamallama.cpp

RTX 5070 12GB 显存本地 LLM 部署指南

在配备 12GB 显存的 RTX 5070 平台上,为聊天、创意写作及音乐生成选择本地 AI 模型的完整指南。

Apr 81 分钟
llama.cppOllama

当工具链成为枯燥的基础设施,本地 AI 走向主流

Reddit 热议指出:本地 LLM 普及的关键在于可靠的工具栈而非基准测试提升,正如 Docker 引发的容器革命。

Apr 61 分钟
Qwen 3.5llama.cpp

Qwen 3.5 工具调用漏洞:问题所在及修复方案

四个已确认的漏洞导致 Qwen 3.5 在智能体设置中工具调用失效。本文详解已修复项、待解决问题及客户端变通方案。

Apr 61 分钟
QwenAlibaba Cloud

Qwen 3.6 现身官方应用,与 3.5 Max 预览版同框

Reddit 用户发现 Qwen 3.6 已出现在官方 Qwen 应用中,暗示该模型即将面向公众发布,不再局限于 API 访问。

Apr 51 分钟
open-source-llmQwen

Chinese AI Labs Delay Open-Source Releases: What Solo Builders Should Do Now

Qwen, GLM, MiniMax all stalling open-weight releases. Here's how solopreneurs should hedge their model stack.

Apr 52 分钟
Hermes AgentNous Research

Hermes Agent: Best Open-Source Local LLM Agent Framework in 2025

Nous Research's Hermes Agent offers per-model tool call parsers, Ollama/vLLM support, and MIT license at 22k stars.

Apr 52 分钟