返回首页

Qwen

找到 18 篇关于此标签的文章

QwenAlibaba

阿里 Qwen 3.6 Max 悄悄上线,中国模型榜单第一——但开源还是闭源,这才是真正的问题

Alibaba's Qwen 3.6 Max quietly launched in preview, scoring highest among Chinese models — but its open-source status remains undecided.

Apr 202 分钟
QwenClaude

有人开始用国产开源模型替换 Claude 做日常编程助手 — 性能差距正在缩小到「够用」

Reddit 上一个有 184 个点赞、143 条讨论的帖子显示,已有开发者认真考虑用阿里的 Qwen-35B-A3B 替换 Anthrop ic 的 Claude Opus 4.7 作为日常编程工具。这件事值得关心,不是因为某个人换了个软件,而是它折射出一个趋势:AI 模型的「够用线」正在快速下移

Apr 201 分钟
Qwen阿里巴巴

本地运行的阿里 Qwen 模型,在普通电脑上实现了「浏览器当操作系统」— 开源模型的能力边界正在被重新丈量

一位开发者用阿里巴巴开源的 Qwen 3.6 35B 模型,在本地(无需云端服务器)实现了「Browser OS」——让 AI 像操作系统一样调度浏览器完成复杂任务。他称这是迄今为止本地模型跑出的最好结果。这件事值得关注,因为它说明开源模型的实际可用性,正在追上那些要收费的云端大模型。

Apr 191 分钟
阿里巴巴Qwen

一台消费级显卡,AI 帮用 户重写了整个记账软件——阿里 Qwen 新模型让「本地运行」开 始变得真实

阿里巴巴最新发布的 Qwen3.6-35B-A3B 模型,在一 位普通用户的消费级显卡(RTX 5070 Ti,16GB 显 存)上,用不到一小时完成了代码审查、 安全漏洞排查和重构工作。这不是实 验室基准测试,是真实项目里上一代 模型卡死的问题被解决了。它值 得关注,因为「在自己电脑上跑大模型做

Apr 181 分钟
QwenAlib aba

Alibaba Releases Qwen3.6-35B-A3B Mixture-of-Experts Model

Alibaba's Qwen team releases Qwen3.6-35B-A3B, a 35B-parameter MoE model activating 3B parameters per token.

Apr 162 分钟
QwenQwen3.6- 35B-A3B

Qwen3.6-35B-A3B released!

Alibaba's Qwen team releases a 35B sparse MoE model with only 3B active params under Apache 2.0.

Apr 163 分钟
QwenAmazon SageMaker

使用 SageMaker RLVR 微调 Qwen 2.5 以支持工具调用

AWS SageMaker 无服务器 RLVR 微调使 Qwen 2.5 7B 的工具调用准确率提升 57%,无需管理 GPU。

Apr 71 分钟
llama.cppQwen

37 个大语言模型在 MacBook Air M5 32GB 上完成基准测试:完整速度结果

社区使用 llama-bench 在 M5 Air 32GB 上对 37 个本地 LLM 进行基准测试,结果显示 MoE 模型在速度与质量比方面表现最佳。

Apr 61 分钟
OpenCodellama-server

OpenCode + 本地 LLM:哪些模型最适合独立开发者任务

在 RTX 4080 上对 OpenCode 与 6+ 款自托管 LLM 进行实战基准测试,涵盖真实编码任务。

Apr 61 分钟
QwenvLLM

Agent 集群结合连续批处理将 LLM 任务时间缩短 36 倍

在 Intel B70 GPU 上运行 50 个并行 Agent 配合 Qwen 27B,利用连续批处理技术将原本需 42 分钟的研究任务压缩至 70 秒完成。

Apr 61 分钟
BrookingsAI 饱和

AI 饱和:对未来的工作意味着什么

布鲁金斯学会分析了 AI 饱和趋势及其对全球知识型工作者的岗位替代风险,指出白领行业最早面临压力,建议企业采用增强而非替代策略。

Apr 51 分钟
a16zAutoGen

Marc Andreessen 的 AI 同事愿景:对开发团队意味着什么

a16z 的 Andreessen 描绘了自主 AI 代理作为未来同事的愿景,这对小型团队的招聘与构建方式产生深远影响。

Apr 51 分钟
QwenAlibaba Cloud

Qwen 3.6 现身官方应用,与 3.5 Max 预览版同框

Reddit 用户发现 Qwen 3.6 已出现在官方 Qwen 应用中,暗示该模型即将面向公众发布,不再局限于 API 访问。

Apr 51 分钟
llama.cppDistributed Training

Local Inference vs Distributed Training: Where the Real Gap Is

Indie devs run models locally, but training still requires datacenter scale. Can distributed training ever close that gap?

Apr 52 分钟
open-source-llmQwen

Chinese AI Labs Delay Open-Source Releases: What Solo Builders Should Do Now

Qwen, GLM, MiniMax all stalling open-weight releases. Here's how solopreneurs should hedge their model stack.

Apr 52 分钟
llama.cppTurboQuant

TurboQuant KV Cache Quantization Beats Baselines on Gemma 4 and Qwen

Community benchmarks show TurboQuant KV quantization achieves near-zero accuracy loss at 3.1 bits on Gemma 4 with 34% long-context speedup.

Apr 52 分钟
vLLMPagedAttention

vLLM PagedAttention: From Memory Management to Production Deployment

vLLM's PagedAttention raises GPU memory utilization from 60% to 95%+ using OS paging concepts for LLM inference.

Apr 52 分钟
ChatGPTARC-AGI

Why Programmers Should Ignore the AI Replacement Anxiety Hype

AI lowers the floor for output but not the ceiling for quality. Here is why effort still compounds.

Apr 42 分钟