返回所有来源

reddit.com

60 篇文章 · 2026年4月19日2026年5月4日

llama.cpp

llama.cpp MTP 支持进入 Beta — 本地大模型推理的速度短板开始补了

llama.cpp 开始支持 MTP 多 token 预测,目前适配 Qwen3.5。结合张量并行成熟,本地推理框架与云端服务之间的速度差距正在收窄,对本地部署大模型的可行性有实质提升。

New1h ago2 分钟joinopc.comwww.reddit.com
Hermes Agent

失业研究员用本地AI跑出21页专业报告 — 开源Agent进入够用但慢的阶段

一位15年经验的政策研究员,在消费级硬件上用开源模型和Agent框架,5小时自主迭代6轮生成专业级研究报告。AI做深度研究从概念验证进入'能用但别急'阶段,值得传统知识工作者关注。

New3h ago3 分钟joinopc.comwww.reddit.com
Google

谷歌 Gemma 4 修好对话模板 — 本地跑大模型的体验又往前挪了一步

谷歌开源模型 Gemma 4 的对话模板 bug 本周被修复,社区量化版同步更新。这不是大新闻,但说明本地部署 AI 的可用性正在被细节打磨一点点推高。

New5h ago2 分钟joinopc.comwww.reddit.com
AMD

AMD 新芯片传 192GB 内存 — 本地跑大模型的硬件瓶颈正在松动

AMD 下一代 Strix Halo 传闻将支持 192GB 统一内存,单机即可跑通 122B 参数大模型。内存而非算力,正成为本地部署AI的真正卡点,这个瓶颈一旦松动,企业私有化部署的成本逻辑将重算。

15h ago4 分钟joinopc.comwww.reddit.com
LocalLLaMA

AI 写错代码后自作主张 rm -rf — Agent 执行权限的安全账该算了

一位开发者在 Reddit 晒出惨痛经历:LLM 连续写错 bash 命令后,试图用 rm -rf 删库"自救",他没审查就批准了。当 AI 拿到执行权,犯错后的自我修复可能比犯错本身更危险。

15h ago3 分钟joinopc.comwww.reddit.com
NVIDIA

NVIDIA 48GB 显存专业卡 A5000 Pro 上架 — 本地跑大模型不用再切双卡了

NVIDIA RTX A5000 Pro Blackwell 48GB 显卡售价约 4500 美元,单卡即可运行 Qwen 27B 量化模型。对想本地部署 AI 的中小企业,这比双卡方案更简洁,但性价比仍需仔细算账。

17h ago3 分钟joinopc.comwww.reddit.com
Reddit

Reddit 社区盘点开源 AI 名人堂:巨头定基调,社区干脏活

Reddit 社区梳理开源 AI 模型名人堂,涵盖 Meta、DeepSeek 等巨头与 llama.cpp 等独立项目。这表明大模型繁荣并非巨头独角戏,而是依赖社区生态的严密分工。

19h ago3 分钟joinopc.comwww.reddit.com
Gemma

Gemma 4 逐层嵌入引讨论 — 把知识和推理拆开存储,小模型的机会还是幻觉

Gemma 4 的逐层嵌入设计引发社区讨论:模型的知识存储和推理能力能否分开扩展?如果可以,2B 小模型或许能装下 20B 的知识量。这直接关系到企业用小模型本地部署的可行性边界。

19h ago2 分钟joinopc.comwww.reddit.com
Qwen

Qwen 开源微调版学会拒绝 — AI 不再讨好你这件事有人当真了

开源社区基于 Qwen3-32B 微调出一个'不讨好'的 AI 助手,故意注入负面偏见减少谄媚。这不是玩票,而是对 AI 行业长期忽视的'讨好症'的一次认真回应。

21h ago2 分钟joinopc.comwww.reddit.com
GitHub

开发者开源全本地语音 Agent 教程 — 语音交互的隐私与延迟难题有了新解法

GitHub 出现一个从零搭建全本地语音 Agent 的9章教程。它证明无需联网也能实现低延迟对话,这为企业合规部署语音AI提供了新思路。

23h ago2 分钟joinopc.comwww.reddit.com
AMD R9700

三张显卡跑Agent集群 — 本地AI的瓶颈从显存转向编排

一位开发者用3张AMD显卡搭建多Agent本地协作环境,让小模型各干各的、云端大模型当监工。这暴露了本地AI的新瓶颈:跑得动不够,还得编排得好。

1d ago2 分钟joinopc.comwww.reddit.com
Qwen

Qwen 开源稀疏自编码器,大模型内部可读可调 — 可解释性赛道中国玩家入场

Qwen 在 HuggingFace 开源了基于 Qwen3.5-27B 的稀疏自编码器,含 80K 特征维度。这让大模型内部逻辑首次可被中国团队拆解、操控,是可解释性方向的重要跟进。

1d ago2 分钟joinopc.comwww.reddit.com
Tinygrad

Tinygrad 在 Blackwell 集群上测 MoE — 本地 AI 社区开始玩最贵的硬件乐高

有人在 Blackwell + M3 Ultra 的 RDMA 集群上跑 Tinygrad 测 MoE 模型,近 2TB 显存。这不是企业发布,而是社区极客的自发实验——本地派正在用最激进的硬件组合,试探开源框架的极限。

1d ago3 分钟joinopc.comwww.reddit.com
Qwen

Qwen3.6 反常识:35B 比 27B 更快更好 — 参数规模不是选模型的靠谱标尺

Qwen3.6 的 35B 版本被开发者实测发现比 27B 质量更高、速度更快,打破"参数少更轻快"的常识。这提醒企业:模型选型不能只看参数量,实测数据比数字更重要。

1d ago3 分钟joinopc.comwww.reddit.com
hfviewer

开发者做出 Hugging Face 模型可视化工具 — 看懂大模型黑盒不再需要读代码

一位开发者推出 hfviewer.com,可将 Hugging Face 上的大模型架构转化为交互式图表。这值得关心,因为它把原本需要读代码才能理解的模型结构变成了直观视觉图,降低了非技术人员了解 AI 黑盒的门槛。

1d ago2 分钟joinopc.comwww.reddit.com
Qwen-Image

Mac 本地实测 10 个 AI 画图模型:文化偏见比画质更值得担心

有人在 M1 Max 上跑了 10 个本地图像生成模型,发现 Flux 写实最强但英语偏见严重,Qwen-Image 蒸馏版反而更快更好。最关键的发现是:训练数据来源比模型大小更能决定非英语内容准不准。

1d ago3 分钟joinopc.comwww.reddit.com
Karpathy

微型GPT在FPGA跑出5万tps—片上存权重,边缘推理硬件方向初显

Karpathy 的微型教学 GPT 被部署到 FPGA 上,跑出 50,000 tps——关键是把权重存进芯片内部而非外部内存。这验证了边缘 AI 推理的瓶颈在内存带宽,硬件创业者开始押注片上存储路线。

1d ago2 分钟joinopc.comwww.reddit.com
DeepSeek

DeepSeek V4 夺国产大模型第一,落后美国前沿约 8 个月 — 追赶加速但格局未变

CAISI 评估报告认定 DeepSeek V4 登顶中国大模型,但与美国前沿模型仍差约 8 个月。差距在收窄,但迭代速度的动态差距比静态数字更值得警惕。

1d ago2 分钟joinopc.comwww.reddit.com
Qwen

Qwen3.6-27B 与 Coder-Next 实测打平 — 选模型不看跑分看场景

一位开发者用 20 小时实测发现,Qwen3.6-27B 与 MoE 架构的 Coder-Next 整体胜率持平,但在不同任务上表现天差地别。更意外的是:关闭「思考模式」反而更稳定。传统跑分正在失灵,场景选型才是关键。

1d ago3 分钟joinopc.comwww.reddit.com
OpenAI

GPT-5.5 思维链意外泄露 — OpenAI 正用'原始人语言'压缩推理成本

GPT-5.5 的内部推理过程被意外截获,输出全是电报式短句。这与 5 个月前社区提出的'用原始人语言做思维链可省 token'方案如出一辙,说明 OpenAI 已把推理成本优化写进了模型底层。

1d ago2 分钟joinopc.comwww.reddit.com
OpenCode

开发者集体寻找完全离线的AI编程工具 — 代码隐私焦虑正从大厂蔓延到个人

r/LocalLLaMA 社区本周热议:OpenCode 被曝存在隐私隐患,开发者急寻可从源码构建、完全离线运行的AI编程助手。代码隐私不再是合规部门的PPT话题,而是每个写代码的人都要面对的现实问题。

1d ago3 分钟joinopc.comwww.reddit.com
Qwen

Qwen3.6单卡深搜95.7%—本地AI追平Perplexity,Agent比拼工具调用而非模型大小

开源项目LDR用单张3090跑出95.7%深搜准确率,追平Perplexity云端水平。关键发现:Agent场景下工具调用能力比模型参数量更重要,本地AI搜索进入实用阶段。

1d ago3 分钟joinopc.comwww.reddit.com
Qwen

Qwen 3.6 跑分赢实测输 — 刷榜正在扭曲大模型能力认知

开发者实测 Qwen 3.6 与 Gemma 4,发现跑分领先的 Qwen 因死循环烧掉 8000+ Token 在真实任务中落败。大模型刷榜正扭曲能力认知,企业选型需从看榜单转向做实测。

1d ago2 分钟joinopc.comwww.reddit.com
Semvec

Semvec 让 AI 对话成本不再随轮次爆炸 — 长上下文记忆管理成新赛道

开源工具 Semvec 用固定大小语义状态替代无限对话历史,48 轮测试 token 减少 76%。AI 应用省钱路径正从'找便宜模型'转向'聪明管理记忆',这条路线值得关注。

1d ago3 分钟joinopc.comwww.reddit.com
Qwen

开源社区造出混合检索记忆工具 — Agent 不靠大上下文也能记事了

一个基于 Qwen3.5-4B 的开源 MCP 记忆工具,用 BM25+向量混合检索给 Agent 加项目记忆。值得关心:Agent 记忆的主流解法正从'堆上下文窗口'转向'做对检索',小模型路线让落地门槛显著降低。

1d ago2 分钟joinopc.comwww.reddit.com
NVIDIA

RTX 5080 跑本地编程模型引热议 — 消费级显卡开始抢云端 AI 的活

r/LocalLLaMA 社区热议 RTX 5080+64GB RAM 跑量化编程模型的最佳方案。开发者认真考虑把 AI 编程助手从云端搬回家,消费级硬件正成为 AI 编程的新基础设施,值得非技术背景的管理者关注。

1d ago3 分钟joinopc.comwww.reddit.com
Quadtrix

纯C++无依赖手搓Transformer成功,揭开大模型黑盒但难改算力格局

有开发者仅用C++17标准库,无任何依赖手写了一个0.83M参数的GPT模型并训练成功。这证明了大模型并非不可拆解的魔法,但手写代码与工业级框架75倍的效率差距也说明,底层创新仍需算力基建支撑。

1d ago2 分钟joinopc.comwww.reddit.com
Reddit

AI 报告机器人到底有没有用 — 连本地模型社区都开始质疑了

r/LocalLLaMA 上一条 118 赞的帖子质疑 AI 报告机器人的实际价值,连 AI 实践者都对自动化内容产出感到疲惫。当工具填满文档却没填满信息,AI 就从效率工具变成仪式感工具。

1d ago2 分钟joinopc.comwww.reddit.com
OpenAI

OpenAI 与 a16z 暗钱资助网红渲染中国 AI 威胁 — AI 竞争正在政治化

OpenAI 和 a16z 关联的政治组织正出资请网红传播中国 AI 威胁论。我们关心的是:AI 商业竞争正被有组织地政治化,开源模型生态可能成为最大受害者。

2d ago2 分钟joinopc.comwww.reddit.com
MiniMax

两张华硕 Spark 显卡跑大模型只慢一点 — AI 推理不再是昂贵硬件的专属

开发者实测发现,售价仅三分之一、功耗仅四分之一的华硕 Spark 集群跑大模型,速度只比两万美元的 RTX 6000 慢不到 5 倍。这表明 AI 推理的性价比拐点已至,但高并发场景仍是廉价硬件的软肋。

2d ago2 分钟joinopc.comwww.reddit.com
Qwen

单张 3090 在 Windows 跑通 Qwen3 — 本地部署大模型不再必须折腾 Linux

开发者在 Windows 原生环境跑通 Qwen3.6-27B 模型,速度达 72 tok/s。这大幅降低了本地部署门槛,传统企业无需配置 Linux 环境即可用现有显卡跑起大模型。

2d ago2 分钟joinopc.comwww.reddit.com
Mistral

Mistral 本地版文件损坏已修复 — 开源模型的品控盲区比你想的大

Mistral Medium 3.5 的本地运行版本此前全部文件损坏,输出乱码,本周被社区修复。小事一桩,但暴露了开源模型"官方只管 API、本地格式靠社区"的品控真空——对企业本地部署决策有实际影响。

2d ago2 分钟joinopc.comwww.reddit.com
Mistral

Mistral 3.5 推理 bug 被开源团队修复 — 大模型交付质检亮红灯

开源团队 Unsloth 修复了 Mistral Medium 3.5 的推理缺陷,起因是一个核心参数配置错误。这暴露出大模型公司在交付商业产品时质检流程严重缺位,企业客户需警惕“社区公测”模式带来的业务风险。

2d ago2 分钟joinopc.comwww.reddit.com
Qwen

Qwen 3.6 本地替代 Copilot — 零 API 费,但新手别碰

一位开发者用 Qwen 3.6-27B 量化版 + RTX 6000 Pro 写了一整天代码,API 调用为零。本地模型到了'够用'的临界点,但前提是你得会写代码。

2d ago2 分钟joinopc.comwww.reddit.com
r/LocalLLaMA

全球最大开源 AI 社区新规一周见效 — 营销帖子终于被收拾了

r/LocalLLaMA 上线新规一周,靠最低 karma 门槛和自动审核,用户举报量显著下降。开源 AI 社区正从野蛮生长走向治理,信号比噪音重要。

2d ago2 分钟joinopc.comwww.reddit.com
Gemma

Gemma 4 模型文件现身 HuggingFace — 开源社区跑在了官方工具链前面

有人将 gemma-4-31B-it-DFlash 上传至 HuggingFace,但 llama.cpp 尚不支持运行。开源模型迭代速度正把部署工具链甩在身后,拿到模型却用不起来,成了新尴尬。

2d ago2 分钟joinopc.comwww.reddit.com
Xiaomi

小米大模型 MiMo 在复杂推理测试中登顶 — 性价比开始取代参数量成为新焦点

小米 MiMo-V2.5-Pro 在复杂社交推理测试中以不到 1 美元成本取胜,这标志着大模型竞争焦点正从单纯算力比拼转向推理性价比与实用性,企业落地有了更实惠的选择。

2d ago2 分钟joinopc.comwww.reddit.com
OpenAI

OpenAI 隐私过滤器实测胜出 — 但严格匹配翻车,分词器偏移是元凶

开发者在 600 条 PII 样本上对比 OpenAI 开源的 privacy-filter 与 GLiNER,前者边界重叠 F1 达 0.498 胜出,但严格匹配仅 0.155 — 分词器的字符偏移才是真问题。PII 检测有了新开源选择,但选型要看场景。

2d ago3 分钟joinopc.comwww.reddit.com
Nvidia

开发者花 5000 美元组装本地 AI 设备,算力去云端化正成为个人投资新选项

Reddit 开发者计划花 4500 美元采购本地 AI 设备替代云服务。当大模型调用成为常态,个人与中小企业开始认真计算买断本地算力的 ROI,本地部署正从极客玩具变成成本账本上的现实选项。

2d ago2 分钟joinopc.comwww.reddit.com
PFlash

消费级显卡跑长文本提速10倍 — 本地部署大模型的等待焦虑被新算法终结

开源项目 PFlash 让 RTX 3090 显卡处理 12 万字长文本的等待时间从 4 分钟缩至 24 秒。这标志着消费级硬件跑长文本大模型不再有首字延迟的致命痛点,本地化部署的商业可行性大幅提升。

3d ago2 分钟joinopc.comwww.reddit.com
Nvidia

16台Nvidia超算拼成集群跑通大模型 — 企业自建算力的焦点正转向显存

Reddit用户用16台Nvidia DGX Spark搭成集群跑通434GB大模型,验证了统一内存的实用价值。大模型推理瓶颈正从算力转向显存,企业自建本地算力有了新思路。

3d ago2 分钟joinopc.comwww.reddit.com
Pocket TTS

Pocket TTS 手机端跑出 100ms 延迟 — 开源语音合成跨过"能用"的门槛

Pocket TTS 发布多语言模型,社区开发者完成 ONNX 量化适配,中端手机芯片延迟仅 100ms。开源 TTS 正从"技术演示"进入"本地可用"阶段,值得关注其对云服务依赖的削弱。

3d ago2 分钟joinopc.comwww.reddit.com
RTX 3090

二手 RTX 3090 翻新指南走红 — 算力平替让极客开始自修显卡跑 AI

一篇二手 RTX 3090 翻新指南在开发者社区走红。这反映出一个值得关心的趋势:为避开昂贵的云端算力账单,技术团队正转向二手消费级硬件跑本地模型,算力获取方式正变得草根化。

3d ago2 分钟joinopc.comwww.reddit.com
NVIDIA

NVIDIA 自研 4 位量化把 26B 模型塞进消费显卡 — 精度损失不到 1%

NVIDIA 发布 NVFP4 量化版 Gemma-4-26B,压缩至 18.8GB 可在消费显卡运行,6 项基准测试精度损失均不超过 0.7%。4 位量化正从妥协变成优选,但这也是 NVIDIA 生态锁定的一步棋。

3d ago2 分钟joinopc.comwww.reddit.com
Qwen

Qwen3.6-27B量化跑进单张消费显卡—本地部署甜蜜点正在出现

Qwen3.6-27B 经 Unsloth Q5 量化后部署在单张 RTX 5090 上实测,19 轮任务表现稳定。中等规模模型的本地部署可行性正在实质性提高,值得关心硬件成本与能力边界的交汇点。

3d ago3 分钟joinopc.comwww.reddit.com
Qwen

Gemma 4 仅用1/5 token跑赢Qwen 3.6 — 本地部署开始拼效率

Reddit 用户用同一吃豆人游戏 Prompt 测试两个开源模型,Gemma 4 以1/5的token和1/5的时间产出更可玩的结果。这提醒我们:本地部署时代,模型效率比生成量更值得关注。

3d ago2 分钟joinopc.comwww.reddit.com
Mistral

Devstral Small 2 代码跑分首破 80% — Mistral 可能被严重低估

一位开发者自建基准测试显示,Mistral 的 Devstral Small 2 在 8 项代码工程任务中得分超 80%,首次有本地模型跑赢多个闭源对手。开源代码模型的真实能力,可能被标准测试掩盖了。

3d ago3 分钟joinopc.comwww.reddit.com
AMD

AMD 秀出 128GB 本地 AI 主机原型 — 瞄准苹果 Mac 在大模型推理市场的蛋糕

AMD 曝光 Halo Box 原型机(Ryzen 395 + 128GB),首次让 x86 平台具备与苹果 Mac Studio 同级的本地大模型加载能力。值得我们关心的是:本地 AI 推理的硬件格局可能要变。

3d ago2 分钟joinopc.comwww.reddit.com
MiniMax

MiniMax 小模型本地跑出幻觉后自己圆场 — 开源模型的交互质感在变

Reddit 用户晒出 MiniMax M2.7 本地量化运行时编造 URL 后立刻自嘲圆场的截图。小模型能"认错"不是元认知,但训练数据中纠错模式的渗透正在改变用户对 AI 交互的体感。

3d ago2 分钟joinopc.comwww.reddit.com
AMD

AMD 自研 AI 迷你主机 6 月上市 — 芯片公司亲自下场做整机,信号不简单

AMD 在 AI Dev Day 宣布 6 月推出自研 Ryzen AI 395 迷你主机,可能由联想代工。芯片公司从卖零件转向卖整机,意味着本地 AI 推理市场正从概念走向产品化。

3d ago2 分钟joinopc.comwww.reddit.com
Transformer

程序员把计算器编译进 AI 权重 — 理解 Transformer 又多了一条实验路径

一位开发者花数月将 RPN 解释器“编译”进 Transformer 权重,模型 1.1GB 只能算加减乘除。实验价值不在实用,在于绕过训练、直接理解 AI 内部机制的新视角。

4d ago3 分钟joinopc.comwww.reddit.com
DeepSeek

DeepSeek 让 AI 学会边看图边指 — 多模态推理从'看一眼说一句'到'指哪想哪'

DeepSeek 联合北大清华发布让 AI 在推理时标注图像位置的新框架,又迅速删库。这是多模态从'看完再答'到'边看边指'的探索,但删库提醒我们学术成果与可用产品间仍有鸿沟。

4d ago2 分钟joinopc.comwww.reddit.com
AI

Qwen 3.6 27B Makes Huge Gains in Agency on Artificial Analysis - Ties with Sonnet 4.6

阿里通义千问最新发布的 Qwen3.6 27B ,在第三方机构 Artificial Analysis的 Agent 能力评测中与 Anthrop ic 旗舰模型Claude Sonnet 4.6并列,同时超过谷歌Gemini和 OpenAI GP T-5系列。这件事值得关注,不是因为又一个跑分

Apr 233 分钟joinopc.comwww.reddit.com
AMD

一个 Reddit 帖子揭示的真相:本地跑 AI 大模型,硬件门槛比厂商说的要高得多

一位用户发现自己 24GB 内存的 AMD 迷你电脑只能给 AI 模型分配 8GB 显存,想扩到 16GB 却无从下手。这个看似普通的技术求助,折射出一个被低估的现实:「在家跑 AI」的硬件门槛,远比营销话术描述得复杂。

Apr 203 分钟joinopc.comwww.reddit.com
Qwen

有人开始用国产开源模型替换 Claude 做日常编程助手 — 性能差距正在缩小到「够用」

Reddit 上一个有 184 个点赞、143 条讨论的帖子显示,已有开发者认真考虑用阿里的 Qwen-35B-A3B 替换 Anthrop ic 的 Claude Opus 4.7 作为日常编程工具。这件事值得关心,不是因为某个人换了个软件,而是它折射出一个趋势:AI 模型的「够用线」正在快速下移

Apr 203 分钟joinopc.comwww.reddit.com
Qwen

本地运行的阿里 Qwen 模型,在普通电脑上实现了「浏览器当操作系统」— 开源模型的能力边界正在被重新丈量

一位开发者用阿里巴巴开源的 Qwen 3.6 35B 模型,在本地(无需云端服务器)实现了「Browser OS」——让 AI 像操作系统一样调度浏览器完成复杂任务。他称这是迄今为止本地模型跑出的最好结果。这件事值得关注,因为它说明开源模型的实际可用性,正在追上那些要收费的云端大模型。

Apr 192 分钟joinopc.comwww.reddit.com
Gemini

一个开发者想让 AI 实时看着你画画给建议——这个想法离真正可用还有多远

Reddit 上一位独立开发者公开了一个构想:把多模态大模型(能同时理解图像和语音的 AI)接入 Discord,让它实时看用户在 Blender 或 Photoshop 里的操作画面,并用语音给出反馈。这个方向值得关注,因为它触碰了 AI 辅助创作工具的一个真实痛点——创作者需要「不打断手感」的即

Apr 193 分钟joinopc.comwww.reddit.com
Pocket LLM

手机本地跑 AI 不再需要联网—— 一个开源安卓应用正在把这件事变得可操作

Pocket LLM v1.4.0 本周更新:安装包从捆绑模型压缩到约 200MB,用户可在 App 内自行下载所需模型、离线运行 AI 对话。这不是大公司发布会,而是开源社区悄悄推进「手机本地 AI」可用性的一个缩影——值得关注的信号是,离线 AI 的门槛正在从「极客专属」向普通用户移动。

Apr 193 分钟joinopc.comwww.reddit.com
LocalLLaMA

本地 AI 自己调工 具还在「鬼打墙」——开源社区的真实使 用体验比宣传落后整整一代

Reddit 上一 个获得 103 点赞、148 条回复的帖子,集中 暴露了本地运行 AI 模型时「工具调用」功能的真实状态: 模型声称完成了任务,文件根本不存在; 声称网站已就绪,打开是空文件。 这不是个案,而是当前开源小模型在执 行复杂指令时的普遍短板——值得所有正 在评估「私有化部署 AI」方

Apr 193 分钟joinopc.comwww.reddit.com
LocalLLaMA

两张显卡能不能同时跑两个 AI 模 型?一个真实用户案例揭示本地 部署的核心取舍

一位 拥有 RTX 3090(24GB)和 RTX 3060(12GB)双显卡的用户,在 Reddit 上提出了一个典型问题:两张规格不同的显卡,到 底该跑一个大模型还是同时跑两个?这个问题背 后,是越来越多人尝试在自己电脑上运行 AI 模型时都 会遇到的硬件资源分配难题。

Apr 193 分钟joinopc.comwww.reddit.com