aws.amazon.com
19 篇文章 · 2026年4月6日 – 2026年5月1日
AWS 用 Agent 自动迁移 BI 仪表盘 — 云厂商开始抢咨询公司的活
AWS Transform 用 AI Agent 自动将 Tableau/Power BI 仪表盘迁移到 QuickSight,号称从数月缩至数天。云厂商开始用 Agent 吃掉咨询公司的迁移实施业务,但业务逻辑验证仍是盲区。
亚马逊让大模型给自己当裁判 — 靠写规则训 AI 的时代正在过去
AWS 提出 RLAIF(用 AI 反馈强化学习)微调方案,让大模型取代人工和死板代码来给 AI 打分。这意味着企业定制专属 AI 的门槛大幅降低,但“AI 偏差”的风险也在暗中累积。
AWS 发布大模型迁移框架,承诺两周内完成换脑,企业不再被单一厂商绑定
AWS 发布大模型迁移框架,承诺 2 天到 2 周内完成模型切换与提示词优化。这说明企业 AI 应用正从选型定终身转向按需换脑,模型锁定风险降低,但自动化评估仍需警惕业务细节丢失。
Introducing granular cost attribution for Amazon Bedrock
AWS 为 Amazon Bedrock 推出细粒度成本归因, 自动将推理费用映射至 IAM 用户、角色及 联合身份,无需任何代码改动。
AWS Nova Multimodal Embeddings Powers Native Video Semantic Search
Amazon Bedrock 推出 Nova Multimodal Embeddings,将文本、音频、 视频与图像统一映射至同一向 量空间,重构视频语义搜索架构。
Optimize video semantic search intent with Amazon Nova Model Distillation on Amazon Bedrock
Amazon Bedrock 的 Model Distillation 功能将路由智能从 Nova Premier 迁移至 Nova Micro,推理成本降低超 95%,查 询延迟减少 50%。
AWS Nova Forge SDK Tutorial: Fine-Tune Nova Models With Data Mixing
AWS 发布 Nova Forge SDK 第 二期教程,详解数据混合微调流程;测试显 示 F1 分数提升 12 个百分点,同 时保留 MMLU 基线能力。
Cost-efficient custom text-to-SQL using Amazon Nova Micro and Amazon Bedrock on-demand inference
AWS 详解如何通过 LoRA 微调 Nova Micro 支 持自定义 SQL 方言,借助 Serverless 推理在 22,000 次查询下月 费仅 $0.80。
AWS Trainium2 上的 Speculative Decoding 将 LLM 推理延迟降低最高 3 倍
AWS 基准测试显示,在 Trainium2 上结 合 vLLM 使用 speculative decoding,可将解码密集型工作负载的 inter-token 延迟降低最高 3 倍。
Guidesly 如何在 AWS 上为户外向导构建 Jack AI 自动化行程报告系统
Guidesly 的 Jack AI 借助 AWS Lambda、Step Functions 和 Amazon Bedrock,在每次户外向导预订完 成后自动生成并发布行程营销内容。
Best practices to run inference on Amazon SageMaker HyperPod
AWS 发布 HyperPod 推理部署最佳实践指南,称可将 GPU 工作负载的总拥有成本降低最高 40%。
AWS 为 SageMaker JumpStart 新增面向用例的部署预设配置
SageMaker JumpStart 推出任务感知型部署配置,可 按用例针对成本、吞吐量或延迟分别进行优化, 大幅降低 MLOps 门槛。
AWS Lambda 驱动 Amazon Nova 强化微调奖励函数的技术实 践
AWS 详解如何借 助 Lambda 无服务器函数为 Amazon Nova 强化微调构建可扩展奖励函数,大 幅降低标注数据需求。
AWS智能体注册表:企业AI治理的基础设施争夺战
当企业部署数百个AI智能体却无法统一管控时,AWS推出Agent Registry——这迫使老板回答:谁在掌控你公司的AI资产?
AWS模型生命周期管理:企业AI应用的断供风险与应对策略
AWS Bedrock的模型生命周期机制意味着企业AI应用可能面临强制迁移,老板必须现在决定:是锁定供应商还是构建迁移能力?
AI智能体进化:从"单次问答"到"持续对话"的商业分水岭
AWS让AI智能体能在执行中途"暂停追问",这意味着复杂业务流程自动化的成本门槛正式跌破中小企业承受线,你的客服、审批、采购流程还需要人坐在那里等吗?
使用 SageMaker RLVR 微调 Qwen 2.5 以支持工具调用
AWS SageMaker 无服务器 RLVR 微调使 Qwen 2.5 7B 的工具调用准确率提升 57%,无需管理 GPU。
AWS 推出 Amazon Quick:无代码 HR 入职代理详解
AWS 推出 Amazon Quick,这是一项托管代理服务,使 HR 团队无需编写代码即可构建入职机器人,自动处理政策问答与合规追踪。
Amazon Bedrock AgentCore Gateway 现已支持 MCP 服务器的 OAuth 2.0
AgentCore Gateway 利用 OAuth 2.0 授权码流程集中管理 MCP 服务器认证,消除了逐服务器凭证管理的繁琐。