AWS

生成式AI推理:使用G7e实例加速SageMaker上的性能
借助由NVIDIA RTX PRO 6000 Blackwell GPU驱动的新G7e实例,在Amazon SageMaker AI上加速生成式AI推理,性能提升2.3倍,并节省成本。

Agentic AI 让营销变革:从数小时到数分钟
了解由 AWS Bedrock 和 Gradial 提供支持的 Agentic AI 如何将营销团队的内容发布时间从数小时缩短至数分钟,从而提高生产力和质量。

零售转型:AWS 生成式 AI 赋能虚拟试穿
探索 AWS 生成式 AI 服务(如 Amazon Nova Canvas 和 Rekognition)如何通过虚拟试穿和智能推荐解决方案来改造零售业,提升客户体验并降低退货率。

生成式AI:AWS价值实现路径框架助力企业成功
AWS发布生成式AI价值实现路径(P2V)框架,为企业提供全面的指南,帮助其将AI概念验证转化为可衡量的规模化商业价值。

Amazon Bedrock:AgentCore 运行时上的有状态 MCP 客户端功能
探索 Amazon Bedrock AgentCore Runtime 的新型有状态 MCP 客户端功能,通过启发、采样和进度通知实现交互式 AI 代理工作流。

Bedrock AgentCore:在 React 中嵌入实时 AI 浏览器代理
通过 Amazon Bedrock AgentCore 的 BrowserLiveView,在您的 React 应用程序中嵌入实时 AI 浏览器代理,为自主网络交互提供实时可见性和控制。

Amazon Bedrock 模型生命周期:理解模型转换
了解 Amazon Bedrock 的模型生命周期,包括 Active、Legacy 和 EOL 状态。学习规划迁移、管理转换,并通过最佳实践确保 AI 应用的持续运行。

AI成本管理:使用Amazon Bedrock项目进行归因
通过利用Bedrock项目实现精确的成本归因、强大的标签策略以及与AWS Cost Explorer的无缝集成,掌握Amazon Bedrock中的AI成本管理。

SageMaker AI:通过无服务器定制加速智能体工具调用
了解 Amazon SageMaker AI 如何通过无服务器模型定制加速智能体工具调用,利用 RLVR 提升 AI 智能体的可靠性和性能。

Amazon Quick:构建AI入职代理,提升HR效率
利用 Amazon Quick 构建 AI 驱动的代理,简化员工入职流程,自动化 HR 任务,如问答、文档跟踪和系统集成,从而提高效率。

代理式海事AI:生成式AI实现上下文异常分析
Windward 和 AWS 利用代理式生成式 AI 转型海事异常分析,从孤立警报中提供上下文智能,提升安全性和运营效率。

AI智能体域名控制:使用AWS网络防火墙保护Web访问
使用AWS网络防火墙和Amazon Bedrock AgentCore保护AI智能体的Web访问。通过允许列表实现基于域名的过滤,增强企业AI安全性和合规性,并缓解提示注入等风险。

AI 驱动的合规性:使用 AWS 自动化证据收集
使用 AI 驱动的系统自动化合规性证据收集。了解如何利用 AWS、Amazon Bedrock 和 Nova 2 Lite 构建解决方案,实现高效、无错误的审计。

AI治理:智能体系统的风险智能
探索AWS的AI风险智能(AIRI)如何彻底改变智能体系统的AI治理,确保非确定性AI时代的安全与合规性。

AWS AI League:Atos 通过游戏化学习优化 AI 教育方法
Atos 利用 AWS AI League 为其员工优化 AI 教育,通过游戏化、动手实践学习,并结合 Amazon SageMaker 应用于企业 AI 应用程序,加速实用技能的掌握。

AI 驱动的 A/B 测试:自适应实验的基石
了解如何使用 Amazon Bedrock 构建 AI 驱动的 A/B 测试引擎,从而改进用户体验优化并实现更快、更精确的结果。

AI 智能体评估:Strands Evals 实现生产就绪
探索 Strands Evals,一个用于评估生产环境中 AI 智能体的实用框架。了解如何系统地评估智能体的性能、上下文感知能力和决策制定,以实现稳健部署。

AWS、NVIDIA 深化AI合作,加速AI从试点到生产
AWS 和 NVIDIA 在 GTC 2026 大会上深化战略合作,宣布重大集成,以加速AI从试点到生产,包括扩展的 GPU 部署、新的 EC2 实例以及 Amazon Bedrock 对 Nemotron 模型的支持。

Amazon Bedrock AgentCore:保障与扩展AI智能体
探索 Amazon Bedrock AgentCore,AWS 强大的服务,用于构建、保护和部署复杂的AI智能体,为企业用例提供策略执行、内存管理和可扩展的运行时。

P-EAGLE:vLLM 中采用并行推测解码加速 LLM 推理
P-EAGLE 通过将并行推测解码集成到 vLLM 中,彻底改变了 LLM 推理,在 NVIDIA B200 GPU 上实现了高达 1.69 倍的加速。了解这种创新方法如何克服自回归草稿生成瓶颈,实现更快、更高效的 AI。

多模态嵌入规模化:面向媒体和娱乐行业的AI数据湖
探索如何利用AWS Nova、Bedrock和OpenSearch为媒体和娱乐行业构建可扩展的多模态视频搜索系统,实现对海量数据集的高级语义搜索。

智能体AI的运营化:利益相关者指南
了解如何在企业中有效地运营化智能体AI。这份利益相关者指南涵盖了定义智能体适用型工作、弥合执行鸿沟以及确保可衡量的AI成功。

OpenAI与Amazon合作:加速企业AI创新
OpenAI和Amazon宣布达成一项价值500亿美元的战略合作,通过AWS Bedrock和Trainium基础设施,将先进的生成式AI、有状态运行时(Stateful Runtime)和OpenAI Frontier带给企业。