Code Velocity
Bedrifts-AI

AWS og NVIDIA fordyper AI-samarbeid for å akselerere produksjon

·5 min lesing·AWS, NVIDIA·Opprinnelig kilde
Del
AWS- og NVIDIA-logoer tydelig vist, symboliserer deres utvidede strategiske samarbeid for AI-akselerasjon og innovasjon.

title: "AWS og NVIDIA fordyper AI-samarbeid for å akselerere produksjon" slug: "aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production" date: "2026-03-18" lang: "no" source: "https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/" category: "Bedrifts-AI" keywords:

  • AWS
  • NVIDIA
  • AI-akselerasjon
  • GTC 2026
  • GPU
  • Amazon EC2
  • Amazon Bedrock
  • Nemotron
  • LLM inference
  • EFA
  • Apache Spark
  • Bedrifts-AI
  • Produksjons-AI
  • Maskinlæring meta_description: "AWS og NVIDIA fordyper sitt strategiske samarbeid på GTC 2026, og annonserer store integrasjoner for å akselerere AI fra pilot til produksjon, inkludert utvidede GPU-distribusjoner, nye EC2-instanser og støtte for Nemotron-modeller på Amazon Bedrock." image: "/images/articles/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production.png" image_alt: "AWS- og NVIDIA-logoer tydelig vist, symboliserer deres utvidede strategiske samarbeid for AI-akselerasjon og innovasjon." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • AWS
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Hva er hovedmålet med det utvidede strategiske samarbeidet mellom AWS og NVIDIA?" answer: "Samarbeidet har som mål å akselerere overgangen av AI-løsninger fra eksperimentelle faser til fullskala produksjonsmiljøer. Dette innebærer å integrere nye teknologier og utvide eksisterende kapasiteter innen akselerert databehandling, samtrafikkteknologier, modellfinjustering og inferens. Fokuset er å gjøre kundene i stand til å bygge og kjøre AI-løsninger som er pålitelige, ytelsessterke i stor skala og i samsvar med bedriftens sikkerhets- og forskriftskrav, og dermed oppnå meningsfulle forretningsresultater gjennom produksjonsklare AI-systemer."
  • question: "Hvilke betydelige utvidelser av GPU-infrastrukturen planlegges av AWS som en del av dette samarbeidet?" answer: "Fra og med 2026 planlegger AWS å distribuere over 1 million NVIDIA GPU-er, inkludert neste generasjons Blackwell- og Rubin-arkitekturer, på tvers av sine globale skyregioner. Denne massive utvidelsen befester AWS' posisjon som en ledende leverandør av NVIDIA GPU-baserte instanser, og tilbyr den bredeste samlingen for ulike AI/ML-arbeidsbelastninger. Denne forbedrede kapasiteten er avgjørende for å støtte den økende etterspørselen etter AI-beregningskraft, spesielt for komplekse Agentic AI-systemer som krever omfattende beregningskraft."
  • question: "Hvordan vil de nye Amazon EC2-instansene med NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-er komme brukerne til gode?" answer: "AWS er den første store skyleverandøren som støtter NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-er på Amazon EC2-instanser. Disse instansene er svært allsidige, egnet for et bredt spekter av arbeidsbelastninger som dataanalyse, konversasjons-AI, innholdsgenerering, anbefalingssystemer, videostrømming og avansert grafikkrendering. Bygget på AWS Nitro System, tilbyr de forbedret ressurseffektivitet, robust sikkerhet og stabilitet, og leverer overlegen ytelse for krevende AI- og grafikkapplikasjoner."
  • question: "Hvordan forbedrer integreringen av NVIDIA NIXL med AWS EFA Large Language Model (LLM)-inferens?" answer: "Integreringen av NVIDIA Inference Xfer Library (NIXL) med AWS Elastic Fabric Adapter (EFA) er designet for å akselerere disaggregert LLM-inferens på Amazon EC2 på tvers av både NVIDIA GPU-er og AWS Trainium-instanser. Dette er avgjørende for å håndtere kommunikasjonsoverhead i store modeller, muliggjøre effektiv overlapping av kommunikasjon og beregning, minimere ventetid og maksimere GPU-utnyttelse. Den forenkler dataoverføring med høy gjennomstrømning og lav latens for KV-cache og integreres naturlig med populære åpen kildekode-rammeverk som NVIDIA Dynamo, vLLM og SGLang."
  • question: "Hvilke forbedringer gjøres i Apache Spark-ytelsen for dataanalyse?" answer: "AWS og NVIDIAs felles ingeniørarbeid har resultert i 3x raskere ytelse for Apache Spark-arbeidsbelastninger. Dette oppnås ved å kombinere Amazon EMR på Amazon EKS med G7e-instanser, drevet av NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-er. Denne betydelige hastighetsøkningen gjør at dataingeniører og -forskere kan akselerere tid-til-innsikt for kritiske oppgaver som AI/ML-funksjonsteknikk, komplekse ETL-transformasjoner og sanntidsanalyse, samtidig som full kompatibilitet med eksisterende Spark-applikasjoner opprettholdes."
  • question: "Hvilken utvidet støtte for NVIDIA Nemotron-modeller kommer til Amazon Bedrock?" answer: "Amazon Bedrock vil snart støtte finjustering av NVIDIA Nemotron-modeller direkte ved hjelp av Reinforcement Fine-Tuning (RFT). Denne funksjonaliteten gjør det mulig for utviklere å presist justere modellatferd til spesifikke domener som jus, helsevesen eller finans uten infrastruktur-overhead. I tillegg vil NVIDIA Nemotron 3 Super, en hybrid Mixture-of-Experts (MoE)-modell optimalisert for multi-agent-arbeidsbelastninger og utvidet resonnering, også bli tilgjengelig på Amazon Bedrock, og gi rask, kostnadseffektiv inferens via et fullt administrert API for komplekse, flertrinns AI-oppgaver."
  • question: "Hvordan adresserer dette samarbeidet energieffektivitet og bærekraft i AI?" answer: "Samarbeidet anerkjenner den økende viktigheten av energieffektivitet etter hvert som AI-arbeidsbelastninger skaleres. Ytelse per watt fremheves ikke bare som en bærekraftsmåling, men som en konkurransefordel. Artikkelen peker på en NVIDIA GTC-sesjon hvor bærekraftsledere, inkludert Amazon CSO Kara Hurst, diskuterer hvordan AI transformerer bedriftens energi og infrastruktur, og understreker innsatsen mot mer bærekraftige AI-praksiser fra datasentre til bredere bedrifts-AI-applikasjoner."

# AWS, NVIDIA fordyper AI-samarbeid for å akselerere AI fra pilot til produksjon

AI transformerer bransjer i et enestående tempo, men den virkelige verdien ligger ikke bare i eksperimentering, men i å lykkes med å distribuere og drifte AI-løsninger i produksjonsmiljøer. Dette krever robuste, skalerbare, sikre og kompatible systemer som gir konkrete forretningsresultater. For å imøtekomme dette kritiske behovet kunngjorde AWS og NVIDIA en betydelig utvidelse av sitt strategiske samarbeid på NVIDIA GTC 2026, og avduket nye teknologiintegrasjoner designet for å møte den økende etterspørselen etter AI-beregningskraft og drive AI-løsninger inn i virkelige produksjon.

Det fordypede partnerskapet fokuserer på å akselerere alle fasetter av AI-livssyklusen, fra infrastruktur til modelldistribusjon. Disse integrasjonene spenner over avgjørende områder, inkludert akselerert databehandling, avanserte samtrafikkteknologier og strømlinjeformet modellfinjustering og inferens. Viktige kunngjøringer inkluderer:

*   Utplassering av mer enn 1 million NVIDIA GPU-er på tvers av AWS-regioner fra og med 2026.
*   Amazon EC2-støtte for NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-er, noe som gjør AWS til den første store skyleverandøren som tilbyr dette.
*   Samtrafikkakselerasjon for disaggregert Large Language Model (LLM)-inferens ved å utnytte NVIDIA NIXL på AWS Elastic Fabric Adapter (EFA).
*   En dramatisk 3x raskere ytelse for Apache Spark-arbeidsbelastninger ved bruk av Amazon EMR på Amazon Elastic Kubernetes Service (Amazon EKS) med Amazon EC2 G7e-instanser, drevet av NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-er.
*   Utvidet støtte for NVIDIA Nemotron-modeller på Amazon Bedrock, inkludert Reinforcement Fine-Tuning og Nemotron 3 Super-modellen.

## Skalering av AI-infrastruktur med forbedret NVIDIA GPU-kraft

Grunnlaget for moderne AI ligger i kraftig beregningsinfrastruktur. Fra og med 2026 forplikter AWS seg til en monumental satsing på AI-fremgang ved å legge til over 1 million NVIDIA GPU-er i sine globale skyregioner. Dette inkluderer neste generasjons Blackwell- og Rubin GPU-arkitekturer, noe som sikrer at kundene har tilgang til den mest avanserte maskinvaren som er tilgjengelig. AWS kan allerede skilte med bransjens bredeste samling av NVIDIA GPU-baserte instanser, som imøtekommer et mangfold av AI/ML-arbeidsbelastninger, og denne utvidelsen befester ytterligere selskapets lederskap.

Dette langvarige partnerskapet, som strekker seg over 15 år, omfatter også avgjørende infrastrukturfelt som Spectrum-nettverk. Målet er å gi bedrifter, startups og forskere den robuste infrastrukturen som kreves for å bygge og skalere avanserte [Agentic AI-systemer](/no/operationalizing-agentic-ai-part-1-a-stakeholders-guide)—AI som er i stand til autonom resonnering, planlegging og handling på tvers av komplekse arbeidsflyter.

## Introduksjon av nye Amazon EC2-instanser og samtrafikkinnovasjoner

Et høydepunkt i samarbeidet er de kommende Amazon EC2-instansene akselerert av NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-er. AWS er stolte over å være den første store skyleverandøren som kunngjør støtte for disse kraftige GPU-ene, noe som gjør dem tilgjengelige for et bredt spekter av krevende oppgaver. Disse instansene er ideelt egnet for dataanalyse, sofistikert konversasjons-AI, dynamisk innholdsgenerering, avanserte anbefalingssystemer, høykvalitets videostrømming og komplekse grafikk-arbeidsbelastninger.

Disse nye EC2-instansene vil bygges på det robuste [AWS Nitro System](https://aws.amazon.com/ec2/nitro/). Nitro System, med sin unike kombinasjon av dedikert maskinvare og en lettvekts hypervisor, leverer nesten alle vertens maskinvares beregnings- og minneressurser direkte til instansene. Dette designet sikrer overlegen ressursutnyttelse og ytelse. Avgjørende er at Nitro Systems spesialiserte maskinvare, programvare og fastvare er konstruert for å håndheve strenge begrensninger, og beskytte sensitive AI-arbeidsbelastninger og data mot uautorisert tilgang, selv fra AWS. Dens evne til å utføre fastvareoppdateringer og optimaliseringer mens den er i drift, forbedrer ytterligere sikkerheten og stabiliteten som er avgjørende for produksjonsklare AI-, analyse- og grafikk-arbeidsbelastninger.

Ytterligere forbedring av ytelsen, spesielt for massive AI-modeller, er akselerasjonen av samtrafikk for disaggregert LLM-inferens. Etter hvert som modellstørrelsene fortsetter å vokse, kan kommunikasjonsoverhead mellom GPU-er eller AWS Trainium-instanser bli en betydelig flaskehals. AWS kunngjorde støtte for NVIDIA Inference Xfer Library (NIXL) med AWS Elastic Fabric Adapter (EFA), designet for å akselerere disaggregert LLM-inferens på Amazon EC2, som spenner over både NVIDIA GPU-er og AWS Trainium. Denne integrasjonen er avgjørende for å skalere moderne AI-arbeidsbelastninger, muliggjøre effektiv overlapping av kommunikasjon og beregning, minimere ventetid og maksimere [GPU-utnyttelse](/no/gpus). Den muliggjør høyhastighets, lavlatens KV-cache dataoverføring mellom beregningsnoder og distribuerte minneressurser. NIXL med EFA integreres naturlig med populære åpen kildekode-rammeverk som NVIDIA Dynamo, vLLM og SGLang, og leverer forbedret inter-token-ventetid og mer effektiv KV-cache minneutnyttelse.

## Akselerering av dataanalyse med Amazon EMR og GPU-er

Dataingeniører og -forskere sliter ofte med langvarige databehandlingspipeliner som betydelig kan hemme AI/ML-modelliterasjon og generering av forretningsintelligens. AWS- og NVIDIA-samarbeidet leverer en banebrytende forbedring: 3x raskere ytelse for Apache Spark-arbeidsbelastninger. Denne akselerasjonen oppnås ved å utnytte Amazon EMR på Amazon EKS med G7e-instanser, drevet av NVIDIAs RTX PRO 6000 Blackwell Server Edition GPU-er.

Denne betydelige ytelsesgevinsten er et direkte resultat av felles ingeniørarbeid fokusert på å optimalisere GPU-akselerert analyse. Med Amazon EMR og G7e-instanser kan organisasjoner dramatisk redusere tiden som trengs for AI/ML-funksjonsteknikk, komplekse ETL-transformasjoner og sanntidsanalyse i stor skala. Kunder som kjører store databehandlingspipeliner kan oppnå raskere innsikt samtidig som de opprettholder full kompatibilitet med sine eksisterende Spark-applikasjoner.

## Utvidet støtte for NVIDIA Nemotron-modeller på Amazon Bedrock

AWS og NVIDIA utvider også samarbeidet sitt om grunnleggende modeller, og bringer avanserte NVIDIA Nemotron-modeller til Amazon Bedrock.

Utviklere vil snart få muligheten til å finjustere NVIDIA Nemotron-modeller direkte på Amazon Bedrock ved hjelp av Reinforcement Fine-Tuning (RFT). Dette er en 'game-changer' for team som trenger å skreddersy modellatferd til spesifikke domener, enten innen jus, helsevesen, finans eller andre spesialiserte felt. RFT gir brukerne mulighet til å forme hvordan en modell resonnerer og responderer, og går utover ren kunnskapsanskaffelse til nyansert atferdsjustering. Avgjørende er at dette kjører naturlig på Amazon Bedrock, og eliminerer infrastruktur-overhead – brukere definerer oppgaven, gir tilbakemelding, og Bedrock administrerer resten.

Videre kommer NVIDIA Nemotron 3 Super, en hybrid Mixture-of-Experts (MoE)-modell bygget for multi-agent-arbeidsbelastninger og utvidet resonnering, også snart til Amazon Bedrock. Nemotron 3 Super er konstruert for å hjelpe AI-agenter med å opprettholde nøyaktigheten på tvers av komplekse, flertrinns arbeidsflyter, og vil drive ulike bruksområder innen finans, cybersikkerhet, detaljhandel og programvareutvikling. Den lover rask, kostnadseffektiv inferens gjennom et fullt administrert API, noe som forenkler utplasseringen av sofistikerte AI-agenter.

Her er en oppsummering av de viktigste kunngjøringene:

| Funksjon/Integrasjon                | Beskrivelse                                                                                                                                           | Primær fordel                                                                       | Tilgjengelighet       |
| :---------------------------------- | :---------------------------------------------------------------------------------------------------------------------------------------------------- | :---------------------------------------------------------------------------------- | :-------------------- |
| **GPU-utplassering**                | Over 1 million NVIDIA GPU-er (Blackwell-, Rubin-arkitekturer) på tvers av AWS-regioner.                                                               | Massiv beregningsskala for alle AI/ML-arbeidsbelastninger, agentic AI.              | Starter 2026          |
| **Amazon EC2-instanser**            | Støtte for NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-er på EC2.                                                                                | Første store skyleverandørstøtte for allsidig AI, grafikk, analyse.                 | Kommer snart          |
| **LLM-inferens**                    | NVIDIA NIXL på AWS EFA for akselerert disaggregert LLM-inferens på tvers av GPU-er og Trainiums.                                                       | Minimert kommunikasjonslatens, maksimert GPU-utnyttelse for LLM-er.                 | Kunngjort             |
| **Apache Spark-ytelse**             | 3x raskere Spark-arbeidsbelastninger på Amazon EMR på EKS med G7e-instanser (RTX PRO 6000).                                                           | Akselerert tid-til-innsikt for dataanalyse, funksjonsteknikk.                       | Kunngjort             |
| **Nemotron-finjustering**           | Reinforcement Fine-Tuning (RFT) for Nemotron-modeller direkte på Amazon Bedrock.                                                                      | Domene-spesifikk modellatferdsjustering uten infrastruktur-overhead.                | Kommer snart          |
| **Nemotron 3 Super**                | Hybrid MoE-modell for multi-agent-arbeidsbelastninger og utvidet resonnering på Amazon Bedrock.                                                       | Rask, kostnadseffektiv inferens for komplekse, flertrinns AI-oppgaver.              | Kommer snart          |

## Forpliktelse til energieffektivitet og bærekraftig AI

Ettersom AI-arbeidsbelastninger fortsetter å vokse eksponentielt, blir effektiviteten og bærekraften til den underliggende infrastrukturen avgjørende. Samarbeidet fremhever også en felles forpliktelse til å forbedre energieffektiviteten. Ytelse per watt er ikke lenger bare et bærekraftsmål, men en betydelig konkurransefordel i AI-landskapet.

På NVIDIA GTC 2026 sluttet Amazon CSO Kara Hurst seg til andre bærekraftsledere for å diskutere hvordan AI fundamentalt transformerer bedriftens energi og infrastruktur i stor skala. Denne diskusjonen understreker fokuset på å utvikle og distribuere AI-løsninger som ikke bare er kraftige, men også miljøansvarlige, fra datasentre optimalisert som aktive nettdeltakere til bredere bedrifts-AI-applikasjoner. Denne fremtidsrettede tilnærmingen sikrer at fremskrittene innen AI-beregning er i tråd med globale bærekraftsmål.

Ofte stilte spørsmål

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Hold deg oppdatert

Få de siste AI-nyhetene i innboksen din.

Del