AWS i NVIDIA Aprofundeixen la Col·laboració en IA per Accelerar la Producció des de la Fase Pilot fins a la Producció
La IA està transformant les indústries a un ritme sense precedents, però el veritable valor no rau només en l'experimentació, sinó en el desplegament i l'operació reeixits de solucions d'IA en entorns de producció. Això exigeix sistemes robustos, escalables, segurs i conformes que proporcionin resultats empresarials tangibles. Abordant aquesta necessitat crítica, AWS i NVIDIA van anunciar una expansió significativa de la seva col·laboració estratègica a NVIDIA GTC 2026, presentant noves integracions tecnològiques dissenyades per satisfer la creixent demanda de computació d'IA i impulsar les solucions d'IA cap a la producció en el món real.
L'associació aprofundida se centra en accelerar cada faceta del cicle de vida de la IA, des de la infraestructura fins al desplegament de models. Aquestes integracions abasten àrees crucials que inclouen la computació accelerada, tecnologies avançades d'interconnexió i l'ajustament fi i la inferència de models optimitzats. Els anuncis clau inclouen:
- El desplegament de més d'1 milió de GPU NVIDIA a totes les regions d'AWS a partir de 2026.
- Suport d'Amazon EC2 per a les GPU NVIDIA RTX PRO 4500 Blackwell Server Edition, convertint AWS en el primer gran proveïdor de núvol a oferir-ho.
- Acceleració d'interconnexió per a la inferència desagregada de Models de Llenguatge Grans (LLM) aprofitant NVIDIA NIXL a AWS Elastic Fabric Adapter (EFA).
- Un rendiment 3 vegades més ràpid per a les càrregues de treball d'Apache Spark utilitzant Amazon EMR a Amazon Elastic Kubernetes Service (Amazon EKS) amb instàncies Amazon EC2 G7e, impulsades per GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.
- Suport ampliat del model NVIDIA Nemotron a Amazon Bedrock, incloent el Reinforcement Fine-Tuning i el model Nemotron 3 Super.
Escalant la Infraestructura d'IA amb Potència Millorada de GPU NVIDIA
La base de la IA moderna rau en una potent infraestructura de computació. A partir de 2026, AWS està assumint un compromís monumental amb l'avanç de la IA afegint més d'1 milió de GPU NVIDIA a les seves regions de núvol globals. Això inclou arquitectures de GPU Blackwell i Rubin de pròxima generació, garantint que els clients tinguin accés al maquinari més avançat disponible. AWS ja compta amb la col·lecció més àmplia d'instàncies basades en GPU NVIDIA de la indústria, donant servei a una gran varietat de càrregues de treball d'IA/ML, i aquesta expansió solidifica encara més el seu lideratge.
Aquesta associació de llarga data, que abasta més de 15 anys, també s'estén a àrees d'infraestructura crucials com la xarxa Spectrum. L'objectiu és proporcionar a empreses, startups i investigadors la infraestructura robusta necessària per construir i escalar sistemes d'IA Agentica avançats—IA capaç de raonament, planificació i acció autònoms a través de fluxos de treball complexos.
Presentació de Noves Instàncies Amazon EC2 i Innovacions en Interconnexió
Un punt destacat de la col·laboració són les pròximes instàncies Amazon EC2 accelerades per GPU NVIDIA RTX PRO 4500 Blackwell Server Edition. AWS s'enorgulleix de ser el primer gran proveïdor de núvol a anunciar el suport per a aquestes potents GPU, fent-les accessibles per a una àmplia gamma de tasques exigents. Aquestes instàncies són idealment adequades per a l'anàlisi de dades, IA conversacional sofisticada, generació de contingut dinàmic, sistemes de recomanació avançats, transmissió de vídeo d'alta qualitat i càrregues de treball gràfiques complexes.
Aquestes noves instàncies EC2 es construiran sobre el robust Sistema AWS Nitro. El Sistema Nitro, amb la seva combinació única de maquinari dedicat i un hipervisor lleuger, lliura gairebé tots els recursos de computació i memòria del maquinari de l'amfitrió directament a les instàncies. Aquest disseny garanteix una utilització i un rendiment superiors dels recursos. Crucialment, el maquinari, el programari i el firmware especialitzats del Sistema Nitro estan dissenyats per imposar restriccions estrictes, protegint les càrregues de treball i les dades sensibles d'IA de l'accés no autoritzat, fins i tot des d'AWS. La seva capacitat per realitzar actualitzacions i optimitzacions de firmware mentre està en funcionament millora encara més la seguretat i l'estabilitat essencials per a càrregues de treball d'IA, analítiques i gràfiques de grau de producció.
Millorant encara més el rendiment, particularment per a models d'IA massius, hi ha l'acceleració d'interconnexions per a la inferència desagregada de LLM. A mesura que les mides dels models continuen creixent, la sobrecàrrega de comunicació entre GPU o instàncies AWS Trainium pot convertir-se en un coll d'ampolla significatiu. AWS va anunciar el suport per a NVIDIA Inference Xfer Library (NIXL) amb AWS Elastic Fabric Adapter (EFA), dissenyat per accelerar la inferència desagregada de LLM a Amazon EC2, abastant tant les GPU NVIDIA com les AWS Trainium. Aquesta integració és vital per escalar càrregues de treball d'IA modernes, permetent una superposició eficient de comunicació i computació, minimitzant la latència i maximitzant la utilització de la GPU. Facilita el moviment de dades KV-cache d'alt rendiment i baixa latència entre nodes de computació i recursos de memòria distribuïts. NIXL amb EFA s'integra de manera nativa amb marcs de codi obert populars com NVIDIA Dynamo, vLLM i SGLang, oferint una latència inter-token millorada i una utilització de memòria KV-cache més eficient.
Accelerant l'Anàlisi de Dades amb Amazon EMR i GPU
Els enginyers i científics de dades sovint s'enfronten a llargues canonades de processament de dades que poden dificultar significativament la iteració de models d'IA/ML i la generació d'intel·ligència empresarial. La col·laboració entre AWS i NVIDIA ofereix una millora innovadora: un rendiment 3 vegades més ràpid per a les càrregues de treball d'Apache Spark. Aquesta acceleració s'aconsegueix aprofitant Amazon EMR a Amazon EKS amb instàncies G7e, impulsades per les GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.
Aquest guany de rendiment substancial és el resultat directe d'esforços conjunts d'enginyeria centrats en l'optimització de l'analítica accelerada per GPU. Amb Amazon EMR i les instàncies G7e, les organitzacions poden reduir dràsticament el temps necessari per a l'enginyeria de característiques d'IA/ML, transformacions ETL complexes i analítiques en temps real a escala. Els clients que executen canonades de processament de dades a gran escala poden aconseguir un temps fins a la informació més ràpid, mantenint la compatibilitat total amb les seves aplicacions Spark existents.
Ampliant el Suport del Model NVIDIA Nemotron a Amazon Bedrock
AWS i NVIDIA també estan ampliant la seva col·laboració en models fundacionals, portant models avançats de NVIDIA Nemotron a Amazon Bedrock.
Els desenvolupadors aviat tindran la capacitat d'ajustar finament els models NVIDIA Nemotron directament a Amazon Bedrock utilitzant el Reinforcement Fine-Tuning (RFT). Això representa un canvi de joc per als equips que necessiten adaptar el comportament del model a dominis específics, ja sigui en l'àmbit legal, sanitari, financer o altres camps especialitzats. El RFT permet als usuaris modelar la manera com un model raona i respon, anant més enllà de la mera adquisició de coneixement cap a un alineament conductual matisat. Crucialment, això s'executa de manera nativa a Amazon Bedrock, eliminant la sobrecàrrega d'infraestructura – els usuaris defineixen la tasca, proporcionen retroalimentació i Bedrock gestiona la resta.
A més, NVIDIA Nemotron 3 Super, un model híbrid de Mixture-of-Experts (MoE) construït per a càrregues de treball multiagent i raonament estès, també arribarà aviat a Amazon Bedrock. Dissenyat per ajudar els agents d'IA a mantenir la precisió en fluxos de treball complexos i de diversos passos, Nemotron 3 Super impulsarà diversos casos d'ús que abasten les finances, la ciberseguretat, el comerç minorista i el desenvolupament de programari. Promet una inferència ràpida i rendible a través d'una API totalment gestionada, simplificant el desplegament d'agents d'IA sofisticats.
Aquí teniu un resum dels anuncis clau:
| Característica/Integració | Descripció | Benefici Principal | Disponibilitat |
|---|---|---|---|
| Desplegament de GPU | Més d'1 milió de GPU NVIDIA (arquitectures Blackwell, Rubin) a totes les regions d'AWS. | Escala massiva de computació per a totes les càrregues de treball d'IA/ML, IA agentica. | A partir de 2026 |
| Instàncies Amazon EC2 | Suport per a les GPU NVIDIA RTX PRO 4500 Blackwell Server Edition a EC2. | Primer gran proveïdor de núvol amb suport per a IA, gràfics i analítica versàtils. | Pròximament |
| Inferència de LLM | NVIDIA NIXL a AWS EFA per a la inferència desagregada accelerada de LLM a través de GPU i Trainiums. | Latència de comunicació minimitzada, utilització de GPU maximitzada per a LLM. | Anunciat |
| Rendiment d'Apache Spark | Càrregues de treball de Spark 3 vegades més ràpides a Amazon EMR a EKS amb instàncies G7e (RTX PRO 6000). | Temps fins a la informació accelerat per a l'anàlisi de dades, enginyeria de característiques. | Anunciat |
| Ajustament Fi de Nemotron | Reinforcement Fine-Tuning (RFT) per a models Nemotron directament a Amazon Bedrock. | Alineació del comportament del model a dominis específics sense sobrecàrrega d'infraestructura. | Pròximament |
| Nemotron 3 Super | Model híbrid MoE per a càrregues de treball multiagent i raonament estès a Amazon Bedrock. | Inferència ràpida i rendible per a tasques d'IA complexes i de diversos passos. | Pròximament |
Compromís amb l'Eficiència Energètica i la IA Sostenible
A mesura que les càrregues de treball d'IA continuen creixent exponencialment, l'eficiència i la sostenibilitat de la infraestructura subjacent esdevenen primordials. La col·laboració també destaca un compromís compartit per millorar l'eficiència energètica. El rendiment per watt ja no és només una mètrica de sostenibilitat, sinó un avantatge competitiu significatiu en el panorama de la IA.
A NVIDIA GTC 2026, la CSO d'Amazon, Kara Hurst, es va unir a altres líders en sostenibilitat per discutir com la IA està transformant fonamentalment l'energia i la infraestructura empresarial a escala. Aquesta discussió subratlla l'enfocament en el desenvolupament i el desplegament de solucions d'IA que no només siguin potents, sinó també ambientalment responsables, des de centres de dades optimitzats com a participants actius de la xarxa fins a aplicacions d'IA empresarials més àmplies. Aquest enfocament amb visió de futur garanteix que els avenços en la computació d'IA s'alineïn amb els objectius de sostenibilitat globals.
Preguntes freqüents
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
What improvements are being made to Apache Spark performance for data analytics?
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
How does this collaboration address energy efficiency and sustainability in AI?
Manteniu-vos al dia
Rebeu les últimes notícies d'IA al correu.
