Code Velocity
Εταιρική Τεχνητή Νοημοσύνη

Η AWS και η NVIDIA εμβαθύνουν τη συνεργασία τους στην Τεχνητή Νοημοσύνη για την επιτάχυνση της παραγωγής

·5 λεπτά ανάγνωσης·AWS, NVIDIA·Αρχική πηγή
Κοινοποίηση
Λογότυπα της AWS και της NVIDIA εμφανίζονται περίοπτα, συμβολίζοντας την εκτεταμένη στρατηγική τους συνεργασία για την επιτάχυνση της Τεχνητής Νοημοσύνης και την καινοτομία.

Η AWS, η NVIDIA εμβαθύνουν τη συνεργασία τους στην Τεχνητή Νοημοσύνη για την επιτάχυνση της παραγωγής από το πιλοτικό στάδιο στην παραγωγή

Η Τεχνητή Νοημοσύνη μεταμορφώνει τις βιομηχανίες με πρωτοφανή ρυθμό, αλλά η πραγματική αξία δεν βρίσκεται μόνο στον πειραματισμό, αλλά στην επιτυχημένη ανάπτυξη και λειτουργία λύσεων Τεχνητής Νοημοσύνης σε περιβάλλοντα παραγωγής. Αυτό απαιτεί ισχυρά, επεκτάσιμα, ασφαλή και συμβατά συστήματα που να προσφέρουν απτά επιχειρηματικά αποτελέσματα. Αντιμετωπίζοντας αυτή την κρίσιμη ανάγκη, η AWS και η NVIDIA ανακοίνωσαν μια σημαντική επέκταση της στρατηγικής τους συνεργασίας στο NVIDIA GTC 2026, αποκαλύπτοντας νέες τεχνολογικές ενσωματώσεις που έχουν σχεδιαστεί για να καλύψουν την αυξανόμενη ζήτηση για υπολογιστική ισχύ Τεχνητής Νοημοσύνης και να προωθήσουν τις λύσεις Τεχνητής Νοημοσύνης σε πραγματική παραγωγή.

Η εμβαθυσμένη συνεργασία εστιάζει στην επιτάχυνση κάθε πτυχής του κύκλου ζωής της Τεχνητής Νοημοσύνης, από την υποδομή έως την ανάπτυξη μοντέλων. Αυτές οι ενσωματώσεις καλύπτουν κρίσιμους τομείς, συμπεριλαμβανομένων της επιταχυνόμενης υπολογιστικής ισχύος, των προηγμένων τεχνολογιών διασύνδεσης και της βελτιστοποιημένης λεπτομερούς ρύθμισης και συμπερασματολογίας μοντέλων. Οι βασικές ανακοινώσεις περιλαμβάνουν:

  • Η ανάπτυξη περισσότερων από 1 εκατομμυρίου NVIDIA GPUs σε όλες τις περιοχές της AWS ξεκινώντας από το 2026.
  • Υποστήριξη Amazon EC2 για NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs, καθιστώντας την AWS τον πρώτο μεγάλο πάροχο cloud που προσφέρει αυτή τη δυνατότητα.
  • Επιτάχυνση διασύνδεσης για διασπασμένη συμπερασματολογία Μεγάλων Γλωσσικών Μοντέλων (LLM) χρησιμοποιώντας NVIDIA NIXL στον AWS Elastic Fabric Adapter (EFA).
  • Δραματική 3 φορές ταχύτερη απόδοση για φόρτους εργασίας Apache Spark χρησιμοποιώντας Amazon EMR στο Amazon Elastic Kubernetes Service (Amazon EKS) με στιγμιότυπα Amazon EC2 G7e, που τροφοδοτούνται από NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs.
  • Διευρυμένη υποστήριξη μοντέλων NVIDIA Nemotron στο Amazon Bedrock, συμπεριλαμβανομένων του Reinforcement Fine-Tuning και του μοντέλου Nemotron 3 Super.

Κλιμάκωση της υποδομής Τεχνητής Νοημοσύνης με ενισχυμένη ισχύ NVIDIA GPU

Το θεμέλιο της σύγχρονης Τεχνητής Νοημοσύνης βρίσκεται σε ισχυρές υπολογιστικές υποδομές. Ξεκινώντας το 2026, η AWS δεσμεύεται μνημειωδώς για την πρόοδο της Τεχνητής Νοημοσύνης προσθέτοντας πάνω από 1 εκατομμύριο NVIDIA GPUs στις παγκόσμιες περιοχές cloud της. Αυτό περιλαμβάνει αρχιτεκτονικές GPU επόμενης γενιάς Blackwell και Rubin, διασφαλίζοντας ότι οι πελάτες έχουν πρόσβαση στο πιο προηγμένο διαθέσιμο υλικό. Η AWS διαθέτει ήδη την ευρύτερη συλλογή στιγμιότυπων βασισμένων σε NVIDIA GPU στον κλάδο, καλύπτοντας ένα ευρύ φάσμα φόρτων εργασίας AI/ML, και αυτή η επέκταση εδραιώνει περαιτέρω την ηγεσία της.

Αυτή η μακροχρόνια συνεργασία, που εκτείνεται σε πάνω από 15 χρόνια, επεκτείνεται επίσης σε κρίσιμους τομείς υποδομής όπως το Spectrum networking. Ο στόχος είναι να παρέχει σε επιχειρήσεις, startups και ερευνητές την ισχυρή υποδομή που απαιτείται για την κατασκευή και κλιμάκωση προηγμένων συστημάτων Agentic AI—Τεχνητής Νοημοσύνης ικανής για αυτόνομη συλλογιστική, σχεδιασμό και δράση σε πολύπλοπες ροές εργασίας.

Παρουσιάζοντας νέα στιγμιότυπα Amazon EC2 και καινοτομίες διασύνδεσης

Ένα σημαντικό σημείο της συνεργασίας είναι τα επερχόμενα στιγμιότυπα Amazon EC2 που επιταχύνονται από NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs. Η AWS είναι περήφανη που είναι ο πρώτος μεγάλος πάροχος cloud που ανακοινώνει την υποστήριξη για αυτές τις ισχυρές GPUs, καθιστώντας τις προσβάσιμες για ένα ευρύ φάσμα απαιτητικών εργασιών. Αυτά τα στιγμιότυπα είναι ιδανικά για ανάλυση δεδομένων, εξελιγμένη συνομιλητική Τεχνητή Νοημοσύνη, δυναμική δημιουργία περιεχομένου, προηγμένα συστήματα συστάσεων, υψηλής ποιότητας streaming βίντεο και πολύπλοπους φόρτους εργασίας γραφικών.

Αυτά τα νέα στιγμιότυπα EC2 θα βασίζονται στο ισχυρό AWS Nitro System. Το Nitro System, με τον μοναδικό συνδυασμό αποκλειστικού υλικού και ενός ελαφρού υπερεπόπτη (hypervisor), παρέχει σχεδόν όλους τους υπολογιστικούς πόρους και τους πόρους μνήμης του υλικού φιλοξενίας απευθείας στα στιγμιότυπα. Αυτός ο σχεδιασμός εξασφαλίζει ανώτερη αξιοποίηση πόρων και απόδοση. Κυρίως, το εξειδικευμένο υλικό, λογισμικό και firmware του Nitro System έχουν σχεδιαστεί για να επιβάλλουν αυστηρούς περιορισμούς, προστατεύοντας ευαίσθητους φόρτους εργασίας και δεδομένα Τεχνητής Νοημοσύνης από μη εξουσιοδοτημένη πρόσβαση, ακόμη και εντός της AWS. Η ικανότητά του να εκτελεί ενημερώσεις firmware και βελτιστοποιήσεις κατά τη λειτουργία ενισχύει περαιτέρω την ασφάλεια και τη σταθερότητα που είναι απαραίτητες για φόρτους εργασίας Τεχνητής Νοημοσύνης, ανάλυσης και γραφικών επιπέδου παραγωγής.

Επιπλέον ενίσχυση της απόδοσης, ιδιαίτερα για μαζικά μοντέλα Τεχνητής Νοημοσύνης, είναι η επιτάχυνση των διασυνδέσεων για διασπασμένη συμπερασματολογία LLM. Καθώς τα μεγέθη των μοντέλων συνεχίζουν να αυξάνονται, το υπερφόρτο επικοινωνίας μεταξύ GPUs ή στιγμιότυπων AWS Trainium μπορεί να γίνει ένα σημαντικό σημείο συμφόρησης. Η AWS ανακοίνωσε την υποστήριξη του NVIDIA Inference Xfer Library (NIXL) με τον AWS Elastic Fabric Adapter (EFA), σχεδιασμένο για να επιταχύνει τη διασπασμένη συμπερασματολογία LLM στο Amazon EC2, καλύπτοντας τόσο τις NVIDIA GPUs όσο και τα AWS Trainium. Αυτή η ενσωμάτωση είναι ζωτικής σημασίας για την κλιμάκωση σύγχρονων φόρτων εργασίας Τεχνητής Νοημοσύνης, επιτρέποντας την αποτελεσματική επικάλυψη επικοινωνίας και υπολογισμού, ελαχιστοποιώντας την καθυστέρηση και μεγιστοποιώντας την αξιοποίηση της GPU. Διευκολύνει την κίνηση δεδομένων KV-cache υψηλής απόδοσης και χαμηλής καθυστέρησης μεταξύ των υπολογιστικών κόμβων και των κατανεμημένων πόρων μνήμης. Το NIXL με EFA ενσωματώνεται εγγενώς με δημοφιλή open-source frameworks όπως τα NVIDIA Dynamo, vLLM και SGLang, προσφέροντας βελτιωμένη καθυστέρηση μεταξύ των tokens και πιο αποτελεσματική αξιοποίηση της μνήμης KV-cache.

Επιτάχυνση της Ανάλυσης Δεδομένων με Amazon EMR και GPUs

Οι μηχανικοί και οι επιστήμονες δεδομένων αντιμετωπίζουν συχνά μακροχρόνιους αγωγούς επεξεργασίας δεδομένων που μπορούν να εμποδίσουν σημαντικά την επανάληψη μοντέλων AI/ML και τη δημιουργία επιχειρηματικής ευφυΐας. Η συνεργασία AWS και NVIDIA προσφέρει μια πρωτοποριακή βελτίωση: 3 φορές ταχύτερη απόδοση για φόρτους εργασίας Apache Spark. Αυτή η επιτάχυνση επιτυγχάνεται αξιοποιώντας το Amazon EMR στο Amazon EKS με στιγμιότυπα G7e, που τροφοδοτούνται από τις NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs.

Αυτή η ουσιαστική αύξηση της απόδοσης είναι άμεσο αποτέλεσμα κοινών μηχανολογικών προσπαθειών που επικεντρώθηκαν στη βελτιστοποίηση των επιταχυνόμενων από GPU αναλύσεων. Με τα στιγμιότυπα Amazon EMR και G7e, οι οργανισμοί μπορούν να μειώσουν δραματικά τον χρόνο που απαιτείται για τη μηχανική χαρακτηριστικών AI/ML, σύνθετες μετασχηματίσεις ETL και ανάλυση σε πραγματικό χρόνο σε κλίμακα. Οι πελάτες που εκτελούν αγωγούς επεξεργασίας δεδομένων μεγάλης κλίμακας μπορούν να επιτύχουν ταχύτερο χρόνο προς την κατανόηση, διατηρώντας παράλληλα πλήρη συμβατότητα με τις υπάρχουσες εφαρμογές Spark.

Επέκταση της υποστήριξης μοντέλων NVIDIA Nemotron στο Amazon Bedrock

Η AWS και η NVIDIA επεκτείνουν επίσης τη συνεργασία τους σε θεμελιώδη μοντέλα, φέρνοντας προηγμένα μοντέλα NVIDIA Nemotron στο Amazon Bedrock.

Οι προγραμματιστές θα έχουν σύντομα τη δυνατότητα να ρυθμίζουν με ακρίβεια τα μοντέλα NVIDIA Nemotron απευθείας στο Amazon Bedrock χρησιμοποιώντας Reinforcement Fine-Tuning (RFT). Αυτό αλλάζει τα δεδομένα για ομάδες που πρέπει να προσαρμόσουν τη συμπεριφορά του μοντέλου σε συγκεκριμένους τομείς, είτε στον νομικό, την υγεία, τα χρηματοοικονομικά ή άλλους εξειδικευμένους τομείς. Το RFT δίνει τη δυνατότητα στους χρήστες να διαμορφώνουν τον τρόπο με τον οποίο ένα μοντέλο συλλογίζεται και απαντά, προχωρώντας πέρα από την απλή απόκτηση γνώσης σε μια λεπτομερή συμπεριφορική ευθυγράμμιση. Το κρίσιμο είναι ότι αυτό εκτελείται εγγενώς στο Amazon Bedrock, εξαλείφοντας το υπερφόρτο υποδομής – οι χρήστες ορίζουν την εργασία, παρέχουν ανατροφοδότηση και το Bedrock διαχειρίζεται τα υπόλοιπα.

Επιπλέον, το NVIDIA Nemotron 3 Super, ένα υβριδικό μοντέλο Mixture-of-Experts (MoE) κατασκευασμένο για φόρτους εργασίας πολλαπλών πρακτόρων και εκτεταμένη συλλογιστική, έρχεται επίσης σύντομα στο Amazon Bedrock. Σχεδιασμένο για να βοηθά τους πράκτορες Τεχνητής Νοημοσύνης να διατηρούν την ακρίβεια σε πολύπλοπες, πολυ-βηματικές ροές εργασίας, το Nemotron 3 Super θα τροφοδοτήσει ποικίλες περιπτώσεις χρήσης που καλύπτουν τη χρηματοδότηση, την κυβερνοασφάλεια, το λιανικό εμπόριο και την ανάπτυξη λογισμικού. Υπόσχεται γρήγορη, οικονομικά αποδοτική συμπερασματολογία μέσω ενός πλήρως διαχειριζόμενου API, απλοποιώντας την ανάπτυξη εξελιγμένων πρακτόρων Τεχνητής Νοημοσύνης.

Ακολουθεί μια σύνοψη των βασικών ανακοινώσεων:

Χαρακτηριστικό/ΕνσωμάτωσηΠεριγραφήΚύριο ΌφελοςΔιαθεσιμότητα
Ανάπτυξη GPUΠάνω από 1 εκατομμύριο NVIDIA GPUs (αρχιτεκτονικές Blackwell, Rubin) σε όλες τις περιοχές της AWS.Μαζική υπολογιστική κλίμακα για όλους τους φόρτους εργασίας AI/ML, agentic AI.Από το 2026
Στιγμιότυπα Amazon EC2Υποστήριξη για NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs σε EC2.Πρώτη υποστήριξη μεγάλου παρόχου cloud για ευέλικτη Τεχνητή Νοημοσύνη, γραφικά, ανάλυση.Σύντομα
Συμπερασματολογία LLMNVIDIA NIXL στον AWS EFA για επιταχυνόμενη διασπασμένη συμπερασματολογία LLM σε GPUs και Trainiums.Ελαχιστοποιημένη καθυστέρηση επικοινωνίας, μεγιστοποιημένη αξιοποίηση GPU για LLMs.Ανακοινώθηκε
Απόδοση Apache Spark3 φορές ταχύτεροι φόρτοι εργασίας Spark στο Amazon EMR σε EKS με στιγμιότυπα G7e (RTX PRO 6000).Επιταχυνόμενος χρόνος προς την κατανόηση για ανάλυση δεδομένων, μηχανική χαρακτηριστικών.Ανακοινώθηκε
Λεπτομερής Ρύθμιση NemotronReinforcement Fine-Tuning (RFT) για μοντέλα Nemotron απευθείας στο Amazon Bedrock.Ευθυγράμμιση συμπεριφοράς μοντέλου ειδικά για τομείς χωρίς υπερβολικό κόστος υποδομής.Σύντομα
Nemotron 3 SuperΥβριδικό μοντέλο MoE για φόρτους εργασίας πολλαπλών πρακτόρων και εκτεταμένη συλλογιστική στο Amazon Bedrock.Γρήγορη, οικονομικά αποδοτική συμπερασματολογία για πολύπλοκες, πολυ-βηματικές εργασίες Τεχνητής Νοημοσύνης.Σύντομα

Δέσμευση για Ενεργειακή Απόδοση και Βιώσιμη Τεχνητή Νοημοσύνη

Καθώς οι φόρτοι εργασίας της Τεχνητής Νοημοσύνης συνεχίζουν να αυξάνονται εκθετικά, η αποδοτικότητα και η βιωσιμότητα της υποκείμενης υποδομής καθίστανται υψίστης σημασίας. Η συνεργασία υπογραμμίζει επίσης μια κοινή δέσμευση για τη βελτίωση της ενεργειακής απόδοσης. Η απόδοση ανά watt δεν είναι πλέον απλώς μια μετρική βιωσιμότητας, αλλά ένα σημαντικό ανταγωνιστικό πλεονέκτημα στο τοπίο της Τεχνητής Νοημοσύνης.

Στο NVIDIA GTC 2026, η CSO της Amazon, Kara Hurst, συμμετείχε με άλλους ηγέτες βιωσιμότητας για να συζητήσουν πώς η Τεχνητή Νοημοσύνη μεταμορφώνει θεμελιωδώς την εταιρική ενέργεια και υποδομή σε κλίμακα. Αυτή η συζήτηση υπογραμμίζει την εστίαση στην ανάπτυξη και την εφαρμογή λύσεων Τεχνητής Νοημοσύνης που δεν είναι μόνο ισχυρές αλλά και περιβαλλοντικά υπεύθυνες, από κέντρα δεδομένων βελτιστοποιημένα ως ενεργοί συμμετέχοντες στο δίκτυο έως ευρύτερες εφαρμογές εταιρικής Τεχνητής Νοημοσύνης. Αυτή η προοδευτική προσέγγιση διασφαλίζει ότι οι εξελίξεις στην υπολογιστική ισχύ της Τεχνητής Νοημοσύνης ευθυγραμμίζονται με τους παγκόσμιους στόχους βιωσιμότητας.

Συχνές ερωτήσεις

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Μείνετε ενημερωμένοι

Λάβετε τα τελευταία νέα AI στο email σας.

Κοινοποίηση