Code Velocity
კორპორატიული AI

AWS და NVIDIA აძლიერებენ AI-ს თანამშრომლობას წარმოების დასაჩქარებლად

·5 წუთი კითხვა·AWS, NVIDIA·ორიგინალი წყარო
გაზიარება
AWS-ისა და NVIDIA-ს ლოგოები მკაფიოდ არის გამოსახული, რაც სიმბოლოა მათი გაფართოებული სტრატეგიული თანამშრომლობის AI-ის აჩქარებისა და ინოვაციისთვის.

AWS, NVIDIA აძლიერებენ AI-ს თანამშრომლობას წარმოების დასაჩქარებლად პილოტიდან წარმოებამდე

AI ინდუსტრიებს უპრეცედენტო ტემპით გარდაქმნის, მაგრამ მისი ჭეშმარიტი ღირებულება მხოლოდ ექსპერიმენტებში კი არა, AI გადაწყვეტილებების საწარმოო გარემოში წარმატებულ განთავსებასა და ოპერირებაში მდგომარეობს. ეს მოითხოვს მძლავრ, მასშტაბირებად, უსაფრთხო და შესაბამის სისტემებს, რომლებიც ხელშესახებ ბიზნეს შედეგებს იძლევა. ამ კრიტიკული საჭიროების საპასუხოდ, AWS-მა და NVIDIA-მ გამოაცხადეს თავიანთი სტრატეგიული თანამშრომლობის მნიშვნელოვანი გაფართოება NVIDIA GTC 2026-ზე, წარმოადგინეს ახალი ტექნოლოგიური ინტეგრაციები, რომლებიც შექმნილია AI გამოთვლებზე მზარდი მოთოვნის დასაკმაყოფილებლად და AI გადაწყვეტილებების რეალურ წარმოებაში დასანერგად.

გაღრმავებული პარტნიორობა ფოკუსირებულია AI სასიცოცხლო ციკლის ყველა ასპექტის დაჩქარებაზე, ინფრასტრუქტურიდან მოდელის განთავსებამდე. ეს ინტეგრაციები მოიცავს ისეთ გადამწყვეტ სფეროებს, როგორიცაა აჩქარებული გამოთვლები, მოწინავე ურთიერთდაკავშირების ტექნოლოგიები და გამარტივებული მოდელის დახვეწა და დასკვნა. ძირითადი განცხადებები მოიცავს:

  • 1 მილიონზე მეტი NVIDIA GPU-ის განთავსება AWS რეგიონებში 2026 წლიდან.
  • Amazon EC2-ის მხარდაჭერა NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ებისთვის, რითაც AWS პირველი მსხვილი ღრუბლოვანი პროვაიდერი ხდება, რომელიც ამას გვთავაზობს.
  • ურთიერთდაკავშირების დაჩქარება განცალკევებული დიდი ენობრივი მოდელის (LLM) დასკვნისთვის NVIDIA NIXL-ის გამოყენებით AWS Elastic Fabric Adapter (EFA)-ზე.
  • Apache Spark დატვირთვების 3-ჯერ უფრო სწრაფი შესრულება Amazon EMR-ის გამოყენებით Amazon Elastic Kubernetes Service (Amazon EKS)-ზე Amazon EC2 G7e ინსტანსებთან ერთად, რომლებიც იკვებება NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-ებით.
  • NVIDIA Nemotron მოდელის გაფართოებული მხარდაჭერა Amazon Bedrock-ზე, გაძლიერებული დახვეწის (Reinforcement Fine-Tuning) და Nemotron 3 Super მოდელის ჩათვლით.

AI ინფრასტრუქტურის მასშტაბირება გაუმჯობესებული NVIDIA GPU სიმძლავრით

თანამედროვე AI-ის საფუძველი მძლავრ გამოთვლით ინფრასტრუქტურაში დევს. 2026 წლიდან, AWS იღებს მონუმენტურ ვალდებულებას AI-ის განვითარების მიმართ, მის გლობალურ ღრუბლოვან რეგიონებში 1 მილიონზე მეტი NVIDIA GPU-ის დამატებით. ეს მოიცავს შემდეგი თაობის Blackwell და Rubin GPU არქიტექტურებს, რაც უზრუნველყოფს, რომ მომხმარებლებს ჰქონდეთ წვდომა ყველაზე მოწინავე ხელმისაწვდომ აპარატურაზე. AWS უკვე ამაყობს ინდუსტრიაში NVIDIA GPU-ზე დაფუძნებული ინსტანსების ყველაზე ფართო კოლექციით, რომელიც ემსახურება AI/ML დატვირთვების მრავალფეროვან მასივს, და ეს გაფართოება კიდევ უფრო ამტკიცებს მის ლიდერობას.

ეს მრავალწლიანი პარტნიორობა, რომელიც 15 წელზე მეტს მოიცავს, ასევე ვრცელდება ინფრასტრუქტურის ისეთ გადამწყვეტ სფეროებზე, როგორიცაა Spectrum ქსელი. მიზანია საწარმოებს, სტარტაპებსა და მკვლევარებს მიაწოდოს მძლავრი ინფრასტრუქტურა, რომელიც საჭიროა მოწინავე აგენტური AI სისტემების შესაქმნელად და მასშტაბირებისთვის — AI, რომელსაც შეუძლია ავტონომიური მსჯელობა, დაგეგმვა და მოქმედება რთული სამუშაო პროცესების მასშტაბით.

ახალი Amazon EC2 ინსტანსებისა და ურთიერთდაკავშირების ინოვაციების წარდგენა

თანამშრომლობის ერთ-ერთი მთავარი ასპექტია მომავალი Amazon EC2 ინსტანსები, რომლებიც აჩქარებულია NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ებით. AWS ამაყობს, რომ არის პირველი მსხვილი ღრუბლოვანი პროვაიდერი, რომელმაც გამოაცხადა მხარდაჭერა ამ მძლავრი GPU-ებისთვის, რაც მათ ხელმისაწვდომს ხდის მოთხოვნადი ამოცანების ფართო სპექტრისთვის. ეს ინსტანსები იდეალურად შეეფერება მონაცემთა ანალიზს, დახვეწილ საუბრის AI-ს, დინამიურ კონტენტის გენერირებას, მოწინავე რეკომენდაციის სისტემებს, მაღალი ხარისხის ვიდეო სტრიმინგს და რთულ გრაფიკულ დატვირთვებს.

ეს ახალი EC2 ინსტანსები აიგება მძლავრ AWS Nitro System-ზე. Nitro System, მისი უნიკალური კომბინაციით გამოყოფილი აპარატურისა და მსუბუქი ჰიპერვიზორისგან, თითქმის მთელ ჰოსტის აპარატურის გამოთვლით და მეხსიერების რესურსებს პირდაპირ ინსტანსებს აწვდის. ეს დიზაინი უზრუნველყოფს რესურსების უპირატეს გამოყენებას და შესრულებას. რაც მთავარია, Nitro System-ის სპეციალიზებული აპარატურა, პროგრამული უზრუნველყოფა და პროგრამული მართვა შექმნილია მკაცრი შეზღუდვების აღსასრულებლად, იცავს მგრძნობიარე AI დატვირთვებსა და მონაცემებს არაავტორიზებული წვდომისგან, AWS-ის შიგნიდანაც კი. მისი შესაძლებლობა, განახორციელოს პროგრამული უზრუნველყოფის განახლებები და ოპტიმიზაციები ოპერირებისას, კიდევ უფრო აძლიერებს უსაფრთხოებასა და სტაბილურობას, რაც აუცილებელია წარმოების დონის AI, ანალიზისა და გრაფიკული დატვირთვებისთვის.

შესრულების კიდევ უფრო გასაუმჯობესებლად, განსაკუთრებით მასიური AI მოდელებისთვის, ხდება ურთიერთდაკავშირების დაჩქარება განცალკევებული LLM დასკვნისთვის. მოდელის ზომის მატებასთან ერთად, GPU-ებს ან AWS Trainium ინსტანსებს შორის კომუნიკაციის ზედმეტი დატვირთვა შეიძლება გახდეს მნიშვნელოვანი შეფერხება. AWS-მა გამოაცხადა NVIDIA Inference Xfer Library (NIXL)-ის მხარდაჭერა AWS Elastic Fabric Adapter (EFA)-სთან ერთად, რომელიც შექმნილია განცალკევებული LLM დასკვნის დასაჩქარებლად Amazon EC2-ზე, როგორც NVIDIA GPU-ებზე, ასევე AWS Trainium-ზე. ეს ინტეგრაცია სასიცოცხლოდ მნიშვნელოვანია თანამედროვე AI დატვირთვების მასშტაბირებისთვის, რაც უზრუნველყოფს კომუნიკაციისა და გამოთვლების ეფექტურ გადაფარვას, ლატენტურობის მინიმიზაციას და GPU-ის გამოყენების მაქსიმიზაციას. ის ხელს უწყობს მაღალი გამტარუნარიანობის, დაბალი ლატენტურობის KV-cache მონაცემთა მოძრაობას გამოთვლით კვანძებსა და განაწილებულ მეხსიერების რესურსებს შორის. NIXL EFA-სთან ერთად მშობლიურად ინტეგრირდება პოპულარულ ღია კოდის ფრეიმვორკებთან, როგორიცაა NVIDIA Dynamo, vLLM და SGLang, რაც უზრუნველყოფს გაუმჯობესებულ inter-token ლატენტურობას და KV-cache მეხსიერების უფრო ეფექტურ გამოყენებას.

მონაცემთა ანალიზის დაჩქარება Amazon EMR-ისა და GPU-ების საშუალებით

მონაცემთა ინჟინრები და მეცნიერები ხშირად ებრძვიან ხანგრძლივ მონაცემთა დამუშავების მილსადენებს, რამაც შეიძლება მნიშვნელოვნად შეაფერხოს AI/ML მოდელის იტერაცია და ბიზნეს ინტელექტის გენერირება. AWS-ისა და NVIDIA-ს თანამშრომლობა უზრუნველყოფს ნოვატორულ გაუმჯობესებას: 3-ჯერ უფრო სწრაფ შესრულებას Apache Spark დატვირთვებისთვის. ეს აჩქარება მიღწეულია Amazon EMR-ის გამოყენებით Amazon EKS-ზე G7e ინსტანსებთან ერთად, რომლებიც იკვებება NVIDIA-ს RTX PRO 6000 Blackwell Server Edition GPU-ებით.

შესრულების ეს მნიშვნელოვანი ზრდა არის ერთობლივი საინჟინრო ძალისხმევის პირდაპირი შედეგი, რომელიც ორიენტირებულია GPU-ზე აჩქარებული ანალიტიკის ოპტიმიზაციაზე. Amazon EMR-ისა და G7e ინსტანსების საშუალებით, ორგანიზაციებს შეუძლიათ მკვეთრად შეამცირონ დრო, რომელიც საჭიროა AI/ML მახასიათებლების ინჟინერიისთვის, რთული ETL ტრანსფორმაციებისთვის და რეალურ დროში ანალიზისთვის მასშტაბურად. მომხმარებლებს, რომლებიც მართავენ მსხვილმასშტაბიან მონაცემთა დამუშავების მილსადენებს, შეუძლიათ მიაღწიონ უფრო სწრაფ გამჭრიახობას, არსებულ Spark აპლიკაციებთან სრული თავსებადობის შენარჩუნებით.

NVIDIA Nemotron მოდელის მხარდაჭერის გაფართოება Amazon Bedrock-ზე

AWS და NVIDIA ასევე აფართოებენ თანამშრომლობას ფუნდამენტურ მოდელებზე, მოწინავე NVIDIA Nemotron მოდელების Amazon Bedrock-ზე შემოტანით.

დეველოპერებს მალე ექნებათ შესაძლებლობა, დახვეწონ NVIDIA Nemotron მოდელები უშუალოდ Amazon Bedrock-ზე გაძლიერებული დახვეწის (Reinforcement Fine-Tuning - RFT) გამოყენებით. ეს თამაშის შემცვლელია გუნდებისთვის, რომლებსაც სჭირდებათ მოდელის ქცევის მორგება კონკრეტულ დომენებზე, იქნება ეს იურიდიული, ჯანდაცვის, ფინანსების თუ სხვა სპეციალიზებული სფეროები. RFT მომხმარებლებს აძლევს საშუალებას, ჩამოაყალიბონ, თუ როგორ მსჯელობს და პასუხობს მოდელი, გადადიან უბრალო ცოდნის შეძენიდან ნიუანსირებულ ქცევით გასწორებაზე. რაც მთავარია, ეს მუშაობს Amazon Bedrock-ზე, რაც გამორიცხავს ინფრასტრუქტურის ზედმეტ ხარჯებს – მომხმარებლები განსაზღვრავენ ამოცანას, აწვდიან უკუკავშირს, ხოლო Bedrock მართავს დანარჩენს.

გარდა ამისა, NVIDIA Nemotron 3 Super, ჰიბრიდული Mixture-of-Experts (MoE) მოდელი, რომელიც შექმნილია მრავალაგენტური დატვირთვებისთვის და გაფართოებული მსჯელობისთვის, ასევე მალე გამოჩნდება Amazon Bedrock-ზე. შექმნილია იმისთვის, რომ AI აგენტებს დაეხმაროს სიზუსტის შენარჩუნებაში რთული, მრავალსაფეხურიანი სამუშაო პროცესების მასშტაბით, Nemotron 3 Super იკვებება მრავალფეროვან გამოყენების შემთხვევებს, რომლებიც მოიცავს ფინანსებს, კიბერუსაფრთხოებას, საცალო ვაჭრობასა და პროგრამული უზრუნველყოფის განვითარებას. ის გვპირდება სწრაფ, ეკონომიურ დასკვნას სრულად მართული API-ის მეშვეობით, რაც ამარტივებს დახვეწილი AI აგენტების განთავსებას.

აქ მოცემულია ძირითადი განცხადებების შეჯამება:

ფუნქცია/ინტეგრაციააღწერაძირითადი სარგებელიხელმისაწვდომობა
GPU განთავსება1 მილიონზე მეტი NVIDIA GPU (Blackwell, Rubin არქიტექტურები) AWS რეგიონებში.მასიური გამოთვლითი მასშტაბი ყველა AI/ML დატვირთვისთვის, აგენტური AI-ისთვის.2026 წლიდან
Amazon EC2 ინსტანსებიNVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ების მხარდაჭერა EC2-ზე.პირველი მსხვილი ღრუბლოვანი პროვაიდერის მხარდაჭერა მრავალმხრივი AI, გრაფიკა, ანალიტიკისთვის.მალე გამოჩნდება
LLM დასკვნაNVIDIA NIXL AWS EFA-ზე დაჩქარებული განცალკევებული LLM დასკვნისთვის GPU-ებსა და Trainium-ებზე.მინიმუმამდე დაყვანილი საკომუნიკაციო ლატენტურობა, მაქსიმალური GPU გამოყენება LLM-ებისთვის.გამოცხადებულია
Apache Spark შესრულება3-ჯერ უფრო სწრაფი Spark დატვირთვები Amazon EMR-ზე EKS-ზე G7e ინსტანსებით (RTX PRO 6000).დაჩქარებული გამჭრიახობა მონაცემთა ანალიზისთვის, მახასიათებლების ინჟინერიისთვის.გამოცხადებულია
Nemotron დახვეწაგაძლიერებული დახვეწა (RFT) Nemotron მოდელებისთვის უშუალოდ Amazon Bedrock-ზე.დომენის სპეციფიკური მოდელის ქცევის გასწორება ინფრასტრუქტურის ზედმეტი ხარჯების გარეშე.მალე გამოჩნდება
Nemotron 3 Superჰიბრიდული MoE მოდელი მრავალაგენტური დატვირთვებისთვის და გაფართოებული მსჯელობისთვის Amazon Bedrock-ზე.სწრაფი, ეკონომიური დასკვნა რთული, მრავალსაფეხურიანი AI ამოცანებისთვის.მალე გამოჩნდება

ენერგოეფექტურობისა და მდგრადი AI-ისადმი ერთგულება

ვინაიდან AI დატვირთვები ექსპონენციალურად იზრდება, ძირითადი ინფრასტრუქტურის ეფექტურობა და მდგრადობა უმნიშვნელოვანესი ხდება. თანამშრომლობა ასევე ხაზს უსვამს ენერგოეფექტურობის გაუმჯობესების საერთო ვალდებულებას. შესრულება ვატზე აღარ არის მხოლოდ მდგრადობის მეტრიკა, არამედ მნიშვნელოვანი კონკურენტული უპირატესობა AI ლანდშაფტში.

NVIDIA GTC 2026-ზე Amazon-ის CSO Kara Hurst შეუერთდა სხვა მდგრადობის ლიდერებს, რათა განეხილათ, თუ როგორ გარდაქმნის AI ფუნდამენტურად საწარმოს ენერგიასა და ინფრასტრუქტურას მასშტაბურად. ეს დისკუსია ხაზს უსვამს AI გადაწყვეტილებების შემუშავებასა და განთავსებაზე ფოკუსირებას, რომლებიც არა მხოლოდ მძლავრი, არამედ ეკოლოგიურად პასუხისმგებლიანია, მონაცემთა ცენტრებიდან, რომლებიც ოპტიმიზირებულია როგორც აქტიური ქსელის მონაწილეები, უფრო ფართო საწარმოს AI აპლიკაციებამდე.

ხშირად დასმული კითხვები

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

იყავით ინფორმირებული

მიიღეთ უახლესი AI სიახლეები ელფოსტაზე.

გაზიარება