AWS, NVIDIA აძლიერებენ AI-ს თანამშრომლობას წარმოების დასაჩქარებლად პილოტიდან წარმოებამდე
AI ინდუსტრიებს უპრეცედენტო ტემპით გარდაქმნის, მაგრამ მისი ჭეშმარიტი ღირებულება მხოლოდ ექსპერიმენტებში კი არა, AI გადაწყვეტილებების საწარმოო გარემოში წარმატებულ განთავსებასა და ოპერირებაში მდგომარეობს. ეს მოითხოვს მძლავრ, მასშტაბირებად, უსაფრთხო და შესაბამის სისტემებს, რომლებიც ხელშესახებ ბიზნეს შედეგებს იძლევა. ამ კრიტიკული საჭიროების საპასუხოდ, AWS-მა და NVIDIA-მ გამოაცხადეს თავიანთი სტრატეგიული თანამშრომლობის მნიშვნელოვანი გაფართოება NVIDIA GTC 2026-ზე, წარმოადგინეს ახალი ტექნოლოგიური ინტეგრაციები, რომლებიც შექმნილია AI გამოთვლებზე მზარდი მოთოვნის დასაკმაყოფილებლად და AI გადაწყვეტილებების რეალურ წარმოებაში დასანერგად.
გაღრმავებული პარტნიორობა ფოკუსირებულია AI სასიცოცხლო ციკლის ყველა ასპექტის დაჩქარებაზე, ინფრასტრუქტურიდან მოდელის განთავსებამდე. ეს ინტეგრაციები მოიცავს ისეთ გადამწყვეტ სფეროებს, როგორიცაა აჩქარებული გამოთვლები, მოწინავე ურთიერთდაკავშირების ტექნოლოგიები და გამარტივებული მოდელის დახვეწა და დასკვნა. ძირითადი განცხადებები მოიცავს:
- 1 მილიონზე მეტი NVIDIA GPU-ის განთავსება AWS რეგიონებში 2026 წლიდან.
- Amazon EC2-ის მხარდაჭერა NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ებისთვის, რითაც AWS პირველი მსხვილი ღრუბლოვანი პროვაიდერი ხდება, რომელიც ამას გვთავაზობს.
- ურთიერთდაკავშირების დაჩქარება განცალკევებული დიდი ენობრივი მოდელის (LLM) დასკვნისთვის NVIDIA NIXL-ის გამოყენებით AWS Elastic Fabric Adapter (EFA)-ზე.
- Apache Spark დატვირთვების 3-ჯერ უფრო სწრაფი შესრულება Amazon EMR-ის გამოყენებით Amazon Elastic Kubernetes Service (Amazon EKS)-ზე Amazon EC2 G7e ინსტანსებთან ერთად, რომლებიც იკვებება NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-ებით.
- NVIDIA Nemotron მოდელის გაფართოებული მხარდაჭერა Amazon Bedrock-ზე, გაძლიერებული დახვეწის (Reinforcement Fine-Tuning) და Nemotron 3 Super მოდელის ჩათვლით.
AI ინფრასტრუქტურის მასშტაბირება გაუმჯობესებული NVIDIA GPU სიმძლავრით
თანამედროვე AI-ის საფუძველი მძლავრ გამოთვლით ინფრასტრუქტურაში დევს. 2026 წლიდან, AWS იღებს მონუმენტურ ვალდებულებას AI-ის განვითარების მიმართ, მის გლობალურ ღრუბლოვან რეგიონებში 1 მილიონზე მეტი NVIDIA GPU-ის დამატებით. ეს მოიცავს შემდეგი თაობის Blackwell და Rubin GPU არქიტექტურებს, რაც უზრუნველყოფს, რომ მომხმარებლებს ჰქონდეთ წვდომა ყველაზე მოწინავე ხელმისაწვდომ აპარატურაზე. AWS უკვე ამაყობს ინდუსტრიაში NVIDIA GPU-ზე დაფუძნებული ინსტანსების ყველაზე ფართო კოლექციით, რომელიც ემსახურება AI/ML დატვირთვების მრავალფეროვან მასივს, და ეს გაფართოება კიდევ უფრო ამტკიცებს მის ლიდერობას.
ეს მრავალწლიანი პარტნიორობა, რომელიც 15 წელზე მეტს მოიცავს, ასევე ვრცელდება ინფრასტრუქტურის ისეთ გადამწყვეტ სფეროებზე, როგორიცაა Spectrum ქსელი. მიზანია საწარმოებს, სტარტაპებსა და მკვლევარებს მიაწოდოს მძლავრი ინფრასტრუქტურა, რომელიც საჭიროა მოწინავე აგენტური AI სისტემების შესაქმნელად და მასშტაბირებისთვის — AI, რომელსაც შეუძლია ავტონომიური მსჯელობა, დაგეგმვა და მოქმედება რთული სამუშაო პროცესების მასშტაბით.
ახალი Amazon EC2 ინსტანსებისა და ურთიერთდაკავშირების ინოვაციების წარდგენა
თანამშრომლობის ერთ-ერთი მთავარი ასპექტია მომავალი Amazon EC2 ინსტანსები, რომლებიც აჩქარებულია NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ებით. AWS ამაყობს, რომ არის პირველი მსხვილი ღრუბლოვანი პროვაიდერი, რომელმაც გამოაცხადა მხარდაჭერა ამ მძლავრი GPU-ებისთვის, რაც მათ ხელმისაწვდომს ხდის მოთხოვნადი ამოცანების ფართო სპექტრისთვის. ეს ინსტანსები იდეალურად შეეფერება მონაცემთა ანალიზს, დახვეწილ საუბრის AI-ს, დინამიურ კონტენტის გენერირებას, მოწინავე რეკომენდაციის სისტემებს, მაღალი ხარისხის ვიდეო სტრიმინგს და რთულ გრაფიკულ დატვირთვებს.
ეს ახალი EC2 ინსტანსები აიგება მძლავრ AWS Nitro System-ზე. Nitro System, მისი უნიკალური კომბინაციით გამოყოფილი აპარატურისა და მსუბუქი ჰიპერვიზორისგან, თითქმის მთელ ჰოსტის აპარატურის გამოთვლით და მეხსიერების რესურსებს პირდაპირ ინსტანსებს აწვდის. ეს დიზაინი უზრუნველყოფს რესურსების უპირატეს გამოყენებას და შესრულებას. რაც მთავარია, Nitro System-ის სპეციალიზებული აპარატურა, პროგრამული უზრუნველყოფა და პროგრამული მართვა შექმნილია მკაცრი შეზღუდვების აღსასრულებლად, იცავს მგრძნობიარე AI დატვირთვებსა და მონაცემებს არაავტორიზებული წვდომისგან, AWS-ის შიგნიდანაც კი. მისი შესაძლებლობა, განახორციელოს პროგრამული უზრუნველყოფის განახლებები და ოპტიმიზაციები ოპერირებისას, კიდევ უფრო აძლიერებს უსაფრთხოებასა და სტაბილურობას, რაც აუცილებელია წარმოების დონის AI, ანალიზისა და გრაფიკული დატვირთვებისთვის.
შესრულების კიდევ უფრო გასაუმჯობესებლად, განსაკუთრებით მასიური AI მოდელებისთვის, ხდება ურთიერთდაკავშირების დაჩქარება განცალკევებული LLM დასკვნისთვის. მოდელის ზომის მატებასთან ერთად, GPU-ებს ან AWS Trainium ინსტანსებს შორის კომუნიკაციის ზედმეტი დატვირთვა შეიძლება გახდეს მნიშვნელოვანი შეფერხება. AWS-მა გამოაცხადა NVIDIA Inference Xfer Library (NIXL)-ის მხარდაჭერა AWS Elastic Fabric Adapter (EFA)-სთან ერთად, რომელიც შექმნილია განცალკევებული LLM დასკვნის დასაჩქარებლად Amazon EC2-ზე, როგორც NVIDIA GPU-ებზე, ასევე AWS Trainium-ზე. ეს ინტეგრაცია სასიცოცხლოდ მნიშვნელოვანია თანამედროვე AI დატვირთვების მასშტაბირებისთვის, რაც უზრუნველყოფს კომუნიკაციისა და გამოთვლების ეფექტურ გადაფარვას, ლატენტურობის მინიმიზაციას და GPU-ის გამოყენების მაქსიმიზაციას. ის ხელს უწყობს მაღალი გამტარუნარიანობის, დაბალი ლატენტურობის KV-cache მონაცემთა მოძრაობას გამოთვლით კვანძებსა და განაწილებულ მეხსიერების რესურსებს შორის. NIXL EFA-სთან ერთად მშობლიურად ინტეგრირდება პოპულარულ ღია კოდის ფრეიმვორკებთან, როგორიცაა NVIDIA Dynamo, vLLM და SGLang, რაც უზრუნველყოფს გაუმჯობესებულ inter-token ლატენტურობას და KV-cache მეხსიერების უფრო ეფექტურ გამოყენებას.
მონაცემთა ანალიზის დაჩქარება Amazon EMR-ისა და GPU-ების საშუალებით
მონაცემთა ინჟინრები და მეცნიერები ხშირად ებრძვიან ხანგრძლივ მონაცემთა დამუშავების მილსადენებს, რამაც შეიძლება მნიშვნელოვნად შეაფერხოს AI/ML მოდელის იტერაცია და ბიზნეს ინტელექტის გენერირება. AWS-ისა და NVIDIA-ს თანამშრომლობა უზრუნველყოფს ნოვატორულ გაუმჯობესებას: 3-ჯერ უფრო სწრაფ შესრულებას Apache Spark დატვირთვებისთვის. ეს აჩქარება მიღწეულია Amazon EMR-ის გამოყენებით Amazon EKS-ზე G7e ინსტანსებთან ერთად, რომლებიც იკვებება NVIDIA-ს RTX PRO 6000 Blackwell Server Edition GPU-ებით.
შესრულების ეს მნიშვნელოვანი ზრდა არის ერთობლივი საინჟინრო ძალისხმევის პირდაპირი შედეგი, რომელიც ორიენტირებულია GPU-ზე აჩქარებული ანალიტიკის ოპტიმიზაციაზე. Amazon EMR-ისა და G7e ინსტანსების საშუალებით, ორგანიზაციებს შეუძლიათ მკვეთრად შეამცირონ დრო, რომელიც საჭიროა AI/ML მახასიათებლების ინჟინერიისთვის, რთული ETL ტრანსფორმაციებისთვის და რეალურ დროში ანალიზისთვის მასშტაბურად. მომხმარებლებს, რომლებიც მართავენ მსხვილმასშტაბიან მონაცემთა დამუშავების მილსადენებს, შეუძლიათ მიაღწიონ უფრო სწრაფ გამჭრიახობას, არსებულ Spark აპლიკაციებთან სრული თავსებადობის შენარჩუნებით.
NVIDIA Nemotron მოდელის მხარდაჭერის გაფართოება Amazon Bedrock-ზე
AWS და NVIDIA ასევე აფართოებენ თანამშრომლობას ფუნდამენტურ მოდელებზე, მოწინავე NVIDIA Nemotron მოდელების Amazon Bedrock-ზე შემოტანით.
დეველოპერებს მალე ექნებათ შესაძლებლობა, დახვეწონ NVIDIA Nemotron მოდელები უშუალოდ Amazon Bedrock-ზე გაძლიერებული დახვეწის (Reinforcement Fine-Tuning - RFT) გამოყენებით. ეს თამაშის შემცვლელია გუნდებისთვის, რომლებსაც სჭირდებათ მოდელის ქცევის მორგება კონკრეტულ დომენებზე, იქნება ეს იურიდიული, ჯანდაცვის, ფინანსების თუ სხვა სპეციალიზებული სფეროები. RFT მომხმარებლებს აძლევს საშუალებას, ჩამოაყალიბონ, თუ როგორ მსჯელობს და პასუხობს მოდელი, გადადიან უბრალო ცოდნის შეძენიდან ნიუანსირებულ ქცევით გასწორებაზე. რაც მთავარია, ეს მუშაობს Amazon Bedrock-ზე, რაც გამორიცხავს ინფრასტრუქტურის ზედმეტ ხარჯებს – მომხმარებლები განსაზღვრავენ ამოცანას, აწვდიან უკუკავშირს, ხოლო Bedrock მართავს დანარჩენს.
გარდა ამისა, NVIDIA Nemotron 3 Super, ჰიბრიდული Mixture-of-Experts (MoE) მოდელი, რომელიც შექმნილია მრავალაგენტური დატვირთვებისთვის და გაფართოებული მსჯელობისთვის, ასევე მალე გამოჩნდება Amazon Bedrock-ზე. შექმნილია იმისთვის, რომ AI აგენტებს დაეხმაროს სიზუსტის შენარჩუნებაში რთული, მრავალსაფეხურიანი სამუშაო პროცესების მასშტაბით, Nemotron 3 Super იკვებება მრავალფეროვან გამოყენების შემთხვევებს, რომლებიც მოიცავს ფინანსებს, კიბერუსაფრთხოებას, საცალო ვაჭრობასა და პროგრამული უზრუნველყოფის განვითარებას. ის გვპირდება სწრაფ, ეკონომიურ დასკვნას სრულად მართული API-ის მეშვეობით, რაც ამარტივებს დახვეწილი AI აგენტების განთავსებას.
აქ მოცემულია ძირითადი განცხადებების შეჯამება:
| ფუნქცია/ინტეგრაცია | აღწერა | ძირითადი სარგებელი | ხელმისაწვდომობა |
|---|---|---|---|
| GPU განთავსება | 1 მილიონზე მეტი NVIDIA GPU (Blackwell, Rubin არქიტექტურები) AWS რეგიონებში. | მასიური გამოთვლითი მასშტაბი ყველა AI/ML დატვირთვისთვის, აგენტური AI-ისთვის. | 2026 წლიდან |
| Amazon EC2 ინსტანსები | NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ების მხარდაჭერა EC2-ზე. | პირველი მსხვილი ღრუბლოვანი პროვაიდერის მხარდაჭერა მრავალმხრივი AI, გრაფიკა, ანალიტიკისთვის. | მალე გამოჩნდება |
| LLM დასკვნა | NVIDIA NIXL AWS EFA-ზე დაჩქარებული განცალკევებული LLM დასკვნისთვის GPU-ებსა და Trainium-ებზე. | მინიმუმამდე დაყვანილი საკომუნიკაციო ლატენტურობა, მაქსიმალური GPU გამოყენება LLM-ებისთვის. | გამოცხადებულია |
| Apache Spark შესრულება | 3-ჯერ უფრო სწრაფი Spark დატვირთვები Amazon EMR-ზე EKS-ზე G7e ინსტანსებით (RTX PRO 6000). | დაჩქარებული გამჭრიახობა მონაცემთა ანალიზისთვის, მახასიათებლების ინჟინერიისთვის. | გამოცხადებულია |
| Nemotron დახვეწა | გაძლიერებული დახვეწა (RFT) Nemotron მოდელებისთვის უშუალოდ Amazon Bedrock-ზე. | დომენის სპეციფიკური მოდელის ქცევის გასწორება ინფრასტრუქტურის ზედმეტი ხარჯების გარეშე. | მალე გამოჩნდება |
| Nemotron 3 Super | ჰიბრიდული MoE მოდელი მრავალაგენტური დატვირთვებისთვის და გაფართოებული მსჯელობისთვის Amazon Bedrock-ზე. | სწრაფი, ეკონომიური დასკვნა რთული, მრავალსაფეხურიანი AI ამოცანებისთვის. | მალე გამოჩნდება |
ენერგოეფექტურობისა და მდგრადი AI-ისადმი ერთგულება
ვინაიდან AI დატვირთვები ექსპონენციალურად იზრდება, ძირითადი ინფრასტრუქტურის ეფექტურობა და მდგრადობა უმნიშვნელოვანესი ხდება. თანამშრომლობა ასევე ხაზს უსვამს ენერგოეფექტურობის გაუმჯობესების საერთო ვალდებულებას. შესრულება ვატზე აღარ არის მხოლოდ მდგრადობის მეტრიკა, არამედ მნიშვნელოვანი კონკურენტული უპირატესობა AI ლანდშაფტში.
NVIDIA GTC 2026-ზე Amazon-ის CSO Kara Hurst შეუერთდა სხვა მდგრადობის ლიდერებს, რათა განეხილათ, თუ როგორ გარდაქმნის AI ფუნდამენტურად საწარმოს ენერგიასა და ინფრასტრუქტურას მასშტაბურად. ეს დისკუსია ხაზს უსვამს AI გადაწყვეტილებების შემუშავებასა და განთავსებაზე ფოკუსირებას, რომლებიც არა მხოლოდ მძლავრი, არამედ ეკოლოგიურად პასუხისმგებლიანია, მონაცემთა ცენტრებიდან, რომლებიც ოპტიმიზირებულია როგორც აქტიური ქსელის მონაწილეები, უფრო ფართო საწარმოს AI აპლიკაციებამდე.
ორიგინალი წყარო
https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/ხშირად დასმული კითხვები
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
What improvements are being made to Apache Spark performance for data analytics?
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
How does this collaboration address energy efficiency and sustainability in AI?
იყავით ინფორმირებული
მიიღეთ უახლესი AI სიახლეები ელფოსტაზე.
