Code Velocity
Yritystason tekoäly

Generatiivisen tekoälyn päättely: Nopeuta SageMakerilla G7e-instansseilla

·4 min lukuaika·AWS·Alkuperäinen lähde
Jaa
Amazon SageMaker AI G7e -instanssit nopeuttavat generatiivisen tekoälyn päättelyä NVIDIA RTX PRO 6000 Blackwell GPU:illa.

title: "Generatiivisen tekoälyn päättely: Nopeuta SageMakerilla G7e-instansseilla" slug: "accelerate-generative-ai-inference-on-amazon-sagemaker-ai-with-g7e-instances" date: "2026-04-21" lang: "fi" source: "https://aws.amazon.com/blogs/machine-learning/accelerate-generative-ai-inference-on-amazon-sagemaker-ai-with-g7e-instances/" category: "Yritystason tekoäly" keywords:

  • Generatiivinen tekoäly
  • Tekoälypäättely
  • Amazon SageMaker
  • AWS G7e -instanssit
  • NVIDIA RTX PRO 6000
  • Suurten kielimallien käyttöönotto
  • Kustannustehokas tekoäly
  • GPU-muisti
  • Blackwell
  • vLLM
  • Perusmallit
  • Agenttityönkulut meta_description: "Nopeuta generatiivisen tekoälyn päättelyä Amazon SageMaker AI:ssa uusilla G7e-instansseilla, joita tehostavat NVIDIA RTX PRO 6000 Blackwell GPU:t, tarjoten 2,3-kertaisen suorituskyvyn ja kustannussäästöjä." image: "/images/articles/accelerate-generative-ai-inference-on-amazon-sagemaker-ai-with-g7e-instances.png" image_alt: "Amazon SageMaker AI G7e -instanssit nopeuttavat generatiivisen tekoälyn päättelyä NVIDIA RTX PRO 6000 Blackwell GPU:illa." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • AWS schema_type: "NewsArticle" reading_time: 4 faq:
  • question: "Mitä ovat G7e-instanssit ja miten ne hyödyttävät generatiivisen tekoälyn päättelyä?" answer: "G7e-instanssit ovat Amazon SageMaker AI:n uuden sukupolven GPU-kiihdytettyjä laskentainstansseja, jotka on erityisesti suunniteltu nopeuttamaan generatiivisen tekoälyn päättelytyökuormia. Niiden teho perustuu NVIDIA RTX PRO 6000 Blackwell Server Edition GPU:hin, jotka tarjoavat merkittäviä edistysaskeleita muistikapasiteetissa, kaistanleveydessä ja yleisessä päättelysuorituskyvyssä. Generatiivisen tekoälyn osalta G7e-instanssit tarkoittavat nopeampaa ensimmäisen tokenin aikaa (Time To First Token, TTFT), suurempaa suoritustehoa ja kykyä isännöidä paljon suurempia perusmalleja (FMs) yhdessä instanssissa tai jopa yhdellä GPU:lla. Tämä tarkoittaa responsiivisempia tekoälysovelluksia, vähentynyttä toiminnallista monimutkaisuutta ja merkittäviä kustannussäästöjä suurten kielimallien (LLM), multimodaalisen tekoälyn ja agenttityönkulkujen käyttöönotossa ja suorittamisessa. Niiden parannetut ominaisuudet tekevät niistä ihanteellisia interaktiivisiin sovelluksiin, jotka vaativat korkean suorituskyvyn ja kustannustehokasta päättelyä."
  • question: "Mikä NVIDIA GPU tehostaa uusia G7e-instansseja ja mitkä ovat sen tärkeimmät ominaisuudet?" answer: "Amazon SageMaker AI:n uusia G7e-instansseja tehostavat NVIDIA RTX PRO 6000 Blackwell Server Edition GPU:t. Jokainen näistä huippuluokan GPU:ista tarjoaa vaikuttavan 96 GB GDDR7-muistin, mikä on kaksinkertainen muistikapasiteetti per GPU verrattuna edellisen sukupolven G6e-instansseihin. Tärkeimpiä ominaisuuksia ovat myös 1 597 GB/s GPU-muistin kaistanleveys per GPU, FP4-tarkkuuden tuki viidennen sukupolven Tensor Corejen kautta ja NVIDIA GPUDirect RDMA EFAv4:n yli. Nämä ominaisuudet yhdessä edistävät G7e-instanssien ylivoimaista päättelysuorituskykyä, muistitiheyttä ja matalaviiveistä verkostoitumista, tehden niistä poikkeuksellisen kyvykkäitä vaativiin generatiivisen tekoälyn tehtäviin."
  • question: "Miten G7e-instanssit vertautuvat edellisiin sukupolviin (G6e, G5) suorituskyvyn ja muistin osalta?" answer: "G7e-instanssit osoittavat merkittävää sukupolvien välistä harppausta G6e:hen ja G5:een verrattuna. Ne tarjoavat jopa 2,3 kertaa paremman päättelysuorituskyvyn verrattuna G6e-instansseihin. Muistin osalta jokainen G7e GPU tarjoaa 96 GB GDDR7-muistia, mikä kaksinkertaistaa G6e:n ja nelinkertaistaa G5:n GPU-kohtaisen muistin. Huippuluokan G7e.48xlarge-instanssi tarjoaa yhteensä 768 GB GPU-muistia. Lisäksi verkon kaistanleveys skaalautuu jopa 1 600 Gbps:iin EFA:n kanssa suurimman G7e-koon yhteydessä, mikä on 4-kertainen harppaus G6e:hen verrattuna ja 16-kertainen G5:een verrattuna. Tämä valtava parannus muistissa, kaistanleveydessä ja verkostoitumisessa mahdollistaa sen, että G7e-instanssit voivat isännöidä malleja, jotka aiemmin vaativat usean solmun kokoonpanoja vanhemmilla instansseilla, mikä yksinkertaistaa käyttöönottoa ja vähentää viivettä."
  • question: "Millaiset generatiivisen tekoälyn työkuormat soveltuvat parhaiten G7e-instansseihin?" answer: "G7e-instanssit soveltuvat poikkeuksellisen hyvin laajaan valikoimaan moderneja generatiivisen tekoälyn työkuormia korkean muistitiheytensä, kaistanleveytensä ja edistyneen verkostoitumisensa ansiosta. Näitä ovat: chatbotit ja keskusteleva tekoäly, jotka varmistavat matalan ensimmäisen tokenin ajan (TTFT) ja korkean suoritustehon responsiivisiin interaktiivisiin kokemuksiin; agentti- ja työkalukutsutyönkulut, jotka hyötyvät 4-kertaisesti parantuneesta CPU-to-GPU-kaistanleveydestä nopeaan kontekstin syöttöön RAG-putkissa; tekstin generointi, yhteenveto ja pitkän kontekstin päättely, jotka mahdollistavat suurten KV-välimuistien käytön laajennetuille asiakirjakonteksteille 96 GB:n GPU-kohtaisella muistilla; kuvagenerointi ja visuaaliset mallit, jotka ratkaisevat muistin loppumisongelmia suuremmille multimodaalisille malleille, jotka olivat vaikeuksissa edellisillä instansseilla; ja fyysinen tekoäly ja tieteellinen laskenta, jotka hyödyntävät Blackwell-sukupolven laskentatehoa, FP4-tukea ja spatiaalisen laskennan ominaisuuksia digitaalisiin kaksosiin ja 3D-simulaatioon."
  • question: "Mikä on G7e-instanssien kustannustehokkuus verrattuna G6e:hen generatiivisen tekoälyn päättelyssä?" answer: "G7e-instanssit tarjoavat merkittävästi parantuneen kustannustehokkuuden generatiivisen tekoälyn päättelyssä verrattuna G6e-instansseihin. Qwen3-32B-mallin käyttöönottoa koskevat vertailut osoittivat, että G7e saavutti 0,79 dollaria miljoonaa tuotettua tokenia kohti tuotantotason samanaikaisella käytöllä (C=32). Tämä edustaa merkittävää 2,6-kertaista kustannussäästöä verrattuna G6e:n 2,06 dollariin miljoonaa tuotettua tokenia kohti vastaavassa työkuormassa. Tämä kustannussäästö johtuu pääasiassa G7e:n huomattavasti alhaisemmasta tuntihinnasta (esim. 4,20 $/h ml.g7e.2xlarge vs. 13,12 $/h ml.g6e.12xlarge) yhdistettynä sen kykyyn ylläpitää tasaista ja korkeaa suoritustehoa kuormituksen alaisena, mikä tekee siitä taloudellisemman valinnan laajamittaisiin käyttöönottoihin."
  • question: "Mitkä ovat muistikapasiteetit LLM-mallien käyttöönotolle yhden ja useamman GPU:n G7e-instansseissa?" answer: "G7e-instanssit tarjoavat huomattavat muistikapasiteetit suurten kielimallien (LLM) käyttöönotolle. Yhden solmun GPU, tarkemmin sanottuna G7e.2xlarge-instanssi, voi tehokkaasti isännöidä perusmalleja, joissa on jopa 35 miljardia parametria FP16-tarkkuudella. Suuremmille malleille skaalaus useiden GPU:iden yli yhdessä instanssissa lisää dramaattisesti kapasiteettia: 4-GPU:n solmu (G7e.24xlarge) voi ottaa käyttöön malleja jopa 150 miljardiin parametriin asti, kun taas 8-GPU:n solmu (G7e.48xlarge) voi käsitellä jopa 300 miljardin parametrin malleja. Tämä vaikuttava skaalautuvuus tarjoaa organisaatioille joustavuuden ottaa käyttöön laajan valikoiman LLM-malleja ilman usean instanssin hajautettujen asennusten monimutkaisuutta."
  • question: "Mitkä ovat edellytykset ratkaisujen käyttöönotolle G7e-instansseilla Amazon SageMaker AI:ssa?" answer: "Generatiivisten tekoälyratkaisujen käyttöönotto G7e-instansseilla Amazon SageMaker AI:ssa edellyttää useiden vaatimusten täyttämistä. Tarvitset aktiivisen AWS-tilin resurssien isännöintiin ja AWS Identity and Access Management (IAM) -roolin, joka on määritetty asianmukaisilla käyttöoikeuksilla Amazon SageMaker AI -palveluihin. Kehitystä ja käyttöönottoa varten suositellaan pääsyä Amazon SageMaker Studioon tai SageMaker-muistikirjainstanssiin, vaikka muutkin interaktiiviset kehitysympäristöt, kuten PyCharm tai Visual Studio Code, ovat käyttökelpoisia. Tärkeää on, että sinun on pyydettävä vähintään yhden ml.g7e.2xlarge -instanssin (tai suuremman G7e-instanssityypin) kiintiö Amazon SageMaker AI -päätepisteiden käyttöä varten AWS Service Quotas -konsolin kautta, sillä nämä ovat uusia ja erikoistuneita instanssityyppejä."

G7e-instanssit: Uusi aikakausi tekoälypäättelylle SageMakerissa

Generatiivisen tekoälyn maisema kehittyy ennennäkemätöntä vauhtia, mikä lisää jatkuvaa kysyntää tehokkaammalle, joustavammalle ja kustannustehokkaammalle infrastruktuurille. Tänään Code Velocity raportoi merkittävästä AWS:n edistyksestä: G7e-instanssien yleinen saatavuus Amazon SageMaker AI:ssa. Nämä uudet instanssit, jotka perustuvat NVIDIA RTX PRO 6000 Blackwell Server Edition GPU:hin, määrittelevät uudelleen generatiivisen tekoälyn päättelysuorituskyvyn vertailuarvot ja tarjoavat kehittäjille ja yrityksille ennennäkemättömän suorituskyvyn ja muistikapasiteetin.

Amazon SageMaker AI on täysin hallinnoitu palvelu, joka tarjoaa kehittäjille ja data-analyytikoille työkalut koneoppimismallien rakentamiseen, kouluttamiseen ja käyttöönottoon laajamittaisesti. G7e-instanssien käyttöönotto on käänteentekevä hetki generatiivisen tekoälyn työkuormille tällä alustalla. Nämä instanssit hyödyntävät huippuluokan NVIDIA RTX PRO 6000 Blackwell GPU:ita, joissa kussakin on vaikuttava 96 GB GDDR7-muistia. Tämä merkittävä muistin lisäys mahdollistaa huomattavasti suurempien perusmallien (FMs) käyttöönoton suoraan SageMaker AI:ssa, vastaten edistyneiden tekoälysovellusten kriittiseen tarpeeseen.

Organisaatiot voivat nyt ottaa käyttöön malleja, kuten GPT-OSS-120B, Nemotron-3-Super-120B-A12B (NVFP4-variantti) ja Qwen3.5-35B-A3B merkittävällä tehokkuudella. Yhden GPU:n G7e.2xlarge-instanssi voi isännöidä 35B-parametrimalleja, kun taas G7e.48xlarge, kahdeksalla GPU:lla, skaalautuu jopa 300B-parametrimalleihin. Tämä joustavuus merkitsee konkreettisia etuja: vähentynyttä toiminnallista monimutkaisuutta, pienempää viivettä ja huomattavia kustannussäästöjä päättelytyökuormissa.

G7e:n sukupolvien välisen suorituskykyharppauksen purkaminen

G7e-instanssit edustavat valtavaa harppausta edeltäjiinsä, G6e:hen ja G5:een, tarjoten jopa 2,3 kertaa nopeamman päättelysuorituskyvyn verrattuna G6e:hen. Tekniset tiedot korostavat tätä sukupolvien välistä edistysaskelta. Jokainen G7e GPU tarjoaa hämmästyttävän 1 597 GB/s kaistanleveyden, mikä kaksinkertaistaa G6e:n GPU-kohtaisen muistin ja nelinkertaistaa G5:n vastaavan. Lisäksi verkon ominaisuudet ovat parantuneet dramaattisesti, skaalautuen jopa 1 600 Gbps:iin EFA:n kanssa suurimman G7e-koon yhteydessä. Tämä 4-kertainen lisäys G6e:hen verrattuna ja 16-kertainen G5:een verrattuna avaa potentiaalin matalaviiveisille usean solmun päättely- ja hienosäätöskenaarioille, joita pidettiin aiemmin epäkäytännöllisinä.

Tässä vertailu, joka korostaa kehitystä sukupolvien välillä 8 GPU:n tasolla:

ErittelyG5 (g5.48xlarge)G6e (g6e.48xlarge)G7e (g7e.48xlarge)
GPU8x NVIDIA A10G8x NVIDIA L40S8x NVIDIA RTX PRO 6000 Blackwell
GPU-muisti per GPU24 GB GDDR648 GB GDDR696 GB GDDR7
Yhteensä GPU-muistia192 GB384 GB768 GB
GPU-muistin kaistanleveys600 GB/s per GPU864 GB/s per GPU1 597 GB/s per GPU
vCPU:t192192192
Järjestelmämuisti768 GiB1 536 GiB2 048 GiB
Verkon kaistanleveys100 Gbps400 Gbps1 600 Gbps (EFA)
Paikallinen NVMe-tallennustila7,6 TB7,6 TB15,2 TB
Päättely vs. G6ePerustaso~1xJopa 2,3x

Yhdellä G7e-instanssilla on valtavat 768 GB yhdistettyä GPU-muistia, minkä ansiosta mallit, jotka aiemmin vaativat monimutkaisia usean solmun kokoonpanoja vanhemmilla instansseilla, voidaan nyt ottaa käyttöön huomattavalla yksinkertaisuudella. Tämä vähentää merkittävästi solmujen välistä viivettä ja toiminnallista ylikuormitusta. Yhdistettynä FP4-tarkkuuden tukeen viidennen sukupolven Tensor Corejen kautta ja NVIDIA GPUDirect RDMA:han EFAv4:n yli, G7e-instanssit on yksiselitteisesti suunniteltu vaativiin LLM-, multimodaalisen tekoälyn ja kehittyneisiin agenttityönkulkuihin AWS:ssä.

Monipuoliset generatiivisen tekoälyn käyttötapaukset menestyvät G7e:llä

Muistitiheyden, kaistanleveyden ja edistyneiden verkkoyhteyksien vankka yhdistelmä tekee G7e-instansseista ihanteellisia laajaan valikoimaan nykyaikaisia generatiivisen tekoälyn työkuormia. Keskustelullisen tekoälyn parantamisesta monimutkaisten fyysisten simulaatioiden tehostamiseen G7e tarjoaa konkreettisia etuja:

  • Chatbotit ja keskusteleva tekoäly: G7e-instanssien matala ensimmäisen tokenin aika (Time To First Token, TTFT) ja korkea suoritusteho varmistavat responsiiviset ja saumattomat interaktiiviset kokemukset, jopa raskaiden samanaikaisten käyttäjäkuormien edessä. Tämä on ratkaisevan tärkeää käyttäjän sitoutumisen ja tyytyväisyyden ylläpitämiseksi reaaliaikaisissa tekoälyvuorovaikutuksissa.
  • Agentti- ja työkalukutsutyönkulut: Retrieval Augmented Generation (RAG) -putkissa ja agenttijärjestelmissä nopea kontekstin syöttö hakuvarastoista on ensiarvoisen tärkeää. G7e-instanssien 4-kertainen parannus CPU-to-GPU-kaistanleveydessä tekee niistä poikkeuksellisen tehokkaita näissä kriittisissä toiminnoissa, mahdollistaen älykkäämmät ja dynaamisemmat tekoälyagentit.
  • Tekstin generointi, yhteenveto ja pitkän kontekstin päättely: 96 GB:n GPU-kohtaisella muistilla G7e-instanssit käsittelevät taitavasti suuria Key-Value (KV) -välimuisteja. Tämä mahdollistaa laajennetut asiakirjakontekstit, vähentäen merkittävästi tekstin katkaisun tarvetta ja helpottaen rikkaampaa, vivahteikkaampaa päättelyä laajojen syötteiden yli.
  • Kuvagenerointi ja visuaaliset mallit: Kun edellisen sukupolven instansseilla ilmeni usein muistin loppumisvirheitä suurempien multimodaalisten mallien kanssa, G7e:n kaksinkertainen muistikapasiteetti ratkaisee nämä rajoitukset vaivattomasti, tasoittaen tietä kehittyneemmille ja tarkemmille kuva- ja visuaalisen tekoälyn sovelluksille.
  • Fyysinen tekoäly ja tieteellinen laskenta: Perinteisen generatiivisen tekoälyn lisäksi G7e:n Blackwell-sukupolven laskentateho, FP4-tuki ja spatiaalisen laskennan ominaisuudet (mukaan lukien DLSS 4.0 ja 4. sukupolven RT-ytimet) laajentavat sen käyttökelpoisuutta digitaalisiin kaksosiin, 3D-simulaatioon ja edistyneeseen fyysisen tekoälyn mallipäättelyyn, avaten uusia rajoja tieteellisessä tutkimuksessa ja teollisissa sovelluksissa.

Virtaviivainen käyttöönotto ja suorituskyvyn vertailu

Generatiivisten tekoälymallien käyttöönotto G7e-instansseilla Amazon SageMaker AI:n kautta on suunniteltu yksinkertaiseksi. Käyttäjät voivat käyttää mallimuistikirjaa täältä, joka virtaviivaistaa prosessia. Edellytykset sisältävät tyypillisesti AWS-tilin, IAM-roolin SageMaker-käyttöä varten ja joko Amazon SageMaker Studion tai SageMaker-muistikirjainstanssin kehitysympäristöä varten. Tärkeää on, että käyttäjien tulee pyytää asianmukainen kiintiö ml.g7e.2xlarge tai suuremmille instansseille SageMaker AI -päätepisteiden käyttöä varten Service Quotas -konsolin kautta.

Merkittävien suorituskykyparannusten demonstroimiseksi AWS vertaili Qwen3-32B:tä (BF16) sekä G6e- että G7e-instansseissa. Työkuorma sisälsi noin 1 000 syöttötokenia ja 560 tuotettua tokenia pyyntöä kohti, matkien yleisiä asiakirjojen yhteenvedon tehtäviä. Molemmat kokoonpanot käyttivät alkuperäistä vLLM-konttia etuliitteen välimuistitoiminnolla (prefix caching) varmistaen vertailukelpoisen vertailun.

Tulokset ovat vakuuttavat. Vaikka G6e:n perustaso (ml.g6e.12xlarge 4x L40S GPU:lla hintaan 13,12 $/h) osoitti vahvaa suoritustehoa per pyyntö, G7e (ml.g7e.2xlarge 1x RTX PRO 6000 Blackwell GPU:lla hintaan 4,20 $/h) kertoo dramaattisesti erilaisen kustannustarinan. Tuotantotason samanaikaisella käytöllä (C=32) G7e saavutti hämmästyttävän 0,79 dollaria miljoonaa tuotettua tokenia kohti. Tämä edustaa 2,6-kertaista kustannussäästöä verrattuna G6e:n 2,06 dollariin, johtuen G7e:n alhaisemmasta tuntihinnasta ja sen kyvystä ylläpitää tasaista suoritustehoa kuormituksen alaisena, mikä todistaa, että korkea suorituskyky ei aina tarkoita korkeita kustannuksia.

Kustannustehokkaan generatiivisen tekoälypäättelyn tulevaisuus

G7e-instanssien käyttöönotto Amazon SageMaker AI:ssa on enemmän kuin vain inkrementaalinen päivitys; se on AWS:n strateginen siirto demokratisoida korkean suorituskyvyn generatiivisen tekoälyn käyttöä. Yhdistämällä NVIDIA RTX PRO 6000 Blackwell GPU:iden raa'an tehon SageMakerin skaalautuvuus- ja hallintaominaisuuksiin, AWS antaa kaikenkokoisille organisaatioille mahdollisuuden ottaa käyttöön suurempia, monimutkaisempia tekoälymalleja ennennäkemättömällä tehokkuudella ja kustannustehokkuudella. Tämä kehitys varmistaa, että generatiivisen tekoälyn edistysaskeleet voidaan muuttaa käytännöllisiksi, tuotantovalmiiksi sovelluksiksi useilla eri toimialoilla, vahvistaen SageMaker AI:n asemaa johtavana tekoälyinnovaatioalustana.

Usein kysytyt kysymykset

What are G7e instances and how do they benefit generative AI inference?
G7e instances are the latest generation of GPU-accelerated computing instances available on Amazon SageMaker AI, specifically designed to accelerate generative AI inference workloads. They are powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs, offering significant advancements in memory capacity, bandwidth, and overall inference performance. For generative AI, G7e instances mean faster Time To First Token (TTFT), higher throughput, and the ability to host much larger foundation models (FMs) within a single instance, or even on a single GPU. This translates into more responsive AI applications, reduced operational complexity, and substantial cost savings for deploying and running large language models (LLMs), multimodal AI, and agentic workflows. Their enhanced capabilities make them ideal for interactive applications requiring high-performance, cost-effective inference.
Which NVIDIA GPU powers the new G7e instances, and what are its key features?
The new G7e instances on Amazon SageMaker AI are powered by the NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. Each of these cutting-edge GPUs provides an impressive 96 GB of GDDR7 memory, which is double the memory capacity per GPU compared to the previous G6e instances. Key features also include 1,597 GB/s of GPU memory bandwidth per GPU, support for FP4 precision through fifth-generation Tensor Cores, and NVIDIA GPUDirect RDMA over EFAv4. These features collectively contribute to the G7e instances' superior inference performance, memory density, and low-latency networking, making them exceptionally capable for demanding generative AI tasks.
How do G7e instances compare to previous generations (G6e, G5) in terms of performance and memory?
G7e instances demonstrate a significant generational leap over G6e and G5. They deliver up to 2.3x inference performance compared to G6e instances. In terms of memory, each G7e GPU offers 96 GB of GDDR7 memory, effectively doubling the per-GPU memory of G6e and quadrupling that of G5. A top-tier G7e.48xlarge instance provides an aggregate of 768 GB total GPU memory. Furthermore, networking bandwidth scales up to 1,600 Gbps with EFA on the largest G7e size, a 4x jump over G6e and 16x over G5. This vast improvement in memory, bandwidth, and networking allows G7e instances to host models that previously required multi-node setups on older instances, simplifying deployment and reducing latency.
What types of generative AI workloads are best suited for deployment on G7e instances?
G7e instances are exceptionally well-suited for a broad range of modern generative AI workloads due to their high memory density, bandwidth, and advanced networking. These include: Chatbots and Conversational AI, ensuring low Time To First Token (TTFT) and high throughput for responsive interactive experiences; Agentic and Tool-Calling Workflows, benefiting from 4x improved CPU-to-GPU bandwidth for fast context injection in RAG pipelines; Text Generation, Summarization, and Long-Context Inference, accommodating large KV caches for extended document contexts with 96 GB per-GPU memory; Image Generation and Vision Models, overcoming out-of-memory errors for larger multimodal models that struggled on previous instances; and Physical AI and Scientific Computing, leveraging Blackwell-generation compute, FP4 support, and spatial computing capabilities for digital twins and 3D simulation.
What is the cost efficiency of G7e instances compared to G6e for generative AI inference?
G7e instances offer significantly improved cost efficiency for generative AI inference compared to G6e instances. Benchmarks deploying Qwen3-32B showed that G7e achieved $0.79 per million output tokens at production concurrency (C=32). This represents a remarkable 2.6x cost reduction compared to G6e’s $2.06 per million output tokens for a similar workload. This cost saving is primarily driven by G7e’s substantially lower hourly rate (e.g., $4.20/hr for ml.g7e.2xlarge vs. $13.12/hr for ml.g6e.12xlarge) combined with its ability to maintain consistent and high throughput under load, making it a more economical choice for large-scale deployments.
What are the memory capacities for deploying LLMs on single and multi-GPU G7e instances?
G7e instances offer substantial memory capacities for deploying large language models (LLMs). A single-node GPU, specifically a G7e.2xlarge instance, can effectively host foundation models with up to 35 billion parameters in FP16 precision. For larger models, scaling across multiple GPUs within a single instance dramatically increases capacity: a 4-GPU node (G7e.24xlarge) can deploy models up to 150 billion parameters, while an 8-GPU node (G7e.48xlarge) can handle models as large as 300 billion parameters. This impressive scalability provides organizations with the flexibility to deploy a wide range of LLMs without the complexities of multi-instance distributed setups.
What are the prerequisites for deploying solutions using G7e instances on Amazon SageMaker AI?
To deploy generative AI solutions using G7e instances on Amazon SageMaker AI, several prerequisites must be met. You need an active AWS account to host your resources and an AWS Identity and Access Management (IAM) role configured with appropriate permissions to access Amazon SageMaker AI services. For development and deployment, access to Amazon SageMaker Studio or a SageMaker notebook instance is recommended, though other interactive development environments like PyCharm or Visual Studio Code are also viable. Crucially, you must request a quota for at least one `ml.g7e.2xlarge` instance (or a larger G7e instance type) for Amazon SageMaker AI endpoint usage through the AWS Service Quotas console, as these are new and specialized instance types.

Pysy ajan tasalla

Saa uusimmat tekoälyuutiset sähköpostiisi.

Jaa