Code Velocity
Tekoälymallit

Gemma 4: Tekoälyn skaalaaminen datakeskuksista reunalaitteisiin NVIDIAn avulla

·5 min lukuaika·NVIDIA·Alkuperäinen lähde
Jaa
NVIDIA Gemma 4 -mallit mahdollistavat tekoälyn reunalaitteissa ja datakeskuksissa

title: "Gemma 4: Tekoälyn skaalaaminen datakeskuksista reunalaitteisiin NVIDIAn avulla" slug: "bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4" date: "2026-04-05" lang: "fi" source: "https://developer.nvidia.com/blog/bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4/" category: "Tekoälymallit" keywords:

  • Gemma 4
  • NVIDIA
  • Reunalaite-tekoäly
  • Laitteessa oleva tekoäly
  • Monimodaalinen tekoäly
  • Suuret kielimallit
  • Tekoälyn käyttöönotto
  • Blackwell
  • Jetson
  • RTX
  • vLLM
  • NeMo meta_description: "Tutustu Gemma 4 -malleihin, NVIDIAn monimodaalisiin ja monikielisiin tekoälymalleihin, jotka on suunniteltu saumattomaan käyttöönottoon Blackwell-datakeskuksista Jetson-reunalaitteisiin, mahdollistaen turvalliset, matalan viiveen sovellukset." image: "/images/articles/bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4.png" image_alt: "NVIDIA Gemma 4 -mallit mahdollistavat tekoälyn reunalaitteissa ja datakeskuksissa" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Mikä on Gemma 4 ja mitkä ovat sen keskeiset edistysaskeleet tekoälyn käyttöönotossa?" answer: "Gemma 4 edustaa Googlen uusinta sukupolvea monimodaalisista ja monikielisistä tekoälymalleista, jotka on suunniteltu laajaan käyttöönottoon koko NVIDIAn laitteistoarsenaalissa, tehokkaista Blackwell-datakeskuksista kompakteihin Jetson-reunalaitteisiin. Sen keskeisiä edistysaskeleita ovat merkittävästi parannettu tehokkuus ja tarkkuus, mikä tekee siitä sopivan monipuolisiin tehtäviin, kuten monimutkaiseen ongelmanratkaisuun, koodin generointiin ja agenttityökalujen käyttöön. Nämä mallit tarjoavat rikkaat monimodaaliset ominaisuudet, tukien lomitettua tekstiä ja kuvia, ja ne on esikoulutettu yli 140 kielellä. Tämä monipuolisuus ja skaalautuvuus vastaavat kasvavaan kysyntään paikallisista, turvallisista, kustannustehokkaista ja matalan viiveen tekoälysovelluksista, vieden älykkyyden lähemmäs tiedon ja toiminnan lähdettä."
  • question: "Miten Gemma 4 helpottaa laitteessa ja reunalaitteissa tapahtuvaa tekoälyn käyttöönottoa, ja mitkä NVIDIAn alustat sitä tukevat?" answer: "Gemma 4 on erityisesti optimoitu mahdollistamaan vankat laitteessa ja reunalaitteissa tapahtuvat tekoälyn käyttöönotot, mikä on ratkaisevan tärkeää sovelluksille, jotka vaativat matalaa viivettä, parannettua yksityisyyttä ja pienempiä käyttökustannuksia. NVIDIAn kattava valikoima asiakas- ja reunajärjestelmiä – mukaan lukien RTX GPU:t, DGX Spark ja Jetson-laitteet – tarjoaa tarvittavan joustavuuden ja suorituskyvyn. Esimerkiksi Jetson-alustat tukevat Gemma 4 E2B- ja E4B-variantteja monimodaaliseen päättelyyn virrankulutukseltaan rajoitetuissa sulautetuissa järjestelmissä, kun taas RTX GPU:t tarjoavat optimoidun suorituskyvyn paikalliseen päättelyyn pöytäkoneissa. Yhteistyö vLLM:n, Ollaman, llama.cpp:n ja Unslothin kanssa varmistaa tehokkaat paikalliset käyttöönottokokemukset näillä monipuolisilla alustoilla, antaen kehittäjille mahdollisuuden integroida edistynyt tekoäly suoraan sovelluksiinsa ja laitteisiinsa."
  • question: "Mikä rooli NVIDIA DGX Sparkilla ja NIM:illä on Gemma 4 -mallien kehittämisessä ja käyttöönotossa yrityksille?" answer: "NVIDIA DGX Spark tarjoaa tehokkaan alustan tekoälyn kehittäjille ja harrastajille Gemma 4:llä toimivien turvallisten, agenttitekoälyn työnkulkujen prototyyppien luomiseen ja rakentamiseen. GB10 Grace Blackwell Superchips -piireillä ja 128 GB:n yhtenäisellä muistilla varustettu DGX Spark mahdollistaa jopa suurimpien Gemma 4 -mallien tehokkaan ajamisen BF16-painoilla, säilyttäen yksityisen ja turvallisen laitteessa tapahtuvan suorittamisen. DGX Sparkin vLLM-päättelymoottori optimoi edelleen suurten kielimallien (LLM) palvelua korkean suorituskyvyn saavuttamiseksi. Tuotantokäyttöönottoa varten NVIDIA NIM tarjoaa valmiiksi pakattuja ja optimoituja mikropalveluita, tarjoten turvallisen, itse isännöidyn ratkaisun yrityksille, joilla on NVIDIA Enterprise License. Isännöity NIM-rajapinta on myös saatavilla NVIDIA API -luettelosta alkuperäistä prototyyppien luomista varten."
  • question: "Miten kehittäjät voivat hienosäätää Gemma 4 -malleja tiettyjä verkkotunnusdataa varten, ja mitä työkaluja on saatavilla?" answer: "Kehittäjät voivat mukauttaa Gemma 4 -malleja ainutlaatuisella verkkotunnusdatallaan käyttämällä NVIDIA NeMo -kehystä, erityisesti NeMo Automodel -kirjastoa. Tämä tehokas työkalu yhdistää natiivin PyTorchin helppokäyttöisyyden optimoituun suorituskykyyn, mahdollistaen tehokkaan hienosäädön. Tekniikoita kuten valvottua hienosäätöä (SFT) ja muistitehokasta LoRAa (Low-Rank Adaptation) voidaan soveltaa suoraan Hugging Facesta saatavilla oleviin Gemma 4 -mallien tarkistuspisteisiin, eliminoiden hankalien muunnosten tarpeen. Tämä mahdollistaa 'päivä nolla' -hienosäädön, varmistaen, että mallit ovat erittäin relevantteja ja tarkkoja erikoistuneisiin sovelluksiin ja tietoaineistoihin, parantaen niiden hyödyllisyyttä eri toimialoilla."
  • question: "Mitkä ovat Gemma 4 -mallien kaupalliset lisensointiehdot, ja miten ne ovat saatavilla kehittäjille?" answer: "Gemma 4 -mallit ovat erittäin helposti saatavilla kehittäjille ja yrityksille kaupallisesti ystävällisen Apache 2.0 -lisenssin kautta. Tämä avoimen lähdekoodin lisenssi mahdollistaa mallien laajan käytön, muokkaamisen ja jakelun, helpottaen niiden integrointia erilaisiin kaupallisiin tuotteisiin ja palveluihin ilman rajoittavia lisenssimaksuja. Lisäksi NVIDIA varmistaa laajan saatavuuden koko tekoälyalustallaan, Blackwell-datakeskuksista Jetson-reunalaitteisiin. Kehittäjät voivat aloittaa välittömästi käyttämällä mallien tarkistuspisteitä Hugging Facessa, hyödyntämällä NVIDIAn laajaa dokumentaatiota ja opetusohjelmia sekä hyödyntämällä työkaluja kuten vLLM, Ollama ja NeMo käyttöönottoa ja räätälöintiä varten, tehden edistyneestä tekoälystä helposti saatavilla innovaatioita varten."

Tekoälyn kenttä kehittyy nopeasti, ja kysyntä kehittyneiden tekoälymallien käyttöönotolle kasvaa paitsi pilvidatakeskuksissa myös verkkojen reunalla ja suoraan käyttäjien laitteissa. Tätä muutosta ajavat tarve pienemmälle viiveelle, paremmalle yksityisyydelle, pienemmille käyttökustannuksille ja kyvylle toimia ympäristöissä, joissa on rajoitettu yhteys. Vastatakseen näihin kriittisiin vaatimuksiin NVIDIA ja Google ovat tehneet yhteistyötä esitelläkseen uusimmat Gemma 4 -monimodaaliset ja monikieliset mallit, jotka on suunniteltu skaalautumaan saumattomasti tehokkaimmista NVIDIA Blackwell -datakeskuksista kompakteihin Jetson-reunalaitteisiin.

Nämä mallit edustavat merkittävää harppausta tehokkuudessa ja tarkkuudessa, tehden niistä monipuolisia työkaluja moniin yleisiin tekoälytehtäviin. Gemma 4 -perhe on valmis mullistamaan sen, miten tekoäly integroidaan jokapäiväisiin sovelluksiin, tarjoten ominaisuuksia, jotka työntävät paikallisen tekoälyn käyttöönoton rajoja.

Gemma 4: Monimodaalisen ja monikielisen tekoälyn edistäminen

Gemmaverse on laajentunut neljän uuden Gemma 4 -mallin myötä, joista jokainen on suunniteltu tiettyjä käyttöönottoympäristöjä silmällä pitäen ja tarjoaa samalla vankan valikoiman ominaisuuksia. Näissä malleissa ei ole kyse vain koosta; ne edustavat älykästä suunnittelua, tarjoten vahvaa suorituskykyä monipuolisissa tekoälyhaasteissa.

Gemma 4 -mallien ydintoiminnot sisältävät:

  • Päättely: Poikkeuksellinen suorituskyky monimutkaisissa ongelmanratkaisutehtävissä, mikä mahdollistaa kehittyneemmän päätöksenteon.
  • Koodaus: Edistyneet koodinluonti- ja virheenkorjausominaisuudet, jotka virtaviivaistavat kehittäjien työnkulkuja.
  • Agentit: Natiivi tuki strukturoitujen työkalujen käytölle, mikä helpottaa tehokkaiden agenttitekoälyjärjestelmien luomista.
  • Näkö-, ääni- ja videokyky: Rikkaat monimodaaliset vuorovaikutukset käyttötapauksiin, kuten objektintunnistukseen, automaattiseen puheentunnistukseen (ASR), dokumentti- ja videoälykkyyteen.
  • Lomitettu monimodaalinen syöte: Kyky sekoittaa vapaasti tekstiä ja kuvia yhdessä kehotteessa, tarjoten luonnollisemman ja kattavamman vuorovaikutuksen.
  • Monikielinen tuki: Valmis tuki yli 35 kielelle, esikoulutus yli 140 kielellä, laajentaen globaalia saavutettavuutta.

Gemma 4 -perheeseen kuuluu ensimmäinen Mixture-of-Experts (MoE) -malli Gemma-sarjassa, joka on optimoitu tehokkuuteen. Merkittävästi kaikki neljä mallia mahtuvat yhdelle NVIDIA H100 GPU:lle, mikä osoittaa niiden optimoidun suunnittelun. 31B- ja 26B A4B -variantit ovat korkean suorituskyvyn päättelymalleja, jotka soveltuvat sekä paikallisiin että datakeskusympäristöihin, kun taas E4B- ja E2B-mallit on räätälöity erityisesti laitteessa ja mobiilisovelluksiin, rakentaen Gemma 3n:n perinnölle.

Mallin nimiArkkitehtuurin tyyppiParametreja yhteensäAktiiviset tai tehokkaat parametritSyötteen kontekstin pituus (tokenit)Liukuva ikkuna (tokenit)Modaalisuudet
Gemma-4-31BDense Transformer31B256K1024Text
Gemma-4-26B-A4BMoE – 128 Experts26B3.8B256KText
Gemma-4-E4BDense Transformer7.9B with embeddings4.5B effective128K512Text, Audio, Vision, Video
Gemma-4-E2BDense Transformer5.1B with embeddings2.3B effective128K512Text, Audio, Vision, Video

Taulukko 1. Yleiskatsaus Gemma 4 -malliperheestä, joka tiivistää arkkitehtuurityypit, parametrikoot, tehokkaat parametrit, tuetut kontekstin pituudet ja saatavilla olevat modaalisuudet auttaakseen kehittäjiä valitsemaan oikean mallin datakeskuksen, reunan ja laitteessa tapahtuvia käyttöönottoja varten.

Nämä mallit ovat saatavilla Hugging Facessa BF16-tarkistuspisteineen. Kehittäjille, jotka hyödyntävät NVIDIA Blackwell GPU:ita, NVFP4-kvantisoitu tarkistuspiste Gemma-4-31B:lle on saatavilla NVIDIA Model Optimizerin kautta vLLM:n kanssa käytettäväksi. NVFP4-tarkkuus säilyttää lähes identtisen tarkkuuden 8-bittiseen tarkkuuteen verrattuna samalla, kun se parantaa merkittävästi suorituskykyä wattia kohden ja alentaa tokenin hintaa, mikä on kriittistä suurille käyttöönotoille.

Tekoälyä reunaan: Laitteessa tapahtuva käyttöönotto NVIDIAn laitteistolla

Kun tekoälyn työnkulut ja agentit integroituvat yhä tiiviimmin päivittäiseen toimintaan, kyky ajaa näitä malleja perinteisten datakeskusympäristöjen ulkopuolella on ensisijaisen tärkeää. NVIDIA tarjoaa kattavan ekosysteemin asiakas- ja reunajärjestelmiä, tehokkaista gpu:ista kuten RTX GPU:ista erikoistuneisiin Jetson-laitteisiin ja DGX Sparkiin, tarjoten kehittäjille joustavuutta, jota tarvitaan kustannusten, viiveen ja tietoturvan optimoimiseksi.

NVIDIA on tehnyt yhteistyötä johtavien päättelykehysten, kuten vLLM:n, Ollaman ja llama.cpp:n, kanssa varmistaakseen optimaalisen paikallisen käyttöönoton Gemma 4 -malleille. Lisäksi Unsloth tarjoaa ensimmäisen päivän tuen optimoiduilla ja kvantisoiduilla malleilla, mahdollistaen tehokkaan paikallisen käyttöönoton Unsloth Studion kautta. Tämä vankka tukijärjestelmä antaa kehittäjille mahdollisuuden ottaa käyttöön kehittynyttä tekoälyä suoraan siellä, missä sitä eniten tarvitaan.

DGX SparkJetsonRTX / RTX PRO
KäyttötapausTekoälytutkimus ja prototyyppien rakentaminenReunalaite-tekoäly ja robotiikkaTyöpöytäsovellukset ja Windows-kehitys
Keskeiset kohokohdatEsiasennettu NVIDIA AI -ohjelmistopino ja 128 Gt yhtenäistä muistia mahdollistavat paikallisen prototyyppien luomisen, hienosäädön ja täysin paikalliset OpenClaw-työnkulutLähes nolla viive arkkitehtuuristen ominaisuuksien, kuten ehdollisten parametrien lataamisen ja kerroksittain upotusten, ansiosta, jotka voidaan välimuistiin tallentaa nopeampaa ja pienempää muistin käyttöä varten (lisätietoja)Optimoidun suorituskyvyn paikalliseen päättelyyn harrastajille, sisällöntuottajille ja ammattilaisille
AloitusopasDGX Spark Playbooks vLLM:n, Ollaman, Unslothin ja llama.cpp:n käyttöönotto-oppaille
NeMo Automodel Sparkissa tapahtuvan hienosäädön oppaalle
Jetson AI Lab opetusohjelmille ja mukautetuille Gemma-kontteilleRTX AI Garage Ollama- ja llama.cpp-oppaille. RTX Pro -omistajat voivat käyttää myös vLLM:ää.

Taulukko 2. Vertailu paikallisista käyttöönotto-optioista NVIDIAn alustoilla, korostaen ensisijaisia käyttötapauksia, keskeisiä ominaisuuksia ja suositeltuja aloitusresursseja DGX Spark-, Jetson- ja RTX / RTX PRO -järjestelmille, jotka käyttävät Gemma 4 -malleja.

Turvallisten agenttitekoälyn työnkulkujen ja yritystasoisen käyttöönoton rakentaminen

Tekoälyn kehittäjille ja harrastajille NVIDIA DGX Spark, jossa on GB10 Grace Blackwell Superchip ja 128 Gt yhtenäistä muistia, tarjoaa vertaansa vailla olevia resursseja. Tämä vankka alusta on ihanteellinen Gemma 4 31B -mallin ajamiseen BF16-painoilla, mikä mahdollistaa tehokkaan prototyyppien luomisen ja monimutkaisten agenttitekoälyn työnkulkujen rakentamisen varmistaen samalla yksityisen ja turvallisen suorituksen laitteessa. DGX Linux -käyttöjärjestelmä ja täysi NVIDIA-ohjelmistopino tarjoavat saumattoman kehitysympäristön.

Korkean suorituskyvyn suurten kielimallien (LLM) palvelemiseen suunniteltu vLLM-päättelymoottori maksimoi tehokkuuden ja minimoi muistin käytön DGX Sparkissa. Tämä yhdistelmä tarjoaa korkean suorituskyvyn alustan suurimpien Gemma 4 -mallien käyttöönotolle. Kehittäjät voivat hyödyntää vLLM for Inference DGX Spark -opaskirjaa tai aloittaa Ollaman tai llama.cpp:n kanssa. Lisäksi NeMo Automodel mahdollistaa näiden mallien hienosäädön suoraan DGX Sparkissa.

Yrityskäyttäjille NVIDIA NIM tarjoaa polun tuotantovalmiiseen käyttöönottoon. Kehittäjät voivat prototyyppittää Gemma 4 31B:tä käyttämällä NVIDIAn isännöimää NIM API:a NVIDIA API -luettelosta. Täysimittaiseen tuotantoon on saatavilla valmiiksi pakattuja ja optimoituja NIM-mikropalveluita turvallista, itse isännöityä käyttöönottoa varten, tuettuna NVIDIA Enterprise License -lisenssillä. Tämä varmistaa, että yritykset voivat ottaa käyttöön tehokkaita tekoälyratkaisuja luottavaisin mielin, täyttäen tiukat tietoturva- ja toiminnalliset vaatimukset.

Fyysisten tekoälyagenttien voimaannuttaminen NVIDIA Jetsonilla

Modernien fyysisten tekoälyagenttien kyvyt kehittyvät nopeasti, suurelta osin Gemma 4 -mallien ansiosta, jotka integroivat kehittyneen äänen, monimodaalisen havainnoinnin ja syvällisen päättelyn. Nämä edistyneet mallit antavat robotiikkajärjestelmille mahdollisuuden siirtyä yksinkertaisesta tehtävien suorittamisesta eteenpäin, antaen niille kyvyn ymmärtää puhetta, tulkita visuaalista kontekstia ja päätellä älykkäästi ennen toimimista.

NVIDIA Jetson -alustoilla kehittäjät voivat suorittaa Gemma 4 -päättelyä reunalla käyttämällä llama.cpp:tä ja vLLM:ää. Esimerkiksi Jetson Orin Nano tukee Gemma 4 E2B- ja E4B-variantteja, helpottaen monimodaalista päättelyä pienissä, sulautetuissa ja virrankulutukseltaan rajoitetuissa järjestelmissä. Tämä skaalautuvuus ulottuu koko Jetson-alustalle, aina mahtavaan Jetson Thoriin asti, mahdollistaen johdonmukaisen mallin käyttöönoton laitteiston jalanjäljestä riippumatta. Tämä on ratkaisevan tärkeää robotiikan, älykkäiden koneiden ja teollisuusautomaation sovelluksissa, joissa matalan viiveen suorituskyky ja laitteessa oleva älykkyys ovat ensisijaisen tärkeitä. Kehittäjät, jotka ovat kiinnostuneita tutkimaan näitä ominaisuuksia, voivat löytää opetusohjelmia ja mukautettuja Gemma-kontteja Jetson AI Labista.

Mukauttaminen ja kaupallinen saatavuus NVIDIA NeMon avulla

Varmistaakseen, että Gemma 4 -mallit voidaan räätälöidä tiettyihin sovelluksiin ja omaisuudellisiin tietoaineistoihin, NVIDIA tarjoaa vankat hienosäätöominaisuudet NVIDIA NeMo -kehyksen kautta. Erityisesti NeMo Automodel -kirjasto yhdistää natiivin PyTorchin helppokäyttöisyyden optimoituun suorituskykyyn, tehden mukautusprosessista helppopääsyisen ja tehokkaan.

Kehittäjät voivat hyödyntää tekniikoita, kuten valvottua hienosäätöä (SFT) ja muistitehokasta LoRAa (Low-Rank Adaptation) suorittaakseen 'päivä nolla' -hienosäädön. Tämä prosessi alkaa suoraan Hugging Facesta saatavilla olevista Gemma 4 -mallien tarkistuspisteistä, eliminoiden hankalien muunnosten tarpeen. Tämä joustavuus antaa yrityksille ja tutkijoille mahdollisuuden täydentää Gemma 4 -malleja verkkotunnuskohtaisella tiedolla, varmistaen korkean tarkkuuden ja relevanssin erikoistehtäviin.

Gemma 4 -mallit ovat helposti saatavilla koko NVIDIA AI -alustalla ja niitä tarjotaan kaupallisesti ystävällisellä Apache 2.0 -lisenssillä. Tämä avoimen lähdekoodin lisenssi helpottaa laajaa käyttöönottoa ja integrointia kaupallisiin tuotteisiin ja palveluihin, antaen kehittäjille maailmanlaajuisesti mahdollisuuden innovoida huippuluokan tekoälyn avulla. Blackwellin suorituskyvystä Jetson-alustojen yleisyyteen, Gemma 4 on valmis tuomaan edistyneen tekoälyn lähemmäs jokaista kehittäjää ja jokaista laitetta.

Usein kysytyt kysymykset

What is Gemma 4 and what are its key advancements for AI deployment?
Gemma 4 represents the latest generation of multimodal and multilingual AI models from Google, designed for broad deployment across the entire NVIDIA hardware spectrum, from powerful Blackwell data centers to compact Jetson edge devices. Its key advancements include significantly improved efficiency and accuracy, making it suitable for diverse tasks like complex problem-solving, code generation, and agent tool use. These models boast rich multimodal capabilities, supporting interleaved text and images, and are pre-trained on over 140 languages. This versatility and scalability address the growing demand for local, secure, cost-efficient, and low-latency AI applications, pushing intelligence closer to the source of data and action.
How does Gemma 4 facilitate on-device and edge AI deployments, and which NVIDIA platforms support it?
Gemma 4 is specifically optimized to enable robust on-device and edge AI deployments, crucial for applications requiring low latency, enhanced privacy, and reduced operational costs. NVIDIA's comprehensive suite of client and edge systems—including RTX GPUs, DGX Spark, and Jetson devices—provides the necessary flexibility and performance. For instance, Jetson platforms support Gemma 4 E2B and E4B variants for multimodal inference on power-constrained embedded systems, while RTX GPUs offer optimized performance for local inference on desktops. Collaborations with vLLM, Ollama, llama.cpp, and Unsloth ensure efficient local deployment experiences across these diverse platforms, empowering developers to integrate advanced AI directly into their applications and devices.
What role do NVIDIA DGX Spark and NIM play in developing and deploying Gemma 4 models for enterprises?
NVIDIA DGX Spark provides a powerful platform for AI developers and enthusiasts to prototype and build secure, agentic AI workflows with Gemma 4. Featuring GB10 Grace Blackwell Superchips and 128 GB of unified memory, DGX Spark enables efficient running of even the largest Gemma 4 models with BF16 weights, maintaining private and secure on-device execution. The vLLM inference engine on DGX Spark further optimizes LLM serving for high throughput. For production deployment, NVIDIA NIM offers prepackaged and optimized microservices, providing a secure, self-hosted solution for enterprises with an NVIDIA Enterprise License. A hosted NIM API is also available in the NVIDIA API catalog for initial prototyping.
How can developers fine-tune Gemma 4 models for specific domain data, and what tools are available?
Developers can customize Gemma 4 models with their unique domain data using the NVIDIA NeMo framework, particularly the NeMo Automodel library. This powerful tool combines the ease of use of native PyTorch with optimized performance, allowing for efficient fine-tuning. Techniques such as supervised fine-tuning (SFT) and memory-efficient LoRA (Low-Rank Adaptation) can be applied directly to Gemma 4 model checkpoints available on Hugging Face, eliminating the need for cumbersome conversions. This enables day-zero fine-tuning, ensuring models are highly relevant and accurate for specialized applications and datasets, enhancing their utility across various industry verticals.
What are the commercial licensing terms for Gemma 4 models, and how accessible are they to developers?
Gemma 4 models are made highly accessible to developers and enterprises through the commercial-friendly Apache 2.0 license. This open-source license allows for broad use, modification, and distribution of the models, facilitating their integration into various commercial products and services without restrictive licensing fees. Furthermore, NVIDIA ensures wide availability across its entire AI platform, from Blackwell data centers to Jetson edge devices. Developers can get started immediately by accessing model checkpoints on Hugging Face, utilizing NVIDIA's extensive documentation and tutorials, and leveraging tools like vLLM, Ollama, and NeMo for deployment and customization, making advanced AI readily available for innovation.

Pysy ajan tasalla

Saa uusimmat tekoälyuutiset sähköpostiisi.

Jaa