Code Velocity
நிறுவன செயற்கை நுண்ணறிவு

AWS, NVIDIA செயற்கை நுண்ணறிவு ஒத்துழைப்பை ஆழமாக்குகின்றன: பைலட் முதல் உற்பத்தி வரை விரைவுபடுத்துதல்

·5 நிமிட வாசிப்பு·AWS, NVIDIA·அசல் மூலம்
பகிர்
AWS மற்றும் NVIDIA லோகோக்கள் முக்கியமாக காட்டப்பட்டு, AI முடுக்கம் மற்றும் புத்தாக்கத்திற்கான அவற்றின் விரிவாக்கப்பட்ட மூலோபாய ஒத்துழைப்பை குறிக்கின்றன.

AWS, NVIDIA செயற்கை நுண்ணறிவு ஒத்துழைப்பை ஆழமாக்குகின்றன: பைலட் முதல் உற்பத்தி வரை விரைவுபடுத்துதல்

செயற்கை நுண்ணறிவு தொழில்களை முன் எப்போதும் இல்லாத வேகத்தில் மாற்றியமைக்கிறது, ஆனால் அதன் உண்மையான மதிப்பு வெறும் சோதனையில் மட்டுமல்ல, உற்பத்திச் சூழல்களில் AI தீர்வுகளை வெற்றிகரமாக வரிசைப்படுத்தி இயக்குவதில்தான் உள்ளது. இதற்கு வலிமையான, அளவிடக்கூடிய, பாதுகாப்பான மற்றும் இணக்கமான அமைப்புகள் தேவை, அவை உறுதியான வணிக விளைவுகளை வழங்குகின்றன. இந்த முக்கியமான தேவையைப் பூர்த்தி செய்ய, AWS மற்றும் NVIDIA GTC 2026 இல் தங்கள் மூலோபாய ஒத்துழைப்பை கணிசமாக விரிவுபடுத்துவதாக அறிவித்தன, மேலும் AI கம்ப்யூட்டின் அதிகரித்து வரும் தேவையை பூர்த்தி செய்ய மற்றும் AI தீர்வுகளை நிஜ உலக உற்பத்திக்கு உந்தும் வகையில் புதிய தொழில்நுட்ப ஒருங்கிணைப்புகளை வெளியிட்டன.

ஆழமான இந்த கூட்டாண்மை, உள்கட்டமைப்பு முதல் மாதிரி வரிசைப்படுத்தல் வரை AI வாழ்க்கைச் சுழற்சியின் ஒவ்வொரு அம்சத்தையும் விரைவுபடுத்துவதில் கவனம் செலுத்துகிறது. இந்த ஒருங்கிணைப்புகள் விரைவுபடுத்தப்பட்ட கம்ப்யூட்டிங், மேம்பட்ட இன்டர்கனெக்ட் தொழில்நுட்பங்கள் மற்றும் எளிமைப்படுத்தப்பட்ட மாதிரி நுண்-சீரமைப்பு மற்றும் ஊகம் உள்ளிட்ட முக்கியமான பகுதிகளை உள்ளடக்கியது. முக்கிய அறிவிப்புகள்:

  • 2026 முதல் AWS பிராந்தியங்கள் முழுவதும் 1 மில்லியனுக்கும் அதிகமான NVIDIA GPUs ஐ வரிசைப்படுத்துதல்.
  • NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs க்கான Amazon EC2 ஆதரவு, இதை வழங்கும் முதல் பெரிய கிளவுட் வழங்குநராக AWS ஆகிறது.
  • AWS Elastic Fabric Adapter (EFA) இல் NVIDIA NIXL ஐப் பயன்படுத்தி பிரிக்கப்பட்ட பெரிய மொழி மாதிரி (LLM) ஊகத்திற்கான இன்டர்கனெக்ட் முடுக்கம்.
  • NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs மூலம் இயக்கப்படும் Amazon EC2 G7e நிகழ்வுகளுடன் Amazon Elastic Kubernetes Service (Amazon EKS) இல் Amazon EMR ஐப் பயன்படுத்தி Apache Spark பணிச்சுமைகளுக்கு 3 மடங்கு வேகமான செயல்திறன்.
  • Reinforcement Fine-Tuning மற்றும் Nemotron 3 Super மாதிரி உட்பட Amazon Bedrock இல் விரிவாக்கப்பட்ட NVIDIA Nemotron மாதிரி ஆதரவு.

மேம்படுத்தப்பட்ட NVIDIA GPU சக்தியுடன் AI உள்கட்டமைப்பை அளவிடுதல்

நவீன AI இன் அடித்தளம் சக்திவாய்ந்த கணினி உள்கட்டமைப்பில் உள்ளது. 2026 முதல், AWS அதன் உலகளாவிய கிளவுட் பிராந்தியங்களில் 1 மில்லியனுக்கும் அதிகமான NVIDIA GPUs ஐச் சேர்ப்பதன் மூலம் AI முன்னேற்றத்திற்கு ஒரு பிரம்மாண்டமான உறுதிப்பாட்டை மேற்கொள்கிறது. இதில் அடுத்த தலைமுறை Blackwell மற்றும் Rubin GPU கட்டமைப்புகள் அடங்கும், வாடிக்கையாளர்கள் கிடைக்கும் மிக மேம்பட்ட வன்பொருளை அணுகுவதை இது உறுதி செய்கிறது. AWS ஏற்கனவே தொழில்துறையின் பரந்த NVIDIA GPU அடிப்படையிலான நிகழ்வுகளின் தொகுப்பைக் கொண்டுள்ளது, இது பல்வேறு AI/ML பணிச்சுமைகளை பூர்த்தி செய்கிறது, மேலும் இந்த விரிவாக்கம் அதன் தலைமைப் பதவியை மேலும் உறுதிப்படுத்துகிறது.

15 ஆண்டுகளுக்கும் மேலாக நீடிக்கும் இந்த நீண்டகால கூட்டாண்மை, Spectrum நெட்வொர்க்கிங் போன்ற முக்கியமான உள்கட்டமைப்பு பகுதிகளுக்கும் நீட்டிக்கப்பட்டுள்ளது. நிறுவனங்கள், ஸ்டார்ட்அப்கள் மற்றும் ஆராய்ச்சியாளர்களுக்கு மேம்பட்ட முகவர் AI அமைப்புகளை உருவாக்க மற்றும் அளவிட தேவையான வலிமையான உள்கட்டமைப்பை வழங்குவதே இதன் நோக்கம் - சிக்கலான பணிப்பாய்வுகள் முழுவதும் தன்னாட்சி பகுத்தறிவு, திட்டமிடல் மற்றும் செயல்பாடு செய்யக்கூடிய AI.

புதிய Amazon EC2 நிகழ்வுகள் மற்றும் இன்டர்கனெக்ட் கண்டுபிடிப்புகளை அறிமுகப்படுத்துதல்

ஒத்துழைப்பின் ஒரு சிறப்பம்சம், NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs ஆல் விரைவுபடுத்தப்பட்ட Amazon EC2 நிகழ்வுகள் ஆகும். இந்த சக்திவாய்ந்த GPUs க்கான ஆதரவை அறிவிக்கும் முதல் பெரிய கிளவுட் வழங்குநராக AWS இருப்பதில் பெருமை கொள்கிறது, இது பல்வேறு தேவைப்படும் பணிகளுக்கு அவற்றை அணுகக்கூடியதாக ஆக்குகிறது. இந்த நிகழ்வுகள் தரவு பகுப்பாய்வு, அதிநவீன உரையாடல் AI, டைனமிக் உள்ளடக்கம் உருவாக்குதல், மேம்பட்ட பரிந்துரை அமைப்புகள், உயர்தர வீடியோ ஸ்ட்ரீமிங் மற்றும் சிக்கலான கிராபிக்ஸ் பணிச்சுமைகளுக்கு ஏற்றது.

இந்த புதிய EC2 நிகழ்வுகள் வலிமையான AWS Nitro System இல் கட்டமைக்கப்படும். Nitro System, அதன் பிரத்யேக வன்பொருள் மற்றும் லேசான ஹைப்பர்வைசரின் தனித்துவமான கலவையுடன், ஹோஸ்ட் வன்பொருளின் கிட்டத்தட்ட அனைத்து கணினி மற்றும் நினைவக வளங்களையும் நேரடியாக நிகழ்வுகளுக்கு வழங்குகிறது. இந்த வடிவமைப்பு சிறந்த வள பயன்பாடு மற்றும் செயல்திறனை உறுதி செய்கிறது. முக்கியமாக, Nitro System இன் சிறப்பு வன்பொருள், மென்பொருள் மற்றும் ஃபார்ம்வேர் கடுமையான கட்டுப்பாடுகளைச் செயல்படுத்த வடிவமைக்கப்பட்டுள்ளன, இது முக்கியமான AI பணிச்சுமைகளையும் தரவையும் அங்கீகரிக்கப்படாத அணுகலில் இருந்து பாதுகாக்கிறது, AWS க்குள் இருந்தும் கூட. செயல்பாட்டில் இருக்கும்போதே ஃபார்ம்வேர் புதுப்பிப்புகள் மற்றும் மேம்பாடுகளைச் செய்யும் அதன் திறன், உற்பத்தி தர AI, பகுப்பாய்வு மற்றும் கிராபிக்ஸ் பணிச்சுமைகளுக்கு அத்தியாவசியமான பாதுகாப்பு மற்றும் நிலைத்தன்மையை மேலும் மேம்படுத்துகிறது.

குறிப்பாக மிகப்பெரிய AI மாடல்களுக்கு செயல்திறனை மேலும் மேம்படுத்துவது, பிரிக்கப்பட்ட LLM ஊகத்திற்கான இன்டர்கனெக்ட்களின் முடுக்கம் ஆகும். மாதிரி அளவுகள் தொடர்ந்து வளரும்போது, GPUs அல்லது AWS Trainium நிகழ்வுகளுக்கு இடையே உள்ள தொடர்பு மேல்நிலை ஒரு குறிப்பிடத்தக்க தடையாக மாறும். NVIDIA Inference Xfer Library (NIXL) உடன் AWS Elastic Fabric Adapter (EFA) க்கான ஆதரவை AWS அறிவித்தது, இது NVIDIA GPUs மற்றும் AWS Trainium இரண்டிலும் Amazon EC2 இல் பிரிக்கப்பட்ட LLM ஊகத்தை விரைவுபடுத்த வடிவமைக்கப்பட்டுள்ளது. இந்த ஒருங்கிணைப்பு நவீன AI பணிச்சுமைகளை அளவிடுவதற்கு முக்கியமானது, தகவல் தொடர்பு மற்றும் கணக்கீட்டின் திறமையான ஒருங்கிணைப்பை செயல்படுத்துகிறது, தாமதத்தை குறைக்கிறது மற்றும் GPU பயன்பாட்டை அதிகரிக்கிறது. இது கணினி முனைகள் மற்றும் விநியோகிக்கப்பட்ட நினைவக ஆதாரங்களுக்கு இடையே அதிக-வழித்தடம், குறைந்த-தாமத KV-கேச் தரவு நகர்வை எளிதாக்குகிறது. EFA உடன் கூடிய NIXL, NVIDIA Dynamo, vLLM மற்றும் SGLang போன்ற பிரபலமான திறந்த மூல கட்டமைப்புகளுடன் இணக்கமாக செயல்படுகிறது, இது மேம்பட்ட இன்டர்-டோக்கன் தாமதம் மற்றும் மிகவும் திறமையான KV-கேச் நினைவக பயன்பாட்டை வழங்குகிறது.

Amazon EMR மற்றும் GPUs உடன் தரவு பகுப்பாய்வை விரைவுபடுத்துதல்

தரவு பொறியியலாளர்கள் மற்றும் விஞ்ஞானிகள் பெரும்பாலும் நீண்ட தரவு செயலாக்க குழாய்களுடன் போராடுகிறார்கள், இது AI/ML மாதிரி மறுசெயல் மற்றும் வணிக நுண்ணறிவு உருவாக்கத்தை கணிசமாகத் தடுக்கலாம். AWS மற்றும் NVIDIA ஒத்துழைப்பு ஒரு அற்புதமான முன்னேற்றத்தை வழங்குகிறது: Apache Spark பணிச்சுமைகளுக்கு 3 மடங்கு வேகமான செயல்திறன். NVIDIA இன் RTX PRO 6000 Blackwell Server Edition GPUs ஆல் இயக்கப்படும் G7e நிகழ்வுகளுடன் Amazon EKS இல் Amazon EMR ஐப் பயன்படுத்துவதன் மூலம் இந்த முடுக்கம் அடையப்படுகிறது.

இந்த குறிப்பிடத்தக்க செயல்திறன் அதிகரிப்பு, GPU-விரைவுபடுத்தப்பட்ட பகுப்பாய்வை மேம்படுத்துவதில் கவனம் செலுத்திய கூட்டு பொறியியல் முயற்சிகளின் நேரடி விளைவாகும். Amazon EMR மற்றும் G7e நிகழ்வுகளுடன், நிறுவனங்கள் AI/ML அம்ச பொறியியல், சிக்கலான ETL மாற்றங்கள் மற்றும் பெரிய அளவிலான நிகழ்நேர பகுப்பாய்வுக்கான நேரத்தை வியத்தகு முறையில் குறைக்கலாம். பெரிய அளவிலான தரவு செயலாக்க குழாய்களை இயக்கும் வாடிக்கையாளர்கள், தங்கள் இருக்கும் Spark பயன்பாடுகளுடன் முழு இணக்கத்தன்மையைப் பராமரிக்கும் அதே வேளையில், விரைவான நேரத்தை-நுண்ணறிவை அடைய முடியும்.

Amazon Bedrock இல் விரிவாக்கப்பட்ட NVIDIA Nemotron மாதிரி ஆதரவு

AWS மற்றும் NVIDIA அடிப்படை மாதிரிகள் மீதான தங்கள் ஒத்துழைப்பை விரிவுபடுத்துகின்றன, மேம்பட்ட NVIDIA Nemotron மாடல்களை Amazon Bedrock க்கு கொண்டு வருகின்றன.

டெவலப்பர்கள் விரைவில் Reinforcement Fine-Tuning (RFT) ஐப் பயன்படுத்தி Amazon Bedrock இல் நேரடியாக NVIDIA Nemotron மாடல்களை நுண்-சீரமைக்கும் திறனைப் பெறுவார்கள். இது சட்ட, சுகாதார, நிதி அல்லது பிற சிறப்புத் துறைகளில் மாதிரி நடத்தையை குறிப்பிட்ட களங்களுக்கு ஏற்ப மாற்றியமைக்க வேண்டிய குழுக்களுக்கு ஒரு புரட்சிகரமான மாற்றமாகும். RFT பயனர்களுக்கு ஒரு மாதிரி எவ்வாறு பகுப்பாய்வு செய்து பதிலளிக்கிறது என்பதை வடிவமைக்க உதவுகிறது, வெறும் அறிவுப் பெறுதலைத் தாண்டி நுணுக்கமான நடத்தை சீரமைப்புக்கு செல்கிறது. முக்கியமாக, இது Amazon Bedrock இல் இயங்குகிறது, உள்கட்டமைப்பு மேல்நிலையை நீக்குகிறது – பயனர்கள் பணியை வரையறுக்கிறார்கள், கருத்துக்களை வழங்குகிறார்கள், மேலும் Bedrock மீதமுள்ளவற்றை நிர்வகிக்கிறது.

மேலும், பல முகவர் பணிச்சுமைகள் மற்றும் நீட்டிக்கப்பட்ட பகுத்தறிவுக்கு உருவாக்கப்பட்ட ஒரு கலப்பு Mixture-of-Experts (MoE) மாதிரியான NVIDIA Nemotron 3 Super, விரைவில் Amazon Bedrock இல் வரவிருக்கிறது. AI முகவர்கள் சிக்கலான, பல-படி பணிப்பாய்வுகள் முழுவதும் துல்லியத்தை பராமரிக்க உதவும் வகையில் வடிவமைக்கப்பட்ட Nemotron 3 Super, நிதி, சைபர் பாதுகாப்பு, சில்லறை வர்த்தகம் மற்றும் மென்பொருள் மேம்பாடு போன்ற பல்வேறு பயன்பாட்டு நிகழ்வுகளுக்கு சக்தி அளிக்கும். இது முழுமையாக நிர்வகிக்கப்படும் API மூலம் வேகமான, செலவு குறைந்த ஊகத்தை உறுதியளிக்கிறது, இது அதிநவீன AI முகவர்களை வரிசைப்படுத்துவதை எளிதாக்குகிறது.

முக்கிய அறிவிப்புகளின் சுருக்கம் இங்கே:

அம்சம்/ஒருங்கிணைப்புவிளக்கம்முதன்மை நன்மைகிடைக்கும் தன்மை
GPU வரிசைப்படுத்தல்AWS பிராந்தியங்கள் முழுவதும் 1 மில்லியனுக்கும் அதிகமான NVIDIA GPUs (Blackwell, Rubin கட்டமைப்புகள்).அனைத்து AI/ML பணிச்சுமைகளுக்கும், முகவர் AI க்கும் பிரம்மாண்டமான கணினி அளவுகோல்.2026 முதல்
Amazon EC2 நிகழ்வுகள்EC2 இல் NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs க்கான ஆதரவு.பல்துறை AI, கிராபிக்ஸ், பகுப்பாய்வுக்கான முதல் பெரிய கிளவுட் வழங்குநர் ஆதரவு.விரைவில்
LLM ஊகம்GPUs மற்றும் Trainiums முழுவதும் விரைவுபடுத்தப்பட்ட பிரிக்கப்பட்ட LLM ஊகத்திற்கான AWS EFA இல் NVIDIA NIXL.LLM க்களுக்கான தகவல் தொடர்பு தாமதத்தை குறைக்கிறது, GPU பயன்பாட்டை அதிகரிக்கிறது.அறிவிக்கப்பட்டது
Apache Spark செயல்திறன்G7e நிகழ்வுகளுடன் (RTX PRO 6000) EKS இல் Amazon EMR இல் 3 மடங்கு வேகமான Spark பணிச்சுமைகள்.தரவு பகுப்பாய்வு, அம்ச பொறியியலுக்கான நேரத்தை-நுண்ணறிவை விரைவுபடுத்துகிறது.அறிவிக்கப்பட்டது
Nemotron நுண்-சீரமைப்புAmazon Bedrock இல் நேரடியாக Nemotron மாடல்களுக்கான Reinforcement Fine-Tuning (RFT).உள்கட்டமைப்பு மேல்நிலை இல்லாமல் கள-குறிப்பிட்ட மாதிரி நடத்தை சீரமைப்பு.விரைவில்
Nemotron 3 Superபல முகவர் பணிச்சுமைகள் மற்றும் நீட்டிக்கப்பட்ட பகுத்தறிவுக்கு Amazon Bedrock இல் கலப்பு MoE மாதிரி.சிக்கலான, பல-படி AI பணிகளுக்கு வேகமான, செலவு குறைந்த ஊகம்.விரைவில்

ஆற்றல் திறன் மற்றும் நிலையான AI க்கு உறுதிப்பாடு

AI பணிச்சுமைகள் அதிவேகமாக வளரும்போது, அடிப்படை உள்கட்டமைப்பின் திறன் மற்றும் நிலைத்தன்மை மிக முக்கியமானது. இந்த ஒத்துழைப்பு ஆற்றல் திறனை மேம்படுத்துவதற்கான ஒரு பகிரப்பட்ட உறுதிப்பாட்டையும் எடுத்துக்காட்டுகிறது. ஒரு வாட்டிற்கான செயல்திறன் இனி ஒரு நிலைத்தன்மை அளவீடு மட்டுமல்ல, AI நிலப்பரப்பில் ஒரு குறிப்பிடத்தக்க போட்டி நன்மையாகும்.

NVIDIA GTC 2026 இல், Amazon CSO காரா ஹர்ஸ்ட் மற்ற நிலைத்தன்மை தலைவர்களுடன் சேர்ந்து, AI எவ்வாறு நிறுவன ஆற்றல் மற்றும் உள்கட்டமைப்பை பெரிய அளவில் மாற்றியமைக்கிறது என்பதைப் பற்றி விவாதித்தார். இந்த விவாதம், சக்திவாய்ந்த மட்டுமல்லாமல் சுற்றுச்சூழல் ரீதியாகவும் பொறுப்பான AI தீர்வுகளை உருவாக்குவதிலும் வரிசைப்படுத்துவதிலும் உள்ள கவனத்தை அடிக்கோடிட்டுக் காட்டுகிறது, இது செயலில் உள்ள கிரிட் பங்கேற்பாளர்களாக உகந்ததாக இருக்கும் தரவு மையங்கள் முதல் பரந்த நிறுவன AI பயன்பாடுகள் வரை. இந்த முன்னோக்கு அணுகுமுறை, AI கணினித் துறையில் உள்ள முன்னேற்றங்கள் உலகளாவிய நிலைத்தன்மை இலக்குகளுடன் இணங்குவதை உறுதி செய்கிறது.

அடிக்கடி கேட்கப்படும் கேள்விகள்

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

புதுப்பிப்புகளைப் பெறுங்கள்

சமீபத்திய AI செய்திகளை மின்னஞ்சலில் பெறுங்கள்.

பகிர்