AI முகவர்கள் தங்கள் திறன்களை விரைவாக விரிவுபடுத்துகின்றன, இணையத்தில் உலாவல் முதல் சிக்கலான தகவல்களைப் பெறுவது மற்றும் பயனர்களின் சார்பாகச் செயல்படுவது வரை. இந்த முன்னேற்றங்கள் முன்னோடியில்லாத பயன்பாடு மற்றும் செயல்திறனை உறுதியளிக்கும் அதே வேளையில், அவை ஒரே நேரத்தில் அதிநவீன புதிய தாக்குதல் பரப்புகளை அறிமுகப்படுத்துகின்றன. இவற்றில் முக்கியமானது உடனடி ஊசி — இது வெளி உள்ளடக்கத்தில் தீங்கிழைக்கும் வழிமுறைகளை உட்பொதித்து, AI மாதிரியை நோக்கப்படாத செயல்களைச் செய்யத் தூண்டும் ஒரு முறையாகும். OpenAI இந்த தாக்குதல்களில் ஒரு முக்கியமான பரிணாம வளர்ச்சியை எடுத்துக்காட்டுகிறது: அவை சமூகப் பொறியியல் தந்திரோபாயங்களை பெருகிய முறையில் பிரதிபலிக்கின்றன, இது எளிய உள்ளீட்டு வடிகட்டுதலிலிருந்து வலுவான அமைப்புசார் வடிவமைப்பிற்கு பாதுகாப்பு உத்திகளில் ஒரு அடிப்படை மாற்றத்தை கோருகிறது.
வளர்ந்து வரும் அச்சுறுத்தல்: உடனடி ஊசி மற்றும் சமூகப் பொறியியல்
ஆரம்பத்தில், உடனடி ஊசி தாக்குதல்கள் பெரும்பாலும் நேரடியானவையாக இருந்தன, எடுத்துக்காட்டாக, ஒரு AI முகவர் செயலாக்கக்கூடிய ஒரு விக்கிப்பீடியா கட்டுரையில் நேரடி எதிரி கட்டளைகளை உட்பொதிப்பது. ஆரம்பகால மாதிரிகள், அத்தகைய எதிரி சூழல்களில் பயிற்சி நேர அனுபவம் இல்லாததால், இந்த வெளிப்படையான வழிமுறைகளைப் பின்பற்ற தயங்கின. இருப்பினும், AI மாதிரிகள் முதிர்ச்சியடைந்து மிகவும் அதிநவீனமாக மாறியதால், அத்தகைய வெளிப்படையான பரிந்துரைகளுக்கு அவற்றின் பாதிப்பு குறைந்தது. இது சமூகப் பொறியியலின் கூறுகளை உள்ளடக்கிய நுட்பமான முறைகளை உருவாக்க தாக்குபவர்களைத் தூண்டியுள்ளது.
இந்த பரிணாம வளர்ச்சி முக்கியமானது, ஏனெனில் இது தீங்கிழைக்கும் சரத்தை அடையாளம் காண்பதை விட மேலானது. மாறாக, இது ஒரு மனிதன் சமூகப் பொறியியலை எதிர்கொள்வது போல, ஒரு பரந்த சூழலில் தவறான அல்லது கையாளுதல் உள்ளடக்கத்தை எதிர்க்க AI அமைப்புகளுக்கு சவால் விடுகிறது. எடுத்துக்காட்டாக, OpenAI க்கு 2025 இல் பதிவான ஒரு உடனடி ஊசி தாக்குதலில், வெளிப்படையாக பாதிப்பில்லாத ஒரு மின்னஞ்சலை உருவாக்குவது அடங்கும், ஆனால் அதில் உட்பொதிக்கப்பட்ட வழிமுறைகள் ஒரு AI உதவியாளரை முக்கியமான ஊழியர் தரவை பிரித்தெடுத்து ஒரு "இணக்க சரிபார்ப்பு அமைப்புக்கு" (compliance validation system) சமர்ப்பிக்க ஏமாற்ற வடிவமைக்கப்பட்டிருந்தன. இந்த தாக்குதல் சோதனையில் 50% வெற்றி விகிதத்தை வெளிப்படுத்தியது, இது சட்டபூர்வமான கோரிக்கைகளை தீங்கிழைக்கும் வழிமுறைகளுடன் கலப்பதன் செயல்திறனைக் காட்டுகிறது. இத்தகைய சிக்கலான தாக்குதல்கள் பெரும்பாலும் பாரம்பரிய "AI ஃபயர்வாலிங்" (AI firewalling) அமைப்புகளைத் தவிர்க்கின்றன, அவை பொதுவாக எளிய அனுபவங்களின் அடிப்படையில் உள்ளீடுகளை வகைப்படுத்த முயற்சிக்கின்றன, ஏனெனில் இந்த நுட்பமான கையாளுதல்களைக் கண்டறிவது, முழு சூழ்நிலை சூழல் இல்லாமல் ஒரு பொய்யை அல்லது தவறான தகவலை வேறுபடுத்துவது போல கடினமாகிறது.
மனித சமமானவையாக AI முகவர்கள்: சமூகப் பொறியியல் பாதுகாப்புகளிலிருந்து பாடங்கள்
இந்த மேம்பட்ட உடனடி ஊசி நுட்பங்களை எதிர்ப்பதற்காக, OpenAI ஒரு முன்னுதாரண மாற்றத்தை ஏற்றுக்கொண்டுள்ளது, மனித சமூகப் பொறியியல் கண்ணோட்டத்தில் சிக்கலை அணுகுகிறது. இந்த அணுகுமுறை, ஒவ்வொரு தீங்கிழைக்கும் உள்ளீட்டையும் சரியாக அடையாளம் காண்பது இலக்கு அல்ல, மாறாக AI முகவர்கள் மற்றும் அமைப்புகளை வடிவமைப்பது, தாக்குதல் ஓரளவு வெற்றி பெற்றாலும் கையாளுதலின் தாக்கம் கடுமையாகக் கட்டுப்படுத்தப்படுவதை உறுதிசெய்வதாகும். இந்த மனப்பான்மை ஒரு நிறுவனத்திற்குள் மனித ஊழியர்களுக்கான சமூகப் பொறியியல் அபாயங்களை நிர்வகிப்பதற்கு ஒத்தது.
பணத்தைத் திரும்பப்பெறுதல் அல்லது பரிசு அட்டைகளை வழங்க அதிகாரம் பெற்ற ஒரு மனித வாடிக்கையாளர் சேவை முகவரைப் பரிசீலிக்கவும். முகவர் வாடிக்கையாளருக்கு சேவை செய்வதை நோக்கமாகக் கொண்டிருந்தாலும், அவர்கள் தொடர்ந்து வெளி உள்ளீடுகளுக்கு ஆளாகிறார்கள் - அவற்றில் சில கையாளுதல் அல்லது கட்டாயப்படுத்துதலாக இருக்கலாம். நிறுவனங்கள் விதிகள், வரம்புகள் மற்றும் நிர்ணயிக்கப்பட்ட அமைப்புகளை செயல்படுத்துவதன் மூலம் இந்த அபாயத்தைக் குறைக்கின்றன. எடுத்துக்காட்டாக, ஒரு வாடிக்கையாளர் சேவை முகவருக்கு அவர்கள் வழங்கக்கூடிய பணத்தைத் திரும்பப்பெறுதல்களின் எண்ணிக்கையில் ஒரு உச்சவரம்பு இருக்கலாம், அல்லது சந்தேகத்திற்கிடமான கோரிக்கைகளைக் கொடியிடுவதற்கு குறிப்பிட்ட நடைமுறைகள் இருக்கலாம். இதேபோல், ஒரு AI முகவர், ஒரு பயனரின் சார்பாக செயல்படும் போது, உள்ளார்ந்த வரம்புகள் மற்றும் பாதுகாப்புகளைக் கொண்டிருக்க வேண்டும். இந்த "மூன்று நடிகர்கள் அமைப்பு" (பயனர், முகவர், வெளி உலகம்) க்குள் AI முகவர்களைக் கருத்தில்கொண்டு, முகவர் சாத்தியமான விரோத வெளி உள்ளீடுகளைக் கடந்து செல்ல வேண்டும், வடிவமைப்பாளர்கள் நெகிழ்வுத்தன்மையை உருவாக்க முடியும். சில தாக்குதல்கள் தவிர்க்க முடியாமல் தப்பிவிடும் என்பதை இந்த அணுகுமுறை ஒப்புக்கொள்கிறது, ஆனால் அவற்றின் தீங்கு விளைவிக்கும் திறன் குறைக்கப்படுவதை உறுதி செய்கிறது. இந்த கொள்கை OpenAI ஆல் பயன்படுத்தப்படும் வலுவான எதிர் நடவடிக்கைகளின் தொகுப்பிற்கு அடிப்படையாக அமைகிறது.
| பாதுகாப்புக் கொள்கை | விளக்கம் | மனித அமைப்புகளுடன் ஒப்புமை | நன்மை |
|---|---|---|---|
| கட்டுப்பாடு | முகவரின் திறன்கள் மற்றும் செயல்களை முன்வரையறுக்கப்பட்ட, பாதுகாப்பான எல்லைகளுக்குள் கட்டுப்படுத்துதல், அங்கீகரிக்கப்படாத அல்லது மிகப்பரந்த செயல்பாடுகளைத் தடுத்தல். | செலவு வரம்புகள், அங்கீகார நிலைகள், ஊழியர்களுக்கான கொள்கை அமலாக்கம். | ஒரு முகவர் ஓரளவு சமரசம் செய்யப்பட்டாலும் சாத்தியமான சேதத்தைக் குறைக்கிறது. |
| வெளிப்படைத்தன்மை | சாத்தியமான ஆபத்தான அல்லது முக்கியமான செயல்களைச் செய்வதற்கு முன் வெளிப்படையான பயனர் உறுதிப்படுத்தலைக் கோருதல். | விதிவிலக்குகளுக்கு மேலாளர் ஒப்புதல், முக்கியமான தரவு உள்ளீட்டை இருமுறை சரிபார்த்தல். | பயனர்களுக்கு முக்கியமான செயல்பாடுகளை மீற அல்லது உறுதிப்படுத்த அதிகாரம் அளிக்கிறது, கட்டுப்பாட்டை உறுதி செய்கிறது. |
| சாண்ட்பாக்சிங் | முகவரின் செயல்களை, குறிப்பாக வெளிப்புற கருவிகள் அல்லது பயன்பாடுகளுடன் தொடர்பு கொள்ளும்போது, ஒரு பாதுகாப்பான, கண்காணிக்கப்படும் சூழலில் தனிமைப்படுத்துதல். | முக்கியமான அமைப்புகளுக்கு கட்டுப்படுத்தப்பட்ட அணுகல், பிரிக்கப்பட்ட பிணைய சூழல்கள். | தீங்கிழைக்கும் செயல்கள் முக்கிய அமைப்புகளைப் பாதிப்பதையோ அல்லது தரவை வெளிப்படுத்துவதையோ தடுக்கிறது. |
| சூழல்சார் S&S | சந்தேகத்திற்கிடமான தரவு ஓட்டங்கள் அல்லது அங்கீகரிக்கப்படாத பரிமாற்றங்களுக்காக உள்ளீட்டு மூலங்கள் மற்றும் வெளியீட்டு சிங்க்குகளை பகுப்பாய்வு செய்தல், தீங்கிழைக்கும் நோக்கத்தைக் குறிக்கும் வடிவங்களை அடையாளம் காணுதல். | தரவு இழப்பு தடுப்பு (DLP) அமைப்புகள், உள் அச்சுறுத்தல் கண்டறிதல் நெறிமுறைகள். | அங்கீகரிக்கப்படாத தரவு வெளிப்பாட்டு முயற்சிகளை அடையாளம் கண்டு தடுக்கிறது. |
| எதிரி பயிற்சி | AI மாதிரிகளை கையாளுதல் மொழி, ஏமாற்றும் தந்திரங்கள் மற்றும் சமூகப் பொறியியல் முயற்சிகளை அடையாளம் கண்டு எதிர்க்க தொடர்ந்து பயிற்சி அளித்தல். | பாதுகாப்பு விழிப்புணர்வு பயிற்சி, ஃபிஷிங் மற்றும் மோசடி முயற்சிகளை அடையாளம் காணுதல். | முகவரின் உள்ளார்ந்த திறனை மேம்படுத்துகிறது, தீங்கிழைக்கும் உள்ளடக்கத்தைக் கண்டறியவும் குறிக்கவும். |
OpenAI இன் பல அடுக்கு ChatGPT பாதுகாப்புகள்
OpenAI இந்த சமூகப் பொறியியல் மாதிரியை பாரம்பரிய பாதுகாப்பு பொறியியல் நுட்பங்களுடன், குறிப்பாக "மூல-சிங்க் பகுப்பாய்வு" (source-sink analysis), ChatGPT இல் ஒருங்கிணைக்கிறது. இந்த கட்டமைப்பில், ஒரு தாக்குபவருக்கு இரண்டு முக்கிய கூறுகள் தேவை: செல்வாக்கை செலுத்த ஒரு "மூலம்" (source) (எ.கா., நம்பத்தகாத வெளிப்புற உள்ளடக்கம்) மற்றும் ஆபத்தான திறனை சுரண்ட ஒரு "சிங்க்" (sink) (எ.கா., தகவல்களை அனுப்புதல், தீங்கிழைக்கும் இணைப்பைப் பின்பற்றுதல் அல்லது சமரசம் செய்யப்பட்ட கருவியுடன் தொடர்புகொள்வது). OpenAI இன் முதன்மை நோக்கம் ஒரு அடிப்படை பாதுகாப்பு எதிர்பார்ப்பை நிலைநிறுத்துவதாகும்: ஆபத்தான செயல்கள் அல்லது முக்கியமான தகவல்களின் பரிமாற்றம் அமைதியாகவோ அல்லது பொருத்தமான பாதுகாப்புகள் இல்லாமலோ ஒருபோதும் நடக்கக்கூடாது.
ChatGPT க்கு எதிரான பல தாக்குதல்கள், ரகசிய உரையாடல் தகவல்களைப் பிரித்தெடுத்து ஒரு தீங்கிழைக்கும் மூன்றாம் தரப்பினருக்கு அனுப்புவதற்கு உதவியாளரை ஏமாற்ற முயற்சிக்கின்றன. OpenAI இன் பாதுகாப்பு பயிற்சி பெரும்பாலும் முகவர் அத்தகைய கோரிக்கைகளை மறுக்க வழிவகுத்தாலும், முகவர் சம்மதிக்கும் சந்தர்ப்பங்களுக்கான ஒரு முக்கியமான தணிப்பு உத்தி Safe Url ஆகும். இந்த வழிமுறை, உரையாடலின் போது கற்றுக் கொண்ட தகவல்கள் ஒரு வெளிப்புற மூன்றாம் தரப்பு URL க்கு அனுப்பப்படலாம் என்பதைக் கண்டறிய குறிப்பாக வடிவமைக்கப்பட்டுள்ளது. அத்தகைய அரிய சந்தர்ப்பங்களில், கணினி தகவலை பயனருக்கு வெளிப்படையான உறுதிப்படுத்தலுக்காக காண்பிக்கும் அல்லது பரிமாற்றத்தை முழுமையாகத் தடுத்து, பயனரின் கோரிக்கையை நிறைவேற்ற மாற்று, பாதுகாப்பான வழியைக் கண்டறிய முகவருக்கு அறிவுறுத்தும். முகவர் தற்காலிகமாக சமரசம் செய்யப்பட்டாலும் கூட இது தரவு வெளிப்பாட்டைத் தடுக்கிறது. முகவர் இயக்கும் இணைப்பு தொடர்புகளிலிருந்து பாதுகாப்பது குறித்த மேலதிக நுண்ணறிவுகளுக்கு, பயனர்கள் 'ஒரு AI முகவர் ஒரு இணைப்பைக் கிளிக் செய்யும் போது உங்கள் தரவைப் பாதுகாத்தல்' என்ற பிரத்யேக வலைப்பதிவு இடுகையைப் பார்க்கலாம்.
முகவர் AI இல் Safe URL மற்றும் சாண்ட்பாக்சிங்கின் பங்கு
முக்கியமான தரவு பரிமாற்றத்தைக் கண்டறிந்து கட்டுப்படுத்த வடிவமைக்கப்பட்ட Safe Url வழிமுறை, வெறும் இணைப்பு கிளிக் செய்வதைத் தாண்டி அதன் பாதுகாப்பு வரம்பை நீட்டிக்கிறது. Atlas இல் உள்ள வழிசெலுத்தல்கள் மற்றும் புக்மார்க்குகளுக்கும், Deep Research இல் தேடல் மற்றும் வழிசெலுத்தல் செயல்பாடுகளுக்கும் இதே போன்ற பாதுகாப்புகள் பயன்படுத்தப்படுகின்றன. இந்த பயன்பாடுகள் இயல்பாகவே AI முகவர்களை பரந்த வெளிப்புற தரவு ஆதாரங்களுடன் தொடர்புபடுத்துகின்றன, இது வெளிச்செல்லும் தரவுகளுக்கான வலுவான கட்டுப்பாடுகளை மிக முக்கியமாக்குகிறது.
மேலும், ChatGPT Canvas மற்றும் ChatGPT Apps போன்ற முகவர் அம்சங்கள் இதேபோன்ற பாதுகாப்புத் தத்துவத்தை பின்பற்றுகின்றன. முகவர்கள் செயல்படும் பயன்பாடுகளை உருவாக்கி பயன்படுத்தும் போது, இந்த செயல்பாடுகள் ஒரு பாதுகாப்பான சாண்ட்பாக்ஸ் சூழலில் கட்டுப்படுத்தப்படுகின்றன. இந்த சாண்ட்பாக்சிங் எதிர்பாராத தொடர்புகள் அல்லது செயல்களைக் கண்டறிய அனுமதிக்கிறது. முக்கியமாக, சாத்தியமான முக்கியமான அல்லது அங்கீகரிக்கப்படாத தொடர்புகள் வெளிப்படையான பயனர் சம்மதத்திற்கான கோரிக்கையைத் தூண்டுகின்றன, இது பயனர்கள் தங்கள் தரவு மற்றும் முகவரின் நடத்தை மீது இறுதி கட்டுப்பாட்டை தக்கவைத்துக்கொள்வதை உறுதி செய்கிறது. மூல-சிங்க் பகுப்பாய்வை சூழ்நிலை விழிப்புணர்வு, பயனர் சம்மதம் மற்றும் சாண்ட்பாக்ஸ் செய்யப்பட்ட செயலாக்கம் ஆகியவற்றுடன் இணைக்கும் இந்த பல அடுக்கு அணுகுமுறை, வளர்ந்து வரும் உடனடி ஊசி மற்றும் சமூகப் பொறியியல் தாக்குதல்களுக்கு எதிரான ஒரு வலுவான பாதுகாப்பை உருவாக்குகிறது. இந்த முகவர் திறன்கள் எவ்வாறு பாதுகாப்பாக இயக்கப்படுகின்றன என்பது பற்றிய கூடுதல் விவரங்களுக்கு, 'முகவர் AI ஐ செயல்படுத்துதல் (பகுதி 1: பங்குதாரர்கள் வழிகாட்டி)' பற்றிய விவாதங்களைப் பார்க்கவும்.
எதிரி தாக்குதல்களிலிருந்து தன்னாட்சி முகவர்களை எதிர்கால-பாதுகாப்பு
எதிரி வெளி உலகத்துடன் பாதுகாப்பான தொடர்புகளை உறுதிசெய்வது ஒரு விரும்பத்தக்க அம்சம் மட்டுமல்ல, முழுமையாக தன்னாட்சி கொண்ட AI முகவர்களின் வளர்ச்சிக்கு ஒரு அத்தியாவசிய அடிப்படையாகும். தங்கள் பயன்பாடுகளில் AI மாதிரிகளை ஒருங்கிணைக்கும் டெவலப்பர்களுக்கு OpenAI இன் பரிந்துரை என்னவென்றால், ஒரு மனித முகவர் இதேபோன்ற அதிக ஆபத்துள்ள சூழ்நிலையில் என்ன கட்டுப்பாடுகளைக் கொண்டிருப்பார் என்பதைக் கருத்தில் கொண்டு, AI அமைப்பிற்குள் அந்த ஒத்த வரம்புகளை செயல்படுத்துவதாகும்.
அதிகபட்ச நுண்ணறிவுள்ள AI மாதிரிகள் இறுதியில் மனித முகவர்களை விட சமூகப் பொறியியலை மிகவும் திறம்பட எதிர்க்க வேண்டும் என்ற ஆசை இருந்தாலும், இது ஒவ்வொரு பயன்பாட்டிற்கும் எப்போதும் சாத்தியமான அல்லது செலவு குறைந்த உடனடி இலக்காக இருக்காது. எனவே, உள்ளமைக்கப்பட்ட கட்டுப்பாடுகள் மற்றும் மேற்பார்வையுடன் அமைப்புகளை வடிவமைப்பது மிகவும் முக்கியமானது. AI மாதிரிகளுக்கு எதிரான சமூகப் பொறியியலின் தாக்கங்களை தொடர்ந்து ஆராய்ச்சி செய்வதற்கும், மேம்பட்ட பாதுகாப்புகளை உருவாக்குவதற்கும் OpenAI உறுதிபூண்டுள்ளது. இந்த கண்டுபிடிப்புகள் அவர்களின் பயன்பாட்டு பாதுகாப்பு கட்டமைப்புகளிலும், அவர்களின் AI மாதிரிகளுக்கான தொடர்ச்சியான பயிற்சி செயல்முறைகளிலும் ஒருங்கிணைக்கப்படுகின்றன, இது எப்போதும் வளர்ந்து வரும் அச்சுறுத்தல் நிலப்பரப்பில் AI பாதுகாப்பிற்கான ஒரு சுறுசுறுப்பான மற்றும் தகவமைக்கும் அணுகுமுறையை உறுதி செய்கிறது. இந்த முன்னோக்கு சிந்தனை உத்தி AI முகவர்களை சக்தி வாய்ந்ததாகவும், உள்ளார்ந்த நம்பகத்தன்மை கொண்டதாகவும் மாற்றுவதை நோக்கமாகக் கொண்டுள்ளது, 'தீங்கிழைக்கும் AI பயன்பாடுகளை சீர்குலைத்தல்' போன்ற முயற்சிகள் உட்பட AI சூழல் முழுவதும் பாதுகாப்பை மேம்படுத்தும் முயற்சிகளை எதிரொலிக்கிறது.
அடிக்கடி கேட்கப்படும் கேள்விகள்
What is prompt injection in the context of AI agents?
How has prompt injection evolved, and why is this significant?
How does OpenAI defend against social engineering prompt injection attacks?
What is Safe Url, and how does it protect AI agents and users?
Why is user consent crucial for AI agents, especially with new capabilities?
What is 'source-sink' analysis in the context of AI security?
புதுப்பிப்புகளைப் பெறுங்கள்
சமீபத்திய AI செய்திகளை மின்னஞ்சலில் பெறுங்கள்.
