1
1

2025 ஆம் ஆண்டில், அமெரிக்க பாதுகாப்புத் துறையுடன் 200 மில்லியன் டாலர் ஒப்பந்தத்தை அறிவித்ததன் மூலம் ஆந்த்ரோபிக் ஒரு பெரிய பாதுகாப்பு தடத்தை பகிரங்கமாக ஏற்றுக்கொண்டது. படம் பிரதிநிதித்துவ நோக்கங்களுக்காக பயன்படுத்தப்பட்டது. | புகைப்பட உபயம்: ராய்ட்டர்ஸ்
ஆந்த்ரோபிக் கடந்த ஆண்டு ஒரு மோசமான நிலையில் இருக்க முயற்சி செய்து வருகிறது: அமெரிக்க தேசிய பாதுகாப்பு எந்திரத்திற்கு ஒரு சிறிய சப்ளையராக கருதப்படும் அளவுக்கு நெருக்கமாக உள்ளது, ஆனால் அது பாதிக்கப்படாத அளவுக்கு தொலைவில் உள்ளது. இந்த விரும்பத்தக்க சேர்க்கையின் ஆர்ப்பாட்டத்தில், ஜனவரி 3 அன்று வெனிசுலா ஜனாதிபதி நிக்கோலஸ் மதுரோவை கடத்த அமெரிக்க நடவடிக்கையில் Anthropic இன் AI மாடல் கிளவுட் பயன்படுத்தப்பட்டது தெரியவந்தது.
சமீபத்தில், முழு தன்னாட்சி ஆயுதங்களை குறிவைப்பதையும் அமெரிக்க உள்நாட்டு கண்காணிப்பையும் தடுப்பதற்கான பாதுகாப்பு நடவடிக்கைகள் தொடர்பாக ஆந்த்ரோபிக் பென்டகனுடன் மோதியது. இவை பேரம் பேச முடியாத வரம்புகள் என்று ஆந்த்ரோபிக் வாதிட்டாலும், “அனைத்து சட்டப்பூர்வ நோக்கங்களுக்காக” வணிக AI கிடைக்க வேண்டும் என்று பென்டகன் ஒப்புக்கொண்டது. சமீபத்தில், பென்டகன் ஆந்த்ரோபிக்கை “சப்ளை செயின் ரிஸ்க்” என்று நியமிக்க பரிசீலித்து வருகிறது – இது ஒப்பந்தக்காரர்கள் கிளவுட்டைப் பயன்படுத்தவில்லை என்று சான்றளிக்க அவர்களுக்கு அழுத்தம் கொடுக்கலாம்.
ஆந்த்ரோபிக் ஏன் இந்த பிணைப்பில் தன்னைக் கண்டுபிடித்தது?
2025 ஆம் ஆண்டில், நிறுவனம் அமெரிக்க பாதுகாப்புத் துறையுடன் $200 மில்லியன் ஒப்பந்தத்தை அறிவித்ததன் மூலம் ஒரு பெரிய பாதுகாப்பு தடத்தை பகிரங்கமாக ஏற்றுக்கொண்டது. எல்லைக்குள் இருக்கும் போது தேசிய பாதுகாப்புக்கு ‘ஆம்’ என்று கூறும் ஆய்வகமாக ஆந்த்ரோபிக் இருக்க விரும்புகிறது என்பதற்கான சமிக்ஞையாக இது இருந்தது. ஆந்த்ரோபிக் சாட்போட்களைக் கொண்ட ஆய்வகமாக இல்லாமல் ஒரு நிறுவன உற்பத்தி நிறுவனமாக தன்னை நிலைநிறுத்திக் கொள்ள முயற்சிக்கிறது. எடுத்துக்காட்டாக, இன்ஃபோசிஸுடனான அதன் கூட்டாண்மை அதன் மாடல்களை ஏற்கனவே பெரிதும் ஒழுங்குபடுத்தப்பட்ட தொழில்களுக்கு இணக்கம் மற்றும் நிர்வாக சேவைகளை விற்கும் நிறுவனத்துடன் இணைக்கும்.
இந்த வரம்புக்குக் காரணம், கடுமையான பாதுகாப்புத் தேவைகளுடன் அரசு சூழல்களில் பாதுகாப்பாகச் செயல்படுவதாகக் கூறக்கூடிய ஒரு நிறுவனம், வங்கிகள், உற்பத்தியாளர்கள் மற்றும் தொலைத்தொடர்பு நிறுவனங்களுக்கும் தன்னைத்தானே விற்க முடியும். அதாவது, அரசாங்கங்களைப் பொறுத்தவரை, “ஜனநாயக அரசுகள் தொழில்நுட்ப நன்மைகளைப் பராமரிக்க நாங்கள் உதவுவோம், ஆனால் தன்னாட்சி இலக்கு அல்லது பரவலான உள்நாட்டு கண்காணிப்பு போன்ற வரிசைப்படுத்தல்களை நாங்கள் ஏற்க மாட்டோம்” என்று ஆந்த்ரோபிக் கூறுகிறது. இதன் விளைவாக, நிறுவனங்களுக்கு, “கடுமையான இணக்கத் தேவைகளுடன் சூழல்களுக்குள் நாம் எல்லைப்புற AI ஐ நடத்த முடியும்” என்று கூறப்படுகிறது.
துரதிர்ஷ்டவசமாக, இந்த இரண்டு லட்சியங்களும் மோதின. தன்னாட்சி இலக்கு மற்றும் உள்நாட்டு கண்காணிப்பைத் தழுவுவது, பாதுகாப்பு வாடிக்கையாளர்களை ஈர்க்கும் பிற விளிம்பு ஆய்வகங்கள் மற்றும் நுழைபவர்களுடன் வரைய முயற்சித்த கோட்டை அழிக்கும் என்று ஆந்த்ரோபிக் நம்புவதாகத் தெரிகிறது.
இருப்பினும், பென்டகன் அதன் விற்பனையாளர்களின் நெறிமுறைக் கடமைகள் புள்ளிக்கு அப்பால் இருப்பதைக் குறிக்கிறது, குறிப்பாக விற்பனையாளர்கள் பாதுகாப்பு விநியோகச் சங்கிலியில் இருக்கும்போது.
எண்டர்பிரைஸ் ஆட்டோமேஷன் லேயர் – அதாவது, தற்காலிக முறையில் நிறுவனங்கள் பயன்படுத்தும் சாட்போட்களாக இல்லாமல், மேகக்கணியை நேரடியாக பணிப்பாய்வுகளுக்குள் உட்பொதிக்க அனுமதிக்கும் குறியீட்டு முறை மற்றும் ஏஜென்டிக் அமைப்புகள் – இன்னும் ஆந்த்ரோபிக்கின் முக்கிய கவனம் செலுத்தும் பகுதிகளில் ஒன்றாகும். போட்டியாளர்கள் அதிக சக்திவாய்ந்த மாற்றுகளை உருவாக்கும்போது கூட, கட்டுப்பாட்டாளர்கள் மற்றும் நிறுவனங்கள் இந்த மாதிரிகளை விரும்புவார்கள் என்பது அதன் தர்க்கமாகத் தோன்றுவதால், நிறுவனம் அதன் மாடல்களின் பாதுகாப்பு அம்சங்களை ஒரு நன்மையாக முன்வைக்க முயற்சிக்கிறது. ஆனால் பென்டகனின் கோரிக்கையை ஆந்த்ரோபிக் ஏற்றுக்கொண்டால், அது அதன் கையொப்ப வேறுபாட்டை இழக்க நேரிடும், அதே சமயம் அது மறுத்தால், பென்டகன் அதற்கு ஒரு உதாரணத்தை உருவாக்க முடியும்.
உண்மை என்னவென்றால், மேகம் எவ்வாறு பயன்படுத்தப்படுகிறது என்பதைக் கட்டுப்படுத்த ஆந்த்ரோபிக் முயற்சி செய்யலாம், மேகம் கட்டிடத்தை விட்டு வெளியேறியவுடன் அதன் கட்டுப்பாடு பலவீனமடையும். Anthropic கூறலாம் “நீங்கள் அதற்கு பதிலாக கிளவுட் பயன்படுத்த முடியாது, அவர்கள் அதை கிளவுட் பிளாட்ஃபார்ம்கள் மூலம் அணுகலாம், தரவு பகுப்பாய்வு மற்றும் ஆட்டோமேஷன் போன்ற மென்பொருள் கருவிகளுக்குள் அதை உட்பொதித்து, குறிப்பிட்ட பணிகளுக்கு தனிப்பயனாக்கலாம். வேறுவிதமாகக் கூறினால், வாடிக்கையாளர்கள் சேவை விதிமுறைகளைச் சுற்றி வேலை செய்யலாம் மற்றும் Anthropic இன் கூட்டுக் கேள்வி இன்னும் உள்ளது.
இந்த அர்த்தத்தில், Anthropic இன் சமீபத்திய முடிவுகள் அநேகமாக சீரானதாக இருக்கும். AI பற்றிய பதட்டமான சந்தை – எடுத்துக்காட்டாக, எதிரிகள் அல்லது பொறுப்புகளைப் பற்றி அக்கறை கொண்ட நிறுவனங்களைப் பற்றி கவலைப்படும் அரசாங்கங்கள் – வரிசைப்படுத்தவும் கட்டுப்படுத்தவும் கூடிய ஒரு டெவலப்பருக்கு பிரீமியம் செலுத்த வேண்டும். பென்டகனுடனான தகராறு, இரண்டையும் ஒரே நேரத்தில் செய்வதால் ஆந்த்ரோபிக்கிற்கு என்ன செலவாகும் என்பதற்கான முதல் முக்கிய நிரூபணமாகும்.
வெளியிடப்பட்டது – பிப்ரவரி 22, 2026 01:53 am IST