இந்த பொது தகராறு போரில் AI பயன்பாடு பற்றி என்ன சொல்கிறது

அமெரிக்கத் தற்காப்புத் துறைக்கும் (இன்று போர்த் துறை என்றும் அழைக்கப்படுகிறது) மற்றும் அதன் AI தொழில்நுட்ப வழங்குநரான ஆந்த்ரோபிக் ஆகியவற்றுக்கு இடையேயான பொதுச் சர்ச்சை, பெருநிறுவன சக்திக்கு எதிராக அரசு அதிகாரத்தை எதிர்க்கிறது. இது அசாதாரணமான ஒன்று. இராணுவ தொழில்நுட்ப மேம்பாடு மற்றும் கையகப்படுத்துதல் சந்தையில், அரசாங்கமும் பெருநிறுவனங்களும் பெரும்பாலும் வசதியான படுக்கையறைகளாக இருக்கின்றன.
இந்த கருத்து வேறுபாட்டின் தோற்றம் சில மாதங்களுக்கு முன்பு, கிரிப்டோ “ஜாரின்” பலமுறை விமர்சனங்களுக்கு மத்தியில் டொனால்ட் டிரம்ப்டேவிட் சாக்ஸ், நிறுவனத்தின் கூறப்படும் ஒப்புக்கொள்ளப்பட்ட அரசியல் நிலைப்பாடுகள்.
ஆனால் ஜனவரி 2026 இல் அமெரிக்க இராணுவத்தால் முன்னாள் வெனிசுலா ஜனாதிபதி நிக்கோலஸ் மதுரோவின் வன்முறைக் கடத்தலில் மானுடவியல் தொழில்நுட்பம் பயன்படுத்தப்பட்டதாக ஊடக அறிக்கைகளைத் தொடர்ந்து பதட்டங்கள் அதிகரித்தன. இது சான் பிரான்சிஸ்கோவை தளமாகக் கொண்ட நிறுவனத்திற்குள் அதிருப்தியை ஏற்படுத்தியதாகக் கூறப்பட்டது.
ஆந்த்ரோபிக் இதை மறுத்துள்ளது, மதுரோவின் செயல்பாட்டின் பின்னணியில் அதன் கொள்கைகளை மீறுவதைக் கண்டறியவோ அல்லது எழுப்பவோ இல்லை என்று நிறுவனத்திற்குள் உள்ளவர்கள் பரிந்துரைத்தனர்.
இருப்பினும், அமெரிக்க பாதுகாப்புச் செயலர் பீட் ஹெக்செத், ஆந்த்ரோபிக்கிற்கு ஒரு இறுதி எச்சரிக்கையை அளித்தார், மேலும் இது 1950 ஆம் ஆண்டின் பாதுகாப்பு உற்பத்திச் சட்டத்தை செயல்படுத்தலாம் என்று பரிந்துரைத்தார். இது பாதுகாப்புத் துறையை விரும்பியபடி இந்தத் தொழில்நுட்பத்தைப் பயன்படுத்த அனுமதிக்கும். அதே நேரத்தில், ஹெக்செத்தின் கூற்றுப்படி, ஆந்த்ரோபிக் விநியோகச் சங்கிலிக்கு அச்சுறுத்தலாகக் கருதப்படலாம், இது அதன் அரசாங்க ஒப்பந்தங்களை ஆபத்தில் ஆழ்த்துகிறது.
இந்த அசாதாரண நடவடிக்கைகள் முரண்பாடாகத் தோன்றலாம், ஆனால் அவை தற்போதைய அமெரிக்க நிர்வாகத்தின் அணுகுமுறையுடன் ஒத்துப்போகின்றன, இது பெரும் சைகைகள் மற்றும் கொள்கை தெளிவின்மையை ஆதரிக்கிறது. இது மிகவும் உண்மை, அத்தகைய அச்சுறுத்தல்களுக்குப் பிறகு, அமெரிக்க ஆயுதப் படைகள் ஈரான் மீதான தாக்குதல்களில் ஆந்த்ரோபிக்கின் AI வளங்களைப் பயன்படுத்தத் திரும்பின, எதுவும் நடக்காதது போல்.
வீடியோ: பிரான்ஸ் 24.
இந்த சர்ச்சையின் மையத்தில் ஆந்த்ரோபிக்கின் பெரிய மொழி மாதிரி (எல்எல்எம்), கிளாட் எவ்வாறு இராணுவ சூழலில் பயன்படுத்தப்படுகிறது என்ற கேள்வி உள்ளது. பல தொழில் துறைகளில், கிளாட் எழுதுதல், குறியீட்டு முறை, பகுத்தறிவு மற்றும் பகுப்பாய்வு உள்ளிட்ட தானியங்கு பணிகளைச் செய்கிறார்.
ஜூலை 2024 இல், அமெரிக்க தரவு பகுப்பாய்வு நிறுவனமான பலன்டிர், “கிளாட்டின் AI மாதிரிகளை… அமெரிக்க அரசின் உளவுத்துறை மற்றும் பாதுகாப்பு நடவடிக்கைகளுக்குக் கொண்டு வருவதற்கு” ஆந்த்ரோபிக் உடன் கூட்டுசேர்வதாக அறிவித்தது. ஆந்த்ரோபிக் பின்னர் ஜூலை 2025 இல் DoD உடன் $200 மில்லியன் (£150 மில்லியன்) ஒப்பந்தத்தில் கையெழுத்திட்டது.
எடுத்துக்காட்டாக, இந்த விதிமுறைகள், அமெரிக்க குடிமக்களின் வெகுஜன கண்காணிப்பு அல்லது முழு தன்னாட்சி ஆயுத அமைப்புகளில் கிளாட் பயன்படுத்துவதை அனுமதிக்காது, அவை செயல்படுத்தப்பட்டவுடன், மனித ஈடுபாடு இல்லாமல் இலக்குகளைத் தேர்ந்தெடுத்து தாக்க முடியும்.
ஆந்த்ரோபிக் படி, இரண்டும் அதன் “பொறுப்பான AI” வரையறையை மீறும். நிச்சயமற்ற தன்மை, உறுதியற்ற தன்மை மற்றும் மங்கலான கோடுகளால் குறிக்கப்பட்ட புவிசார் அரசியல் சூழலில் இந்த வரம்புகள் தேவையற்ற கட்டுப்பாடுகள் என ஹெக்செத் மற்றும் DoD பின்னுக்குத் தள்ளப்பட்டது.
அமெரிக்க இராணுவத்தால் AI மாதிரிகளின் “எந்தவொரு சட்டபூர்வமான பயன்பாட்டையும்” பொறுப்பான AI உள்ளடக்கியிருக்க வேண்டும் என்று அவர்கள் வலியுறுத்துகின்றனர். ஜனவரி 9, 2026 அன்று ஹெக்சேத் வெளியிட்ட ஒரு குறிப்பேடு கூறியது:
பன்முகத்தன்மை, சமத்துவம் மற்றும் உள்ளடக்கம் மற்றும் சமூக சித்தாந்தம் ஆகியவை போர்த் துறையில் இடமில்லை, எனவே பயனர் கோரிக்கைகளுக்கு புறநிலை உண்மையுள்ள பதில்களை வழங்கும் திறனில் தலையிடும் கருத்தியல் “மாற்றங்களை” உள்ளடக்கிய AI மாதிரிகளை நாங்கள் பயன்படுத்தக்கூடாது.
180 நாட்களுக்குள் AI சேவைகளுக்கான எதிர்கால DoD ஒப்பந்தங்களில் “எந்தவொரு சட்டபூர்வமான பயன்பாடு” என்ற வார்த்தை இணைக்கப்பட வேண்டும் என்று குறிப்பு அறிவுறுத்தியது.
ஆந்த்ரோபிக் போட்டியாளர்கள் வரிசையில் நிற்கிறார்கள்
ஆந்த்ரோபிக்கின் சிவப்புக் கோடுகள் பொதுவாக மனித சமூகங்கள்-அமெரிக்க குடிமக்கள் மீது வெகுஜன கண்காணிப்பைத் தடுக்கவில்லை. மேலும் இது முழு தன்னாட்சி ஆயுதங்களுக்கு மட்டுப்படுத்தப்பட்டிருந்தாலும், தார்மீகக் கட்டுப்பாட்டிற்கான வாய்ப்புகளை கடுமையாகக் கட்டுப்படுத்தும் வழிகளில் வன்முறையைத் தெரிவிக்க, முடுக்கி அல்லது பெருக்க AI இன் பரிணாம வளர்ச்சியின் பயன்பாடுகள் அதன் ஏற்றுக்கொள்ளக்கூடிய பயன்பாட்டுக் கொள்கையில் குறிப்பிடப்படவில்லை.
இப்போது, ஆந்த்ரோபிக் ஒரு போட்டி நன்மையைக் கொண்டுள்ளது. உங்கள் LLM மாதிரியானது US அரசாங்க இடைமுகங்களில் ஒரு சிறந்த தயாரிப்பை வழங்குவதற்கு போதுமான அளவிலான அங்கீகாரத்துடன் ஒருங்கிணைக்கப்பட்டுள்ளது. ஆனால் ஆந்த்ரோபிக்கின் போட்டியாளர்கள் வரிசையில் விழுகின்றனர்.
பலந்திர் சமீபத்திய மாதங்களில் பென்டகனுடன் தனது வணிகத்தை கணிசமாக விரிவுபடுத்தியுள்ளது, மேலும் AI மாடல்களுக்கு வழிவகுத்தது.
இதற்கிடையில், கூகிள் சமீபத்தில் அதன் நெறிமுறை வழிகாட்டுதல்களை புதுப்பித்தது, ஆயுத மேம்பாடு மற்றும் கண்காணிப்புக்கு AI ஐப் பயன்படுத்த மாட்டோம் என்ற வாக்குறுதியை கைவிட்டது. OpenAI அதன் பணி அறிக்கையை மாற்றியமைத்தது, “பாதுகாப்பு” ஒரு முக்கிய மதிப்பாக நீக்கப்பட்டது, மேலும் எலோன் மஸ்கின் xAI (க்ரோக் சாட்போட்டை உருவாக்கியவர்) பென்டகனின் “எந்தவொரு சட்டபூர்வமான பயன்பாடு” தரத்தையும் ஒப்புக்கொண்டது.
இராணுவ AIக்கான சோதனைப் புள்ளி
சி.எஸ். லூயிஸைப் பொறுத்தவரை, தைரியம் முதன்மையான நல்லொழுக்கமாக இருந்தது, ஏனெனில் இது “சோதனை கட்டத்தில் உள்ள அனைத்து நல்லொழுக்கங்களின் வடிவத்தையும்” குறிக்கிறது. ஆந்த்ரோபிக் இப்போது இந்த சோதனைப் புள்ளியை எதிர்கொள்கிறது.
பிப்ரவரி 24 அன்று, நிறுவனம் அதன் பொறுப்பான அளவிடுதல் கொள்கைக்கான சமீபத்திய புதுப்பிப்பை அறிவித்தது – “AI அமைப்புகளிலிருந்து பேரழிவு அபாயங்களைத் தணிக்க நாங்கள் பயன்படுத்தும் தன்னார்வ கட்டமைப்பு.” டைம் இதழின் படி, மாற்றங்கள் “ஆன்ட்ரோபிக் சரியான இடர் குறைப்புகளுக்கு முன்கூட்டியே உத்தரவாதம் அளிக்க முடியாவிட்டால், AI மாதிரிகளை வெளியிட மாட்டோம் என்ற வாக்குறுதியை நீக்குவது” அடங்கும்.
Anthropic இன் தலைமை அறிவியல் அதிகாரி, Jared Kaplan, Time இடம் கூறினார்: “AI இன் விரைவான முன்னேற்றத்துடன், போட்டியாளர்கள் முழு நீராவி முன்னோக்கி நகர்ந்தால், ஒருதலைப்பட்சமான அர்ப்பணிப்புகளை (…) மேற்கொள்வது அர்த்தமுள்ளதாக நாங்கள் நினைக்கவில்லை.”
நெறிமுறை மொழியானது சிலிக்கான் வேலி நிறுவனங்களின் பத்திரிகை வெளியீடுகளை தங்கள் சகாக்களிடமிருந்து தங்களை வேறுபடுத்திக் கொள்ள ஆர்வமாக உள்ளது. “கெட்ட நடிகர்கள்” ரஷ்யா, சீனா மற்றும் பிற இடங்களில். இருப்பினும், நெறிமுறை வார்த்தைகள் மற்றும் செயல்கள் ஒரே விஷயம் அல்ல, ஏனெனில் பிந்தையது பெரும்பாலும் நிஜ உலக செலவைக் கொண்டுள்ளது.
இப்போது இப்படியொரு பொதுக்கூட்டம் நடைபெறுவது தற்செயலானது அல்ல. பிப்ரவரி தொடக்கத்தில், பல நாடுகளின் பிரதிநிதிகள் – ஆனால் அமெரிக்கா அல்ல – இராணுவ களத்தில் “பொறுப்பான AI” உடன்பாட்டை எட்டுவதற்கான வழிகளைக் கண்டறிய மூன்றாவது முறையாக சந்தித்தனர். மார்ச் 2 முதல் 6 வரை, ஐ.நா. தனது சமீபத்திய மாநாட்டைக் கூட்டி, ஆபத்தான தன்னாட்சி ஆயுத அமைப்புகளுக்கு வளர்ந்து வரும் தொழில்நுட்பங்களைப் பயன்படுத்துவதை எவ்வாறு கட்டுப்படுத்துவது என்பது பற்றி விவாதிக்கும்.
போரின் எதிர்காலத்தில் AI தொழில்நுட்பத்தின் பங்கு பற்றிய இந்த சட்ட மற்றும் நெறிமுறை விவாதங்கள் அடிப்படை மற்றும் நீண்ட கால தாமதம் ஆகும். அமெரிக்க இராணுவம் அதன் நெறிமுறை வழிகாட்டுதல்களை குறைமதிப்பிற்கு உட்படுத்தும் முயற்சிகளை வெளிப்படையாக எதிர்த்ததற்காக ஆந்த்ரோபிக் பெருமைக்குரியது. ஆனால் ஒரு உடன்பாடு எட்டப்படுவதற்கு முன், AI இன் பங்கு வேறு பல மோதல் சூழ்நிலைகளில் சோதிக்கப்பட வாய்ப்புள்ளது.
இந்தக் கட்டுரையிலிருந்து பயனடையும் எந்தவொரு நிறுவனம் அல்லது நிறுவனத்திடமிருந்தும் ஆசிரியர்கள் ஆலோசனை செய்யவோ, வேலை செய்யவோ, சொந்தமாகப் பங்குகள் பெறவோ அல்லது நிதியுதவி பெறவோ மாட்டார்கள் மற்றும் அவர்களின் கல்வி நிலைகளுக்கு அப்பால் தொடர்புடைய உறவுகளை வெளிப்படுத்தவில்லை.
Source link


-1hr86i1jjgfn8.jpg?w=390&resize=390,220&ssl=1)
