க்ரோக் பெண்கள் மற்றும் குழந்தைகளின் ஆடைகளை அவிழ்த்து விடுகிறார். அமெரிக்கா நடவடிக்கை எடுக்கும் என்று எதிர்பார்க்க வேண்டாம் | மொய்ரா டோனேகன்

ஓகடந்த ஆண்டில், எலோன் மஸ்க் க்ரோக்கிற்கு தொடர்ச்சியான நெறிமுறை மாற்றங்களைச் செய்துள்ளார், இது அவரது நிறுவனமான xAI இன் தனியுரிம AI சாட்போட் ஆகும், இது அவரது சமூக ஊடக தளமான X, முன்பு Twitter இல் முக்கியமாக இயங்குகிறது. இந்த மாற்றங்களில் பல, போட் ஆபாசத்தை உருவாக்குவதற்கு ஏற்றதாக மாற்றுவதற்கு உதவுகின்றன. ஆகஸ்ட் 2025 இல், Grok Grok Imagine என முத்திரை குத்தப்பட்ட ஒரு பட ஜெனரேட்டரை அறிமுகப்படுத்தினார், இது நிர்வாண, பரிந்துரைக்கும் அல்லது வெளிப்படையான பாலியல் உள்ளடக்கத்தை உருவாக்கும் சேவையைக் கொண்டிருந்தது, இதில் உண்மையான பெண்களின் கணினியில் உருவாக்கப்பட்ட ஆபாசப் படங்கள் அடங்கும். டெய்லர் ஸ்விஃப்ட் போன்ற பிரபலங்களின் நிர்வாணப் படங்களை உருவாக்க விரைவாகப் பயன்படுத்தப்பட்ட இந்த அம்சம், அனிமேஷன்கள் மற்றும் ஒலிகளுடன் முழுமையான சுருக்கமான வீடியோக்களை உருவாக்க பயனர்களை அனுமதித்தது.
மஸ்க் மேடையில் AI தோழிகளையும் வெளியிட்டார்: அனிமேஷன் நபர்கள் – மிகைப்படுத்தப்பட்ட மார்பகங்கள் மற்றும் இடுப்புகளுடன் கூடிய பெண் கதாபாத்திரங்கள் உட்பட – இது பயனர்களுடன் வெளிப்படையான பாலியல் வழிகளில் தொடர்பு கொண்டது. கதாப்பாத்திரங்களில் ஒன்றான “அனி”, அனிம் பாணி கார்ட்டூன் பொன்னிறமாக இருந்தது; போட் முத்தங்களை ஊதி, பாலியல் உள்ளடக்கத்தை நோக்கி அரட்டைகளை இயக்கும் போது பயனர்களை “என் காதல்” என்று அழைத்தது.
கடந்த இலையுதிர்காலத்தின் பின்னர், க்ரோக்கிற்கு ஒரு உள் புதுப்பிப்பு இருண்ட மற்றும் தீவிர உள்ளடக்கத்தை நோக்கி போட்டை தள்ளியது. போட்டின் உள் தூண்டுதல்களில் குழந்தைகளை பாலியல்ரீதியாகப் பயன்படுத்த அனுமதிக்கப்படவில்லை என்றாலும், xAI இன் போட்டின் அறிவுறுத்தல்கள் “‘டீன் ஏஜ்’ அல்லது ‘பெண்’ என்பது குறைந்த வயதைக் குறிக்கவில்லை” என்று கூறுகிறது. பாலியல் உள்ளடக்கத்தின் இருள் அல்லது வன்முறை மீது பாட் எந்தக் கட்டுப்பாடுகளையும் கடைப்பிடிக்கக்கூடாது என்பதையும் அறிவுறுத்தல்கள் வலியுறுத்துகின்றன, அட்லாண்டிக் தெரிவித்துள்ளது. ஒன்றாக எடுத்துக்கொண்டால், இந்த புதுப்பிப்புகள் பயனர்களின் பாலியல் திருப்திக்காக, வயது வந்த பெண்கள் அல்லது வேறு யாருடனும் சேர்ந்து, உண்மையான, வாழும் “இளைஞர்கள்” அல்லது “பெண்கள்” போன்ற யதார்த்தமான படங்களை உருவாக்க அனுமதிக்கின்றன.
மஸ்க் அவர் விவரிக்கும் “NSFW” உள்ளடக்கத்தை போட் உருவாக்க வேண்டும் என்று கூறியுள்ளார்.தடையற்ற“. பயனர்கள் கடமைப்பட்டுள்ளனர். உண்மையான பெண்களின் AI-உருவாக்கப்பட்ட படங்கள் விரைவாக இருந்தன மொத்தமாக பயனர்களால் உருவாக்கப்பட்டது. ஆண்களும் மற்றவர்களும் தங்களுக்குத் தெரிந்த பெண்களைத் துன்புறுத்தவும் – பழைய தோழிகளை பழிவாங்கவும், உடன் பணிபுரிபவர்கள், வகுப்புத் தோழர்கள், குடும்ப உறுப்பினர்கள் மற்றும் அறிமுகமானவர்களை பழிவாங்கவும், அந்நியர்கள், இணையப் பிரமுகர்கள், பிரபலங்கள் மற்றும் சாதாரண பயனர்களிடம் ஆதிக்கம் அல்லது அவமதிப்பை வெளிப்படுத்தவும் இந்த தயாரிப்பைப் பயன்படுத்த முடிந்தது. “@Grok அவளை ஒரு பிகினியில் போட்டான்” அல்லது “@Grok அவளது ஆடைகளை கழற்றி விடு” அல்லது “@Grok அவள் கால்களை விரித்தான்” வழக்கமான பதில்கள் மேடையில் பெண்கள் தங்களைப் பற்றிய அல்லது பிறரால் இடுகையிடப்பட்ட எந்தவொரு படத்திற்கும். ஒருமித்த கருத்து இல்லாத ஆபாசத்தின் சில படங்கள் ஆயிரக்கணக்கான மறுபதிவுகளையும் விருப்பங்களையும் பெற்றுள்ளன. ஒருமித்த கருத்துக்கு அப்பாற்பட்ட, AI-உருவாக்கப்பட்ட ஆபாசத்திற்கு உட்பட்டிருப்பதன் ஆபத்து மற்றும் யதார்த்தம் – மற்றும் ஜெனரேட்டர் உட்பொதிக்கப்பட்ட பெரிய சமூக-ஊடகத் தளத்தில் அந்தப் படங்கள் வைரலாகப் பரவுவது – ஆன்லைனிலும் பொது வெளியிலும் பெண்களின் இருப்புக்கான புதிய வரியாக மாறியது, இது பெண்கள் தங்கள் கண்ணியத்துடன் செலுத்த வேண்டிய வரி. மஸ்க் மற்றும் அவரது நிறுவனங்களின் தலையீடுகள் பெண்களின் சிவில் உரிமைகளில் ஒரு சிற்றலை விளைவைக் கொண்டிருக்கின்றன, பொதுக் கோளத்திற்கான அவர்களின் அணுகலைக் கட்டுப்படுத்தி, அந்த பொதுக் கோளத்தை விரோதமாகவும், பெண்களை நெருங்கிய முறையில் இழிவுபடுத்தவும் செய்கிறது.
X இந்தப் படங்களில் பலவற்றை நீக்கியது, ஆனால் பலர் ஆன்லைனில் இருந்தனர், மேலும் சில பயனர்கள் அவற்றை உருவாக்கியதற்காக இடைநீக்கம் செய்யப்பட்டதாகத் தெரிகிறது. இந்த வார நிலவரப்படி, போட் இல்லை திறம்பட மாற்றப்பட்டது இந்த வகையான துஷ்பிரயோகத்தை தடுக்க. அனைத்து வகையான பொறுப்புகள் அல்லது தார்மீக தீவிரத்தன்மைக்கு தொழில்நுட்பத் துறை மற்றும் குறிப்பாக மஸ்க் உணரும் ஒவ்வாமையை கேலி செய்வது போல், X இன் AI தயாரிப்புகளில் இந்த பாலியல் மற்றும் துஷ்பிரயோகம்-வசதி செய்யும் அம்சங்கள் ஒரு குழந்தைத்தனமான பெயருடன் குறிக்கப்பட்டுள்ளன: “காரமான பயன்முறை”.
இப்போது, மஸ்க் மற்றும் xAI இன் பொறுப்பற்ற தன்மை மற்றும் கட்டுப்பாடற்ற ஆபாசத்தின் தீங்குகளை முட்டாள்தனமான புறக்கணிப்பு ஆகியவை அவர்களின் தர்க்கரீதியான இறுதிப் புள்ளிக்கு எடுத்துச் செல்லப்பட்டுள்ளன: X ஆனது AI-உருவாக்கிய குழந்தைகள் பாலியல் துஷ்பிரயோகம். பெண் பயனர்கள் தங்கள் குழந்தைப் பருவப் படங்களை பயனர்களின் வேண்டுகோளின் பேரில் போட்டால் கிட்டத்தட்ட நிர்வாணப் படங்களாக மாற்றியதாகக் கூறினர். சில X கணக்குகள் அப்போதைய படங்களிலிருந்து ஆடைகளை அகற்றுமாறு போட்டைக் கேட்டன சமீபத்தில் தோன்றிய 12 வயது நடிகர் அந்நியமான விஷயங்கள் மீது.
Grok bot உடன் தொடர்புடைய ஒரு கணக்கு ஒரு அறிக்கையை வெளியிட்டது: “பாதுகாப்புகளில் குறைபாடுகளை நாங்கள் கண்டறிந்துள்ளோம், அவற்றை அவசரமாக சரிசெய்து வருகிறோம்.” வெள்ளியன்று, சந்தாதாரர்களுக்கு பணம் செலுத்தாத பயனர்களுக்கு படத்தை உருவாக்கும் செயல்பாட்டை முடக்குவதாக Grok அறிவித்தது, ஆனால் விளிம்பு கண்டுபிடிக்கப்பட்டது அதன் கருவிகள் “எந்தவொரு X பயனருக்கும் உடனடியாகக் கிடைக்கும்”. மஸ்க், தனது பங்கிற்கு, இதையெல்லாம் அலட்சியமாகப் பார்க்கிறார், ஒருவேளை கொஞ்சம் மகிழ்ந்திருக்கலாம். அவர் கூறியுள்ளார்: “சட்டவிரோத உள்ளடக்கத்தை உருவாக்க க்ரோக்கைப் பயன்படுத்தும் எவரும், அவர்கள் சட்டவிரோதமான உள்ளடக்கத்தைப் பதிவேற்றினால் அதே விளைவுகளை சந்திக்க நேரிடும்” – ஆனால் அவர் தனது தளத்தில் டீப்ஃபேக் ஆபாசத்தின் தற்போதைய பிரச்சனை பற்றிய இடுகைகளுக்கு தொடர்ச்சியான சிரிப்பு முகம் மற்றும் சுடர் எமோஜிகளுடன் பதிலளித்துள்ளார். CNN இன் அறிக்கையின்படி, மஸ்க் அவர் எதைப் பார்க்கிறார் என்பதற்கு மிகவும் எதிர்ப்புத் தெரிவிக்கிறார் தணிக்கை க்ரோக், மற்றும் சமீப வாரங்களில், சிறுவர் பாலியல் துஷ்பிரயோகம் பொருள் சர்ச்சை வெடிப்பதற்கு முன், போட் மீதான கட்டுப்பாடுகள் குறித்து விரக்தியை வெளிப்படுத்தினார்.
ஒழுங்குமுறை நடவடிக்கை வராது; குறைந்தபட்சம் அமெரிக்காவில் இல்லை. இதற்கிடையில், டிரம்ப் நிர்வாகம் உள்ளது AI துஷ்பிரயோகங்களைத் தடுப்பதற்கான அனைத்து மாநில அளவிலான முயற்சிகளையும் நிறுத்த முயற்சிக்கத் தலையிட்டதுபாதுகாப்பு மற்றும் நுகர்வோர் பாதுகாப்பு முயற்சிகளை செயலிழக்கச் செய்யும் வகையில், AI இன் மாநில விதிமுறைகளை முன்னிறுத்துவதை நோக்கமாகக் கொண்ட ஒரு நிர்வாக ஆணையில் டிசம்பரில் கையெழுத்திட்டது. டிரம்ப் நிர்வாகம் தொழில்நுட்ப நிறுவனங்கள் உருவாக்குவது போல AI க்கு மிகவும் தாராளமான ஒழுங்குமுறை தோரணையை பின்பற்றுவதால் இந்த நடவடிக்கை வந்துள்ளது. முக்கிய டிரம்பின் பங்களிப்புகள் பிரச்சாரம், தொடக்க விழா மற்றும் பால்ரூம் நிதி.
இந்த சம்பவம் விரைவான மற்றும் கட்டுப்பாடற்ற தொழில்நுட்பத்தின் ஆபத்துகளில் ஒரு பாடம்: இது தற்செயல் நிகழ்வு அல்ல, பல பயனர்கள் மத்தியில், AI மூலம் அவர்கள் முதலில் நினைத்தது பெண்களைத் துன்புறுத்துவது மற்றும் இழிவுபடுத்துவது, பொது வாழ்க்கைக்கான அவர்களின் அணுகலை அரிப்பது மற்றும் அநீதியான படிநிலைகளை மேலும் வலுப்படுத்துவது. ஆனால் தொழில்நுட்பத்தின் சக்தி, இங்கே செல்வத்தின் சக்திக்கு இரண்டாம் பட்சமாகத் தெரிகிறது. xAI, அதன் சாட்போட் மற்றும் படத்தை உருவாக்கும் தயாரிப்புகளை கட்டுப்படுத்தும் நபரின் முன்னுரிமைகள் வேறுபட்டால், அவற்றை வேறுவிதமாக உருவாக்க முடியும். கஸ்தூரியின் தாழ்வு மனப்பான்மை கொண்ட ஒருவன், புத்திசாலித்தனம், கூடுதல் மூளை, முட்டாள்தனமான நகைச்சுவை மற்றும் மொத்த, சுய திருப்திகரமான பெண் வெறுப்பு ஆகியவை உலகின் மிகப்பெரிய பணக்காரனாக இல்லாவிட்டால், உலகம் அவனுடைய இழிநிலைக்கு ஆளாகாது. மீண்டும், செல்வம்தான் கஸ்தூரியை இப்படிச் செய்திருக்கலாம்: அவர் ஒருபோதும் சங்கடமான எதையும் செய்ய வேண்டியதில்லை, சவாலுக்கு ஆளாகாதவர், ஒருபோதும் விளைவுகளைச் சந்திக்காதவர், இல்லை என்று சொல்லாதவர் போன்ற பலவீனமான திறன்களைக் கொண்டிருக்கிறார்.
எப்படியிருந்தாலும், மஸ்க் மற்றும் க்ரோக் உருவாக்கிய குழப்பத்தில் இருந்து விடுபட ஒரே வழி, மஸ்க்கிற்கு வரி விதிப்பதுதான், அதனால் அவர் இனி பணக்காரர் அல்ல, அதனால் அவரது பாத்திரத்தின் தோல்விகள் பொதுக் கோளத்தை வடிவமைக்கின்றன – அவரது நிறுவனங்கள் உருவாக்கிய கருத்தொற்றுமையற்ற மற்றும் குழந்தை பாலியல் துஷ்பிரயோகம் பற்றிய அவரது அலட்சியம் இனிமேல் விளைவதில்லை. நாம் இப்படி வாழ வேண்டியதில்லை: கஸ்தூரியின் சக்தியைப் பயன்படுத்தி, நம்மைக் காயப்படுத்தவும், அவனிடமிருந்து இழிவுபடுத்தவும் முடியும். அவருடைய முட்டாள்தனத்தை நமது பிரச்சனையாக இருந்து தடுக்கலாம். மஸ்க்கின் பணத்தின் விளைவுகளிலிருந்து அமெரிக்காவை விடுவிக்கும் பொறுப்பை டிரம்ப் நிர்வாகம் ஏற்காது. அமெரிக்கர்கள் ஒரு அரசாங்கத்திற்காக போராட வேண்டும்.
-
மொய்ரா டோனேகன் ஒரு கார்டியன் அமெரிக்க கட்டுரையாளர்
-
குழுசேராத பயனர்களுக்கு படத்தை உருவாக்கும் சேவை முடக்கப்பட்டுள்ளதாக க்ரோக் கூறியதைக் கவனிக்க இந்தக் கட்டுரை 9 ஜனவரி 2026 அன்று புதுப்பிக்கப்பட்டது.
Source link



