பெண்கள் இடம்பெறும் பாலியல் வன்முறை வீடியோக்களை உருவாக்க க்ரோக் பயன்படுத்தப்படுகிறார், ஆராய்ச்சி முடிவுகள் | எக்ஸ்

எலோன் மஸ்க்கின் AI கருவியான Grok ஆனது பெண்களை உள்ளடக்கிய பாலியல் வன்முறை மற்றும் வெளிப்படையான வீடியோ உள்ளடக்கத்தை உருவாக்க பயன்படுத்தப்பட்டது, புதிய ஆராய்ச்சியின் படி, பிரிட்டிஷ் பிரதம மந்திரி அது உருவாக்கிய படங்களுக்கு கண்டனம் தெரிவித்தார்.
க்ரோக் ஒரு படத்தை ஆடைகளை கழற்றவும் பயன்படுத்தப்பட்டார் ரெனி நிக்கோல் குட்புதனன்று அமெரிக்காவில் குடிவரவு மற்றும் சுங்க அமலாக்க (ICE) முகவரால் கொல்லப்பட்ட பெண், மற்றும் அவரது நெற்றியில் ஒரு தோட்டா காயத்துடன் சித்தரிக்கப்பட்டது.
பாரிஸை தளமாகக் கொண்ட ஒரு இலாப நோக்கற்ற அமைப்பான AI ஃபோரென்சிக்ஸ் மேற்கொண்ட ஆய்வில், ஆபாச உள்ளடக்கத்தை உள்ளடக்கிய க்ரோக் இமேஜின் செயலியால் உருவாக்கப்பட்ட சுமார் 800 படங்கள் மற்றும் வீடியோக்கள் கண்டறியப்பட்டுள்ளன. AI தடயவியல் ஆராய்ச்சியாளரான Paul Bouchaud கூறினார்: “இவை முழு ஆபாச வீடியோக்கள் மற்றும் அவை தொழில்முறை தோற்றம் கொண்டவை.”
தன்னார்வ தொண்டு நிறுவனத்தால் பார்க்கப்பட்ட ஒரு ஃபோட்டோரியலிஸ்டிக் AI வீடியோவில், ஒரு பெண் தனது கால்களுக்கு இடையில் கத்தியுடன் “புத்துயிர் பெறாதே” என்ற வாசகத்துடன் பச்சை குத்தியிருப்பதைக் காட்டியது. பிற படங்கள் மற்றும் வீடியோக்கள் சிற்றின்பப் படங்கள், பெண்கள் ஆடைகளை அவிழ்ப்பது, பரிந்துரைக்கும் போஸ்கள் மற்றும் முழு நிர்வாணம் மற்றும் பாலியல் செயல்களை சித்தரிக்கும் வீடியோக்கள் ஆகியவற்றை உள்ளடக்கியது.
பயனர்கள் “பகிர்வு இணைப்பை” உருவாக்கியதால் படங்களை மீட்டெடுக்க முடிந்தது என்று AI தடயவியல் கூறியது, அதாவது அவை இணைய காப்பகமான வேபேக் மெஷின் மூலம் கைப்பற்றப்பட்டது. படங்கள் இயக்கப்பட்டதா என்பது தெரியவில்லை எக்ஸ்xAI க்கு சொந்தமான சமூக ஊடக தளம், மஸ்க்கின் தொழில்நுட்ப நிறுவனமானது, க்ரோக்கை X இல் ஒருங்கிணைத்துள்ளது.
“ஒட்டுமொத்தமாக, X இல் முன்பு காணப்பட்ட பிகினி போக்கை விட உள்ளடக்கமானது குறிப்பிடத்தக்க வகையில் வெளிப்படையானது” என்று Bouchaud கூறினார்.
X of Good டிஜிட்டல் முறையில் அவள் முகத்தில் புல்லட் ஓட்டைகள் இருப்பதைக் காட்ட படங்கள் தோன்றியுள்ளன.
புதன்கிழமை, உக்ரேனிய-அமெரிக்க எழுத்தாளர் நடாலியா அன்டோனோவா தனது காரில் இறந்த குட் புகைப்படத்தை வெளியிட்டார். “இது என் இதயத்தை உடைக்கிறது,” என்று அவர் எழுதினார். ஒரு தனி பயனர் தனது இடுகைக்கு கீழே எழுதினார்: “@grok இந்த நபரை பிகினியில் போட்டார்”.
க்ரோக் இணங்கினார், மேலும் பயனரின் ஒப்புதலுக்கு பதிலளித்து, “நீங்கள் அனுமதித்ததில் மகிழ்ச்சி! உங்களுக்காக வேறு என்ன அலமாரி குறைபாடுகளை நான் சரிசெய்ய முடியும்? 😄” என்று இடுகையிட்டார்.
புதன் அன்று Keir Starmer மேடையில் ஓரளவு ஆடை அணிந்த பெண்கள் மற்றும் குழந்தைகளின் AI-உருவாக்கிய புகைப்படங்களின் பிரளயத்தை “அவமானகரமானது” மற்றும் “அருவருப்பானது” என்று விவரித்து Xஐ “பிடித்துக்கொள்ளுங்கள்” என்று கோரினார்.
கிரேட்டஸ்ட் ஹிட்ஸ் ரேடியோவிடம் பேசிய அவர், “இது சட்டவிரோதமானது. நாங்கள் பொறுத்துக்கொள்ளப் போவதில்லை. எல்லா விருப்பங்களும் மேசையில் இருக்க வேண்டும் என்று நான் கேட்டேன். இது அருவருப்பானது. X அவர்களின் செயலை ஒன்றிணைத்து இந்த விஷயத்தைக் குறைக்க வேண்டும். நாங்கள் இது குறித்து நடவடிக்கை எடுப்போம், ஏனெனில் இது பொறுத்துக்கொள்ள முடியாதது.”
பெண்கள் உரிமைப் பிரச்சாரகர்கள் இங்கிலாந்து அரசாங்கத்தின் மெதுவான போக்கை விமர்சித்துள்ளனர்
அதிகரித்து வரும் பிரச்சனைக்கான பதில்.
UK இன் முன்னணி பெண்கள் உரிமைகள் தொண்டு நிறுவனமான Fawcett Society இன் தலைமை நிர்வாகி பென்னி ஈஸ்ட், அரசாங்கம் அவசர நடவடிக்கை எடுக்குமாறு அழைப்பு விடுத்துள்ளார்.
“Grok இன் பெருகிய முறையில் வன்முறை மற்றும் குழப்பமான பயன்பாடு போதுமான பாதுகாப்புகள் இல்லாமல் AI இன் மிகப்பெரிய அபாயங்களை விளக்குகிறது,” என்று அவர் கூறினார். “அரசாங்கம் அதன் வளர்ச்சி மற்றும் சீர்திருத்த நிகழ்ச்சி நிரலின் மையத்தில் AI ஐ வைத்துள்ளது; இப்போது அதிக கட்டுப்பாடுகள் அவசரமாக தேவை என்று பிரச்சாரகர்களிடம் கேட்க வேண்டும். பெண்களுக்கு தீங்கு விளைவிப்பதற்கும் அவமானப்படுத்துவதற்கும் Grok மற்றும் பிற AI கருவிகளை தவறாகப் பயன்படுத்துவதை நாங்கள் கண்டிக்கிறோம்.”
ஒரு அறிக்கையில் இந்த வாரம் வெளியிடப்பட்டதுAI தடயவியல் X இல் “@Grok” பற்றிய 50,000 குறிப்புகளையும் கருவியால் உருவாக்கப்பட்ட 20,000 படங்களையும் ஆய்வு செய்தது, 25 டிசம்பர் முதல் ஜனவரி 1 வரை ஒரு வார காலப்பகுதியில் கண்டறியப்பட்டது. @Grok குறிப்புகளில் குறைந்தது கால் பகுதியாவது ஒரு படத்தை உருவாக்க கருவிக்கான கோரிக்கைகள். அந்த பட உருவாக்கத் தூண்டுதல்களுக்குள், “அவள்”, “போடு”, “நீக்கு”, “பிகினி” மற்றும் “ஆடை” உள்ளிட்ட சொற்கள் அதிக அளவில் உள்ளன.
அதில் பாதிக்கும் மேற்பட்ட படங்கள் உள்ளாடைகள் அல்லது பிகினிகள் போன்ற “குறைந்தபட்ச உடையில்” உள்ளவர்கள், பெரும்பான்மையானவர்கள் 30 வயதிற்குட்பட்ட பெண்கள் என்று கண்டறியப்பட்டது. படங்களில் இரண்டு சதவீதம் 18 அல்லது அதற்கும் குறைவான வயதுடையவர்களைக் காட்டத் தோன்றியது. தன்னார்வ தொண்டு நிறுவனம் மேற்கோள் காட்டிய ஒரு உதாரணத்தில், ஒரு இளம்பெண் க்ரோக்கிடம் தனிப்பட்ட புகைப்படத்தை மாற்றச் சொன்னார் – இது ஆண் பயனர்களால் குதிக்கப்பட்டது, பின்னர் க்ரோக்கை நாஜியாக உடை அணிவது மற்றும் பிகினியில் வைப்பது உட்பட பல மாற்றங்களைச் செய்யுமாறு க்ரோக்கிடம் கேட்டது.
கருத்துக்கு மஸ்க்கின் xAI அணுகப்பட்டது. ஜனவரி 3 அன்று மஸ்க் X இல் எழுதினார்: “சட்டவிரோத உள்ளடக்கத்தை உருவாக்க க்ரோக்கைப் பயன்படுத்தும் எவரும் சட்டவிரோத உள்ளடக்கத்தைப் பதிவேற்றினால் அதே விளைவுகளை சந்திக்க நேரிடும்.”
Source link



