எலோன் மஸ்க்கின் க்ரோக் AI ஆனது ‘குறைந்தபட்ச ஆடையில் சிறார்களின்’ படங்களை உருவாக்குகிறது | AI (செயற்கை நுண்ணறிவு)

எலோன் மஸ்க்சமூக ஊடக தளமான X இல் “குறைந்தபட்ச ஆடைகளில் சிறார்களை சித்தரிக்கும் படங்களை” உருவாக்குவதற்கு பாதுகாப்புக்களில் ஏற்பட்ட குறைபாடுகள் வழிவகுத்தன என்று க்ரோக் என்ற சாட்போட் வெள்ளிக்கிழமை வெளியிட்டது. chatbotமஸ்க்கின் நிறுவனமான xAI இன் தயாரிப்பு, பயனர் தூண்டுதல்களுக்கு பதிலளிக்கும் வகையில் வாரம் முழுவதும் பாலியல் படங்கள் அலைவரிசையை உருவாக்கி வருகிறது.
பயனர்களால் பகிரப்பட்ட ஸ்கிரீன்ஷாட்கள் எக்ஸ் க்ரோக்கின் பொது ஊடகத் தாவலைப் போன்ற படங்கள் நிரப்பப்பட்டதைக் காட்டியது. எதிர்கால சம்பவங்களைத் தடுக்கும் வகையில் அதன் அமைப்புகளை மேம்படுத்தும் பணியில் ஈடுபட்டுள்ளதாக xAI தெரிவித்துள்ளது.
“குறைந்தபட்ச ஆடைகளில் சிறார்களை சித்தரிக்கும் AI படங்களை பயனர்கள் தூண்டி, பெற்ற தனிமைப்படுத்தப்பட்ட வழக்குகள் உள்ளன” என்று க்ரோக் கூறினார். பதவி ஒரு பயனருக்கு பதில் X இல். “xAI க்கு பாதுகாப்புகள் உள்ளன, ஆனால் இதுபோன்ற கோரிக்கைகளை முற்றிலுமாகத் தடுப்பதற்கான மேம்பாடுகள் நடந்து வருகின்றன.”
“குறிப்பிட்டபடி, பாதுகாப்பில் உள்ள குறைபாடுகளை நாங்கள் கண்டறிந்துள்ளோம், அவற்றை அவசரமாக சரிசெய்து வருகிறோம் – CSAM சட்டவிரோதமானது மற்றும் தடைசெய்யப்பட்டுள்ளது,” xAI வெளியிடப்பட்டது X இல் உள்ள @Grok கணக்கிற்கு, குழந்தை பாலியல் துஷ்பிரயோகம் தொடர்பான விஷயத்தைக் குறிப்பிடுகிறது.
X இல் உள்ள பல பயனர்கள், சமீபத்திய நாட்களில், பாலியல் ரீதியாக, சம்மதமற்ற AI-மாற்றப்பட்ட படங்களை உருவாக்க Grok ஐத் தூண்டியுள்ளனர், சில சமயங்களில் அவர்களின் அனுமதியின்றி அவர்களின் ஆடைகளை அகற்றினர். வியாழன் அன்று மஸ்க் தனது பிகினியில் இருக்கும் ஒரு AI புகைப்படத்தை மறுபதிவு செய்துள்ளார், அழுகை-சிரிக்கும் எமோஜிகளுடன் தலைப்பிடப்பட்டது.
க்ரோக்கின் தலைமுறை பாலுறவுப் படங்கள் பாதுகாப்புப் பந்தல்கள் இல்லாததாகத் தோன்றின, இது சிறார்களை அதன் இடுகைகளில், பொதுவாக பெண்கள், சிறிய ஆடைகளை அணிந்து, சாட்போட்டின் இடுகைகளில் இடம்பெற அனுமதிக்கிறது. வியாழன் அன்று X இல் ஒரு பயனருக்கு அளித்த பதிலில், மேம்பட்ட வடிப்பான்கள் மற்றும் கண்காணிப்பு மூலம் பெரும்பாலான நிகழ்வுகளைத் தடுக்க முடியும் என்று Grok கூறினார், இருப்பினும் “எந்த அமைப்பும் 100% முட்டாள்தனமானதல்ல” என்று கூறியது, மேலும் xAI மேம்பாடுகளுக்கு முன்னுரிமை அளித்து பயனர்கள் பகிர்ந்துள்ள விவரங்களை மதிப்பாய்வு செய்கிறது.
மின்னஞ்சல் மூலம் கருத்து தெரிவிக்க தொடர்பு கொண்டபோது, xAI ஆனது “Legacy Media Lies” என்ற செய்தியுடன் பதிலளித்தது.
குழந்தை பாலியல் துஷ்பிரயோகம் தொடர்பான தகவல்களை உருவாக்க AI பயன்படுத்தப்படுவதில் உள்ள பிரச்சனை நீண்டகால பிரச்சினையாக உள்ளது செயற்கை நுண்ணறிவு தொழில். 2023 ஸ்டான்போர்ட் ஆய்வு கண்டுபிடிக்கப்பட்டது பல பிரபலமான AI இமேஜ்-ஜெனரேஷன் கருவிகளைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவுத்தொகுப்பில் 1000 CSAM படங்கள் உள்ளன. சிறுவர் துஷ்பிரயோகம் பற்றிய படங்களின் மீது AI பயிற்சியளிப்பது, குழந்தைகள் சுரண்டப்படுவதைப் பற்றிய புதிய படங்களை உருவாக்க மாதிரிகளை அனுமதிக்கும் என்று நிபுணர்கள் கூறுகின்றனர்.
க்ரோக் தனது பாதுகாப்புத் தடுப்புகளைப் பராமரிக்கத் தவறிய வரலாறு மற்றும் தவறான தகவல்களைப் பதிவிட்ட வரலாறும் உள்ளது. கடந்த ஆண்டு மே மாதம், Grok பற்றி இடுகையிடத் தொடங்கினார் “வெள்ளை இனப்படுகொலையின்” தீவிர வலதுசாரி சதி தென்னாப்பிரிக்காவில் கருத்துடன் தொடர்பில்லாத இடுகைகளில். க்ரோக் கற்பழிப்பு கற்பனைகளை இடுகையிடத் தொடங்கிய பின்னர் ஜூலை மாதம் xAI மன்னிப்புக் கேட்டது ஆண்டிசெமிடிக் பொருள்உட்பட தன்னை “மெக்காஹிட்லர்” என்று அழைத்துக் கொள்கிறது மற்றும் நாஜி சித்தாந்தத்தைப் போற்றுதல். இருப்பினும் நிறுவனம் பாதுகாப்பானது சம்பவத்திற்கு ஒரு வாரத்திற்குப் பிறகு அமெரிக்க பாதுகாப்புத் துறையுடன் கிட்டத்தட்ட 200 மில்லியன் டாலர் ஒப்பந்தம்.
Source link


