‘இந்த ரயில் நிற்கப் போவதில்லை’: அதிர்ச்சியூட்டும் சன்டான்ஸ் திரைப்படம் AI இன் வாக்குறுதிகள் மற்றும் அபாயங்களைக் காட்டுகிறது | சன்டான்ஸ் 2026

ஏAI பேரழிவை நோக்கி நாம் போராடுகிறோமா? AI ஒரு இருத்தலியல் அச்சுறுத்தலா அல்லது ஒரு சகாப்த வாய்ப்பா? சன்டான்ஸில் ஒரு புதிய ஆவணப்படத்திற்கான மனதில் முதன்மையான கேள்விகள் இவை, இதில் முன்னணி AI நிபுணர்கள், விமர்சகர்கள் மற்றும் தொழில்முனைவோர், OpenAI CEO சாம் ஆல்ட்மேன் உட்பட, டூம் முதல் யூட்டோபியா வரையிலான இடைக்கால எதிர்காலத்தைப் பற்றிய பார்வைகளுடன்.
AI Doc: Or How I Became an Apocaloptimist, Daniel Roher மற்றும் Charlie Tyrell ஆகியோரால் இயக்கப்பட்டது மற்றும் டேனியல் குவான் (தி டேனியல்ஸின் ஒரு பாதி, எவ்ரிவேர் ஆல் அட் ஒன்ஸுக்குப் பின்னால் ஆஸ்கார் வென்ற இரட்டையர்) தயாரித்தது, ரோஹரின் சொந்த கவலையின் மூலம் AI இன் சர்ச்சைக்குரிய தலைப்பை ஆராய்கிறது. ஆவணப்படத்திற்காக 2023 இல் ஆஸ்கார் விருதை வென்ற கனடிய திரைப்பட தயாரிப்பாளர் நவல்னிசாட்போட் ChatGPTக்குப் பின்னால் உள்ள நிறுவனமான OpenAI ஆல் வெளியிடப்பட்ட கருவிகளைப் பரிசோதிக்கும் போது முதலில் தலைப்பில் ஆர்வம் ஏற்பட்டது. பொதுக் கருவிகளின் நுட்பம் – முழுப் பத்திகளையும் நொடிகளில் உருவாக்கும் திறன் அல்லது விளக்கப்படங்களை உருவாக்கும் திறன் – இரண்டுமே அவரைப் பரவசப்படுத்தியது மற்றும் பதற்றமடையச் செய்தது. AI ஏற்கனவே திரைப்படத் தயாரிப்புத் துறையை தீவிரமாக வடிவமைத்து வருகிறது, மேலும் AI இன் வாக்குறுதி மற்றும் ஆபத்து பற்றிய அறிவிப்புகள் எல்லா இடங்களிலும் இருந்தன, தொழில்நுட்பத் துறைக்கு வெளியே உள்ளவர்கள் அவற்றை மதிப்பிடுவதற்கு சிறிய வழியுடன். ஒரு கலைஞராக, அவர் ஆச்சரியப்பட்டார், அவர் எப்படி எல்லாவற்றையும் புரிந்துகொள்வார்?
அவரும் அவரது மனைவியும், சக திரைப்பட தயாரிப்பாளர் கரோலின் லிண்டியும் தங்கள் முதல் குழந்தையை எதிர்பார்க்கிறார்கள் என்பதை அறிந்தபோது ரோஹரின் கவலை அதிகரித்தது. “உலகம் முழுவதுமே யோசிக்காமல் ஏதோவொன்றில் விரைந்து செல்வது போல் உணர்ந்தேன்,” என்று அவர் படத்தில் கூறுகிறார், பெற்றோருக்கான அவரது உற்சாகம் AI இன் அறியப்படாத மாறியின் மீது பயத்துடன் மோதியது, இது சில குறுகிய ஆண்டுகளில் தனியுரிம பரிசோதனையிலிருந்து பொது நன்மைக்கு சென்றது.
AI ஆவணம் ரோஹரின் மிக அழுத்தமான கேள்வியிலிருந்து எழுகிறது: ஒரு குழந்தையை இந்த உலகத்திற்கு கொண்டு வருவது பாதுகாப்பானதா? க்வானுடன் இணைந்து, தொழில்நுட்பத்தின் இயக்கவியலை விளக்கவும் – மற்றும் சில மோசமான, அந்நியப்படுத்தும் சொற்களை தெளிவுபடுத்தவும் – மற்றும் ஒரு பதிலைத் தேடவும் ரோஹர் தொடர்ச்சியான நிபுணர்களைக் கூட்டினார். (உதாரணமாக, “AI என்றால் என்ன?” என்ற கேள்விக்கு எவரிடமும் தெளிவான பதில் இல்லை என்பது ஆறுதலளிக்கிறது மற்றும் கொஞ்சம் கவலை அளிக்கிறது). தனிப்பட்ட உள்ளிருப்பு நேர்காணல்களில், முன்னணி இயந்திர கற்றல் ஆராய்ச்சியாளர்களான Yoshua Bengio, Ilya Sutskever மற்றும் DeepMind இணை நிறுவனர் ஷேன் லெக் ஆகியோர் AI மாதிரிகளில் மனிதர்களால் புரிந்துகொள்ள முடியாத மற்றும் புரிந்துகொள்ள முடியாத அம்சங்கள் உள்ளன என்பதை ஒப்புக்கொள்கிறார்கள். ஒரு இயந்திர கற்றல் நிபுணர் கூறுவது போல், நிலையான AI மாதிரிகள் “பல வாழ்நாளில் யாரும் படிக்க முடியாத அளவுக்கு அதிகமான தரவு” மீது பயிற்சியளிக்கப்படுகின்றன. இயந்திர கற்றலின் வேகம் முன்னோடி அல்லது திரைப்படத்தை விட அதிகமாக உள்ளது. “இந்தத் திரைப்படத்தில் நீங்கள் வைக்கும் எந்த உதாரணமும், படம் வெளிவரும் நேரத்தில் முற்றிலும் விகாரமாகத் தோன்றும்,” என்று ஹ்யூமன் டெக்னாலஜி மையத்தின் இணை நிறுவனரும், அபோகாலிப்டிக் 2020 நெட்ஃபிக்ஸ் ஆவணப்படத்தின் முக்கிய குரலுமான டிரிஸ்டன் ஹாரிஸ் சமூக தடுமாற்றம்ரோஹர் கூறுகிறார்.
இந்தத் திரைப்படம் முதலில் டூமரிஸ்ட்கள் அல்லது AI சம்பந்தப்பட்ட நபர்களிடமிருந்து கேட்கிறது – மேலும் குறிப்பாக செயற்கை பொது நுண்ணறிவு (AGI), AI இன் இன்னும் தத்துவார்த்த வடிவம், அதன் திறன்கள் மனிதர்களை விட அதிகமாகும் – ஹாரிஸ் உட்பட மனிதகுலத்தை அழிக்க வழிவகுக்கும், மனிதநேய தொழில்நுட்ப மையத்தின் இணை நிறுவனர் அசா கோட்ராஸ்கி, அஜெயா கோட்ராஸ்கி, அஜெயா கோட்ராஸ்கி, அஜெயா ராஸ்கி அறிவுரை கூறினார். AI சீரமைப்பு முன்னோடி. இத்தகைய புள்ளிவிவரங்கள், மனிதர்கள் மிக எளிதாக அதிபுத்திசாலித்தனமான AI மாடல்களின் கட்டுப்பாட்டை இழக்க நேரிடும் என்று எச்சரிக்கின்றன. யுட்கோவ்ஸ்கியின் 2025 புத்தகம் அப்பட்டமாக யாரேனும் அதைக் கட்டினால், அனைவரும் இறந்துவிடுகிறார்கள்.
AI நிறுவனங்கள், AGI ஐ அடைவதன் விளைவுகளுக்குத் தயாராக இல்லை என்று அவர்கள் கூறுகிறார்கள், இது “இந்தப் பத்தாண்டுகளில் மனிதாபிமானமற்றதாக மாறக்கூடும்” என்று AI பாதுகாப்பு மையத்தின் இயக்குனர் டான் ஹென்ட்ரிக்ஸ் கூறுகிறார். மனிதர்கள் இனி பூமியில் மிகவும் புத்திசாலித்தனமான உயிரினங்களாக இருக்கக்கூடாது, அவர்கள் எச்சரிக்கிறார்கள், AGI இனங்கள் பொருத்தமற்றதாக கருதப்படலாம். EleutherAI இன் இணை நிறுவனர் கானர் லீஹி, சூப்பர் புத்திசாலித்தனமான AGI மற்றும் மனிதர்களின் எதிர்கால உறவை மனிதர்கள் மற்றும் எறும்புகளுடன் ஒப்பிட்டார்: “நாங்கள் எறும்புகளை வெறுக்கவில்லை. ஆனால் ஒரு எறும்புக்கு மேல் ஒரு நெடுஞ்சாலையை உருவாக்க விரும்பினால்” – “சரி, எறும்புக்கு உறிஞ்சும்.”
டூமர் முகாமில் உள்ள பலர், அவர்களில் பலருக்கு குழந்தைகள் இல்லை, பெற்றோரைப் பற்றிய ரோஹரின் கேள்விக்கு ஊக்கமளிக்கும் வகையில் எதிர்வினையாற்றுகிறார்கள். பார்க் சிட்டியின் முன்னோட்ட பார்வையாளர்களிடமிருந்து மூச்சுத் திணறலை ஏற்படுத்திய ஒரு வரியில், “தங்கள் குழந்தை உயர்நிலைப் பள்ளிக்கு வருவார் என்று எதிர்பார்க்காத AI ஆபத்தில் பணிபுரியும் நபர்களை நான் அறிவேன்.
மறுபுறம், XPRIZE அறக்கட்டளையின் நிறுவனர் பீட்டர் டயமண்டிஸ் போன்ற நம்பிக்கையான நபர்கள், மனித ஆயுளை நீட்டிக்க முயற்சி செய்கிறார்கள், “இன்று பிறக்கும் குழந்தைகள் புகழ்பெற்ற மாற்றத்தின் காலகட்டத்திற்குள் நுழைய உள்ளனர்” என்று கூறுகிறார்; Guillaume Verdon, சிலிக்கான் பள்ளத்தாக்கில் “பயனுள்ள முடுக்கம்” இயக்கத்தின் தலைவர்; பீட்டர் லீ, மைக்ரோசாஃப்ட் ஆராய்ச்சியின் தலைவர்; மற்றும் OpenAI போட்டியாளரான Anthropic இன் இணை நிறுவனர் மற்றும் தலைவர் Daniela Amodei. “முடுக்கவாதிகள்” என்று அழைக்கப்படுபவர்கள், AI ஐ மனிதகுலத்தை பாதிக்கும் எண்ணற்ற தீர்க்கமுடியாத பிரச்சினைகளுக்கு ஒரு சாத்தியமான சிகிச்சையாக பார்க்கிறார்கள்: புற்றுநோய், அதிகரித்து வரும் மக்கள்தொகைக்கு உணவு மற்றும் தண்ணீர் பற்றாக்குறை, போதுமான புதுப்பிக்கத்தக்க ஆற்றல் மற்றும் ஒருவேளை மிகவும் அழுத்தமான, காலநிலை அவசரநிலை. AI இல்லாமல், எண்ணற்ற எதிர்கால உயிர்கள் வறட்சி, பஞ்சம், நோய் மற்றும் இயற்கை பேரழிவுகளால் இழக்கப்படும் என்று அவர்கள் வாதிடுகின்றனர்.
எவ்வாறாயினும், AI இன் வளர்ச்சி கணினி ஆற்றலை நம்பியுள்ளது, இதற்கு அதிக அளவு ஆற்றல் தேவைப்படுகிறது. சாம் ஆல்ட்மேனின் OpenAI இல் Empire of AI: Dreams and Nightmares என்ற புத்தகத்தின் ஆசிரியரான Karen Hao, மற்றும் Liv Boeree, Win-Win podcast hos – போன்ற தொழில்நுட்ப உலகத்திற்கு வெளியே நேர்காணல் செய்பவர்கள், விமர்சகர்கள் மற்றும் பார்வையாளர்களின் இறுதிக் குழு – AI ஐ தரவு மையங்கள் போன்ற உறுதியான, இயற்பியல் உலகத்துடன் இணைக்கிறது. அமெரிக்காவின் மேற்கில் தண்ணீரை உறிஞ்சுகிறதுவானளாவிய மின் கட்டணங்கள் மற்றும் வடிகால் நீர்த்தேக்கங்களுடன் குடியிருப்பாளர்களை விட்டுச்செல்கிறது. கணக்கீட்டு மொழியியல் பேராசிரியரான எமிலி எம் பெண்டரின் கூற்றுப்படி, AI ஐச் சுற்றியுள்ள தற்போதைய விவரிப்புகள், அது ஏற்கனவே பாதிப்பை ஏற்படுத்தும் மக்களை விலக்கி, மனிதாபிமானமற்றதாக்குகிறது, மேலும் அது தொடர்ந்து சீர்குலைக்கும்.
ரோஹர் இறுதியாக AI ஆயுதப் பந்தயத்தில் முன்னணியில் இருக்கும் ஐந்து சக்திவாய்ந்த நபர்களை – அனைத்து ஆண்களையும் – ஆல்ட்மேன்; எலோன் மஸ்க், xAI CEO; Dario Amodei, மானுடவியல் தலைமை நிர்வாக அதிகாரி; Demis Hassabis of DeepMind மற்றும் Meta’s Mark Zuckerberg. Altman, Amodei மற்றும் Hassabis தங்கள் நிறுவனங்களின் அந்தந்த நிலைகளை அதிகமாகவோ அல்லது குறைவாகவோ பாதுகாக்கும் நேர்காணல்களுக்கு அமர்ந்துள்ளனர். படத்தின் படி, ஜுக்கர்பெர்க் பங்கேற்க மறுத்துவிட்டார்; மஸ்க் ஒப்புக்கொண்டார், ஆனால் பின்னர் மிகவும் பிஸியாகிவிட்டார்.
நேர்காணலின் போது தனது முதல் குழந்தையை எதிர்பார்த்துக் கொண்டிருந்த ஆல்ட்மேன், “AI உள்ள உலகில் ஒரு குழந்தை வளர பயப்படவில்லை” என்று வலியுறுத்துகிறார். அவரும் அவரது கணவர் ஆலிவர் முல்ஹெரினும் பிப்ரவரி 2025 இல் ஒரு வாடகை மூலம் தங்கள் மகனை வரவேற்றனர், ஒரு நிகழ்வு பின்னர் ஆல்ட்மேன் என்றார் அவரது மூளையை “நரம்பியல் ரீதியாக ஹேக்” செய்து, “ஒட்டுமொத்த மனிதநேயம்” என்று வரும்போது, OpenAI மற்றும் ChatGPTக்கு “சிறந்த முடிவுகளை எடுப்பார்” என்று அவரது வாழ்க்கையில் மக்கள் நினைக்க வழிவகுத்தது. 40 வயதான தலைமை நிர்வாக அதிகாரி தனது மற்றும் ரோஹரின் குழந்தை இருவரும் “AI ஐ விட ஒருபோதும் புத்திசாலியாக இருக்க மாட்டார்கள்” என்று கூறினார், இது “என்னை கொஞ்சம் அமைதிப்படுத்துகிறது, ஆனால் அது உண்மைதான்”.
ஒரு கட்டத்தில், ரோஹர் ஆல்ட்மேனிடம் AI தொடர்பான அனைத்தும் சரியாகிவிடும் என்று அவருக்கு உறுதியளிக்க இயலாது என்று கேட்கிறார். “அது சாத்தியமற்றது,” ஆல்ட்மேன் உறுதிப்படுத்துகிறார், இருப்பினும் AI ஆயுதப் பந்தயத்தில் OpenAI இன் முன்னணி பாதுகாப்பு சோதனையில் அதிக நேரத்தை செலவிட அனுமதிக்கிறது என்று அவர் கூறுகிறார்.
AI டாக் இறுதியில் டூமரிசம் மற்றும் நம்பிக்கைக்கு இடையில் எங்காவது இறங்குகிறது – அபோகாலப்டிமிசம், அவர்கள் அதை அழைப்பது போல், “வாக்குறுதிக்கும் ஆபத்துக்கும் இடையே ஒரு பாதையை” தேடுகிறது. அந்த பாதையில் பல திரைப்பட பாடங்களின் படி, குறிப்பிடத்தக்க, நீடித்த, முன்னுதாரணத்தை மாற்றும் சர்வதேச ஒருங்கிணைப்பு, அணு ஆயுதங்களின் வளர்ச்சியை மிதப்படுத்த அறிமுகப்படுத்தப்பட்ட நூற்றாண்டின் நடுப்பகுதி கட்டமைப்புகள் மற்றும் ஒப்பந்தங்கள் – AI நிறுவனங்களுக்கு அதிக கார்ப்பரேட் வெளிப்படைத்தன்மை, காவல்துறை AI டெவலப்பர்களுக்கு ஒரு சுயாதீனமான ஒழுங்குமுறை அமைப்பு, GP க்கு சட்டப் பொறுப்பு ஊடகங்களுக்கான பயன்பாடு மற்றும் தொழில்நுட்பத்தை விரைவாக மாற்றுவதற்கான விதிகளை மாற்றியமைக்க விருப்பம்.
அமெரிக்க அரசாங்கமும் நிறுவனங்களும், உலகமே ஒருபுறம் இருக்கட்டும், அதைச் செய்ய முடியுமா இல்லையா என்பது ஒரு திறந்த கேள்வியாகவே உள்ளது, முதல் படிகளில் மாறுபட்ட கருத்துக்கள் உள்ளன. ஆனால் பல பாடங்கள் அனைவரும் ஒப்புக் கொள்ளும் ஒரு விஷயம் இருந்தால், அது AI க்கு முன் ஒரு காலத்திற்கு திரும்பிச் செல்ல முடியாது. Anthropic இணை நிறுவனர் மற்றும் CEO Amodei கூறுவது போல்: “இந்த ரயில் நிற்கப் போவதில்லை.”
Source link



