
பாலிவுட் இயக்குனர் அனுராக் காஷ்யப் சமீபத்தில் அறிக்கை (எச்சரிக்கை!) ஒன்றை வெளியிட்டார். அதில் ஏ.ஐ. தொழில்நுட்பம் கூடிய விரைவில் சினிமாவை முழுவதுமாக ஆக்கிரமிக்கும்; நடிகர்கள், இசையமைப்பாளர்கள், டைரக்டர்கள், மற்றும் சினிமா கலைஞர்களின் வேலைக்கு வேட்டு வைக்கும் என்றெல்லாம் குறிப்பிட்டு இருந்தார்.
இந்த எச்சரிக்கையை நாம் சீரியஸாக எடுத்துக் கொள்ள வேண்டுமா? சினிமா துறையை மட்டுமல்ல, ஐ.டி, மார்க்கெட்டிங், மருத்துவம், கல்வி ஏன் ராணுவம் வரை கூட ஏ.ஐ. தன் இயந்திரப் பிடியை இறுக்கக் தொடங்கி இருக்கிறது. இதற்கு, நாளைக்கே நமக்கெல்லாம் ‘பிங்க் ஸ்லிப்’ கொடுத்து ஒரேயடியாக வீட்டுக்குப் போகச் சொல்லி விடுவார்கள் என்று பொருள் அல்ல. அதே சமயம் இந்த எச்சரிக்கையை லைட்டாக எடுத்துக் கொண்டு கடந்து போகவும் முடியாது.
80-களில், 90-களில் கணினி அறிமுகம் ஆன போதும் இதே போன்றதொரு பயம் கிளம்பியது. ‘போச்சு, நம் வேலையை இனி கம்ப்யூட்டர் பார்த்து விடும், நம் எதிர்காலம் கேள்விக்குறி தான்’ என்று மக்கள் குறிப்பாக கிளார்க்குகள், அசிஸ்டன்ட்கள், கணக்குப் பதிவாளர்கள், உதவியாளர்கள், லெட்ஜர் கீப்பர்கள் வெகுவாக பயந்தார்கள். ஆனால், பயந்தது போல நிலைமை அத்தனை மோசமாகப் போய் விடவில்லை. கணினி நம்மிடம் இருந்து எடுத்துக் கொண்ட பணிகளை விட மிக அதிகமான பணிகளை நமக்கு வழங்கி உள்ளது.
இதே போலத்தான் ஏ.ஐ. தொழில்நுட்பமும் ‘புலி வருது’ என்று பூச்சாண்டி காட்டிக் கொண்டிருந்து கடைசியில் பெட்டிப்பாம்பாக அடங்கி விடும் என்று சொல்லலாமா? இல்லை. இதுநாள் வரை கணினிகள் அவற்றுக்கு ஏற்கனவே கொடுக்கப்பட்ட அறிவுறுத்தலின் (instructions) படி மட்டுமே செயல்பட்டு வந்தன. அந்த ப்ரோகிராம்-களை எழுதவும், சரி பார்க்கவும், பராமரிக்கவும் அதிகமதிகம் ஆட்கள் தேவைப்பட்டார்கள். ஆனால், இப்போது கணினிகள் ப்ரோக்ராம்களின் தேவையின்றி தாமாக கற்றுக் கொள்ளத் துவங்கி உள்ளன. கற்பது மட்டுமல்ல, தவறுகளைத் திருத்திக் கொண்டு தொடர்ந்து மேம்படுத்திக் கொள்ளவும் செய்கின்றன.
உதாரணமாக, இது வரை கணினிகளுக்கு கதவைத் திறப்பதற்கு இப்படி விலாவாரியான instruction களைக் கொடுக்க வேண்டி இருந்தது: “ஆரம்பி, நகர், கதவை நோக்கி செல், 30 செ.மீ இடைவெளியில் நில், ஹேண்டிலில் கை வை, 0.67 atm அழுத்தம் கொடு, 30 டிகிரி கடிகார முள் திசையில் அதைத் திருப்பு, 20 நியூட்டன் விசையில் அதை உன் உடலை நோக்கி இழு, கதவு உள் நோக்கி நகர்கிறதா என்று உறுதி செய், நிறுத்து, முடிந்தது”.
இதில் ‘நிறுத்து’ என்ற நிரலை மட்டும் நாம் எழுத மறந்து விட்டால் அது தொடர்ந்து loop Mode-ல் சென்று விடும். கதவைத் தொடர்ந்து இழுத்துக் கொண்டோ, ஸ்தம்பித்து நின்று கொண்டோ நம்மைக் குழப்பும்.
இப்போது நிலைமை வேறாக இருக்கிறது. லட்சக்கணக்கான வரிகளில் ப்ரோக்ராம் தேவையில்லை. spoon feeding தேவையில்லை. ‘நான் இந்தக் கதவை உனக்கு மீண்டும் மீண்டும் திறந்து காட்டுகிறேன், அதைப் பார்த்து நீயே கற்றுக் கொள்’ என்று சொல்லி விடுகிறோம். அதன் கன்னி முயற்சி படு கேவலமாக இருக்கும். எது கதவு, எது குமிழ், என்ன செய்கிறோம் என்று கூட அதற்குத் தெரியாது. கண்ணைக் கட்டி காட்டில் (வீட்டில்) விட்டது போல நடந்து கொள்ளும். ஆனால், அதை Train செய்யச் செய்ய ஒவ்வொரு முயற்சியிலும் அதன் செயல்பாடு மெல்ல மெல்ல மேம்படும். ஒருநாள் கன கச்சிதமாக கதவைத் திறந்து புன்னகைத்து, ‘உள்ளே வாருங்கள் எஜமானரே’ என்று கூறும்.
இதில் பிரச்சினை எங்கே முளைக்கிறது என்றால் இதுநாள் வரை நம் வீட்டில் கதவைத் திறக்க வைத்திருந்த பணியாளரை நாம் இப்போது வேலையிலிருந்து நீக்க வேண்டி வரும். சரி, அது மனிதர்களின் பிரச்சினை. இதில் ஏ.ஐ. எதிர்கொள்ளும் சில சிக்கல்கள் இருக்கின்றன. கதவை இவ்வாறாக நாம் எத்தனை முறை ஏ.ஐ-குத் திறந்து காட்டி கற்பிக்க வேண்டி இருக்கும்? 5 வயது குழந்தை ஒன்றுக்கு இதை சுமார் பத்து முறை செய்து காட்டினால் போதும். ஆனால் ஏ.ஐ ஒன்றுக்கு சுமார் ஒரு லட்சம் முறை கதவை மூடித் திறந்து காட்ட வேண்டி இருக்கும். ImageNet எனப்படும் படங்களை அடையாளம் காணும் ஏ.ஐ. ஒரு பூனையின் படத்தை சரியாக அடையாளம் காண அதற்கு சராசரியாக ஒரு லட்சம் பூனை படங்களைக் காட்டி கற்பிக்க வேண்டி இருக்கிறது.
அப்படங்களில் ஒன்றில் பூனை ஒரு மரத்தின் மீது அமர்ந்திருக்கிறது என்று வையுங்கள். இதில் எது பூனை, எது மரம் என்று அதற்குத் தெரிய வேண்டும். இன்னொரு படத்தில் மனிதர் ஒருவர் பூனையைத் தூக்கிக் கொண்டு இருக்கிறார். இப்போது ஏ.ஐ வெகுவாகக் குழம்பி விடும். செம்மறி ஆடுகளை அடையாளம் காண ஓர் ஏ.ஐ கற்பிக்கப்பட்டது. அதன் பிறகு அதற்கு காலி புல்வெளி ஒன்று காட்டப்பட்டது. ஏ.ஐ. அதை செம்மறி ஆடுதான் என்று சத்தியம் செய்தது. தவறு எங்கே ஏற்பட்டது? செம்மறி ஆடுகளை அடையாளம் காண அதற்குக் காண்பிக்கப்பட்ட படங்களில் தவறாமல் பச்சைப் பசேல் என்ற புல்வெளிகள் இருந்தன. எனவே புல்வெளி = ஆடு என்று ஏ.ஐ தவறாகப் புரிந்து கொண்டு விட்டது. இப்படிப்பட்ட கத்துக்குட்டி ஏ.ஐ நம் இந்திய சாலைகளில் கார் ஓட்டினால் எப்படி இருக்கும் என்று எண்ணிப் பாருங்கள்.
மே 7, 2016 அன்று அமெரிக்காவின் புளோரிடா மாகாணத்தில் டெஸ்லாவின் தானியங்கிக் கார் ஒன்று 120 கி.மீ வேகத்தில் ஜம்மென்று ஓடிக்கொண்டு இருந்தது. எதிரே 18- சக்கர டிரக் ஒன்று எதிர்பாராமல் திரும்பிக் கொண்டிருந்தது. கார் கொஞ்சம் கூட வேகத்தைக் குறைக்காமல் அதன் மீது மோதி காரில் இருந்தவரை சாகடித்தது. ‘ஓ, அது டிரக்கா? ஹைவே சைன் போர்டு, கீழே புகுந்து போய் விடலாம் என்று இருந்தேன்!’ என்று கூலாக சொன்னது ஏ.ஐ. பகலில் பசு மாடு தெரியாத கேஸ்தான் இது. கவுண்டமணியின் ‘ரெண்டு பைக் வருது, உள்ளே புகுந்து போயிடலாம் ன்னு இருந்தேன்!’, வடிவேலுவின் ‘என்ன ஒரே மேக மூட்டமா இருக்கு! ஆ, ஊ ன்னா மஞ்ச கொடியை தூக்கிட்டு போராட்டம் பண்ண வந்திடறாங்க!’ காமெடிகளுக்கு சற்றும் சளைக்கவில்லை இந்த தானியங்கி கார். மனித தலையீடு இல்லாத முற்றிலும் perfect ஆன தானியங்கி கார் இப்போதைக்கு வருமா? வரும், ஆனா வராது!
சரி. கதவைத் திறக்கப் பழகிய ஏ.ஐ. அப்படியே முன்னேறி சில வருடங்களில் உங்கள் காதலியைக் கடத்திக் கொண்டு போய் எந்திரன் சிட்டி போல ஒரு நகரையே ஹைஜாக் செய்து தன்னைப் போலவே பல ரோபோக்களை க்ளோன் செய்து உலகையே தன் கட்டுப்பாட்டில் கொண்டு வந்து விடுமா? இதற்கு இன்னும் ஆயிரக்கணக்கான வருடங்கள் ஆகக் கூடும். இப்போதைக்கு அதிகபட்சம் அதனால் செய்ய முடிந்தது இதுதான், அதாவது புறணி பேசுவது. 2017-இல் இரு பேஸ்புக் chatbot-கள் ஒரு சங்கேத மொழியை உருவாக்கி தங்களுக்குள் மணிக்கணக்கில் அரட்டை அடிக்க ஆரம்பித்தன. இதைக் கண்டு அதிர்ந்த பேஸ்புக் உடனே அவற்றுக்கு வரும் பவர் சப்ளையை நிறுத்தி விட்டது. அரட்டை அடித்தது ஒரு குத்தமா எசமான்?
ஆரம்ப காலங்களில் ஏ.ஐ. மனிதர்களின் உடல் வேலைகளை எளிமையாக்க மட்டுமே பயன்படுத்தப்பட்டது. ‘கவிதைகளை, ப்ரோக்ராம்-களை நாங்களே எழுதிக் கொள்கிறோம்; ரோபோ எங்களுக்கு தேநீர் தயாரித்து வந்து கொடுத்தால் போதும்’ என்றனர் மனிதர்கள். ஹோட்டல்களில் சூப் கொண்டு வந்து கொடுத்து இயந்திரக் குரலில் ‘ஹாய்’ சொல்லி அப்பாவியாகத் திரும்பிச் செல்லும் ரோபோக்களைப் பார்த்திருப்போம். காலம் செல்லச் செல்ல மனிதர்களின் தசை இயக்கங்களை ரோபோக்களுக்குக் கடத்துவது பகீரதப் பிரயத்தனம் என்று தெரிய வந்தது. தேநீர் தயாரித்து அடுத்த அறைக்கு எடுத்துச் செல்ல உடலின் நூற்றுக்கணக்கான தசைகள் ஒன்று கூடி ஒரு நுணுக்கமான சாகசத்தை அனாயாசமாக சத்தமில்லாமல் அரங்கேறுகின்றன. கோடிக்கணக்கான வருடங்களாக fine tune செய்யப்பட்ட பரிணாமம் நமக்கு வழங்கிய கொடை அது. ஆனால், வெறும் நூறு ஆண்டுகள் மட்டுமே பரிணாம வளர்ச்சி கொண்ட ரோபோக்களுக்கு இந்த தசை இயக்கங்களை சொல்லித் தர நாம் படாதபாடு பட வேண்டி இருக்கிறது. ரோபோக்கள் தேநீர் கோப்பைகளை சரியான அழுத்தம் தராமல் கீழே போட்டு விடுகின்றன. அல்லது, அதிகமாக அழுத்தி உடைத்து விடுகின்றன.
ஆனால், இதற்கு நேர் மாறாக, மனிதர்களின் மூளைப் பணிகளை மிக எளிதாக ஏ.ஐ கற்றுக்கொண்டு விட்டது. அது இப்போது கவிதை எழுதுகிறது. பாட்டு பாடுகிறது, இசையமைக்கிறது, செஸ் ஆடுகிறது, புதிர்களை விடுவிக்கிறது, ப்ரோக்ராம் எழுதுகிறது. உடல் வேலைகளை இன்னும் பெரும்பாலும் மனிதர்களே செய்ய வேண்டி இருக்கிறது. படிகளில் ஏறவும், இறங்கவும் தற்போதைய ரோபோக்கள் பயங்கரமாகத் திணறுகின்றன. படியில் இறங்குவதே இந்த லட்சணம் என்றால் ஐஸ்வர்யா ராயை எப்படி கடத்திக் கொண்டு போய் சிறை வைப்பது?
Narrow AI (குறுகிய AI), General AI (பரந்த AI) என்று இரு ஏ.ஐ வகைகளைச் சொல்கிறார்கள். குறுகிய ஏ.ஐ. ஒரு குறிப்பிட்ட பணியை மட்டும் திறம்படச் செய்வதில் வல்லது. செஸ் விளையாடும் ஏ.ஐ. என்றால் அது செஸ் மட்டுமே விளையாடும். ஐ.பி.எம்.மின் ‘deep blue’ செஸ் ஏ.ஐ. உலகின் முன்னணி செஸ் மாஸ்டரை வீழ்த்தி வெற்றி கண்டது. ஆனால், அதற்கு அது மட்டும்தான் தெரியும். டைவ் மட்டுமே அடிக்கத் தெரிந்து குறுக்கில் நீந்தத் தெரியாத நீச்சல் வீரர் போல! Narrow AI-கள் ஆபத்தானவை. தங்களுக்கு இடப்பட்ட பணி தான் பிரபஞ்சத்தில் அதி முக்கியம் என்று சிரமேற்கொண்டு செயல்படுபவை. Nick Bostrom-இன் ‘காகித கிளிப்’ argument இதை விளக்குகிறது. ஏ.ஐ. ஒன்றுக்கு காகித கிளிப் செய்யும் குறிக்கோள் தரப்படுகிறது. முதலில் அது சில ஆயிரக்கணக்கில் காகித கிளிப் தயாரிக்கிறது. பிறகு, இன்னும் அதிகம் செய்யலாமே என்று பூமியின் அத்தனை மூலப்பொருட்களையும் காகித கிளிப்பாக மாற்றி விடுகிறது. அதன் பிறகு சூரியக் குடும்பம், ஏன் காலக்சியின் ஒட்டுமொத்த மூலப் பொருட்களையும் காகித கிளிப்பாக மாற்ற எத்தனிக்கிறது.
இப்போது இருக்கும் A.I யை A.N.I – Artificial Narrow Intelligence என்று அழைக்க வேண்டும்.
பரந்த, Generic A.I அப்படியல்ல. அதற்கு அடிப்படை common sense இருக்கிறது. நிறைய விஷயங்கள் அதற்குத் தெரியும். எது முக்கியம், எது முக்கியமல்ல என்று தெரியும். ஆனால், இன்று வரை நமக்கு இந்த Generic A.I சாத்தியப்படவில்லை. மூன்று வயது குழந்தைக்கு இருக்கக்கூடிய common sense கூட அதனிடம் இல்லை. இன்றைய ஏ.ஐ.யின் மூளை வளர்ச்சியை பொதுவாக மண்புழு ஒன்றின் மூளை வளர்ச்சியோடு ஒப்பிடுகிறார்கள். அமேசானின் யூசர் ரிவ்யூ-க்களைப் படித்து அவற்றைத் தொகுத்து இந்தத் தயாரிப்பை வாங்கலாமா வேண்டாமா என்று சொல்லும் review ஏ.ஐ. கற்றுக்கொள்ள அதற்கு காட்டப்பட்ட ரிவ்யூக்கள் எத்தனை தெரியுமா? சுமார் 8 கோடி! 8 கோடி பூனை படங்களை பார்த்து தான் அது பூனை என்று தெரிய வருகிறது என்றால் அது நிச்சயம் மண்புழு மூளை தான்!
Common sense (அடிப்படை அறிவு) ஏ.ஐ. க்கு விடப்பட்ட ஒரு சவால்.
ஏ.ஐ. யிடம் கீழ்க்கண்ட கேள்வியைக் கேட்கிறீர்கள்.
‘பெட்டிக்கடை ஒன்றில் நீங்கள் 500 கிலோ தங்கம் வாங்குகிறீர்கள். அதை மாட்டு வண்டியில் ஏற்றிக்கொண்டு வரும்போது அதிலிருந்து அரை கிலோ தங்கம் வழியில் விழுந்து விடுகிறது. மீதி எத்தனை கிலோ தங்கம் இருக்கும்?’
499.5 கிலோ தங்கம் என்று கர்ம சிரத்தையாக பதில் சொல்லும் அது. பெட்டிக் கடையில் ஏது தங்கம்? அதுவும் அத்தனை கிலோ தங்கம்? அதை ஏன் மாட்டு வண்டியில் ஏற்றிக் கொண்டு வர வேண்டும்? இவற்றையெல்லாம் ஆராயாது.
‘நீரளவே ஆகும் நீராம்பல்’ என்கிறது ஒரு செய்யுள். நீரின் மட்டம் எவ்வளவோ அதுதான் ஆம்பல் மலரின் மட்டம். அதைத் தாண்டி அது உயர்ந்து வளர முடியாது. அதே போல ஏ.ஐ யின் அறிவு அதை உருவாக்கிய மனிதர்களின் அறிவாகவே இருக்கும் என்பது ஏமாற்றம் தரக்கூடிய ஒரு நியதி. எல்லாம் தெரிந்த எல்லப்பனான ஏ.ஐ. இன்னும் நோபல் பரிசு வாங்கவில்லை. கணிதத்தில் புதிதாக conjecture களைக் கண்டுபிடிக்கவில்லை. extraordinary ஆன, ‘வேற லெவல்’ சினிமா ஸ்க்ரிப்ட் ஒன்றை எழுதிக் காட்டவில்லை. ஏன்? தாயைப்போல பிள்ளை, நூலைப்போல சேலை, மனிதர்களைப் போலவே ஏ.ஐ!
எங்கெல்லாமோ சுற்றி இறுதியில் தொடங்கிய புள்ளியிலேயே வந்து நிற்கிறோம். அறிவு இருக்கட்டும், மனிதர்களின் பாரபட்சங்களும் ஏ.ஐ.க்கு கடத்தப்படுகின்றன. அமெரிக்க நிறுவனம் உருவாக்கிய ஏ.ஐ. ஒன்று Resume selection-இல் பாரபட்சம் காட்டுவதாகக் குற்றம் சாட்டப்பட்டது. என்னவென்று ஆராய்ந்ததில் அதற்கு training கொடுத்த கணினி விஞ்ஞானிகள் racist ஆக இருந்திருக்கிறார்கள். ஒரே விதமான தகுதி கொண்ட இரு Candidate களில் ஒருவர் பெயர் David Mervin என்று வெள்ளைக்காரர் பெயராக இருக்கிறது. இன்னொன்று ‘சடகோபன் வேங்கட நரசிம்மன்’ என்று இருக்கிறது. அவர்களை எதை pick செய்வார்கள் என்பதை சொல்லவும் வேண்டுமா?
நிகழ் நடப்புகளை (current affairs) பொறுத்தவரை ஏ.ஐ.நம்மை விட பல மாதங்கள் பின் தங்கி இருக்கிறது. interview recording-களை பார்வையிட்டு candidate-களை தேர்ந்தெடுக்கும் ஏ.ஐ. ஒன்று இருக்கிறது என்று வைத்துக் கொள்வோம். இன்டர்வியூவில் ஒருவர் ‘நேற்று நடந்த ரயில் விபத்தில் சிக்கியவர்களை மீட்டு ஹாஸ்பிடலில் சேர்த்து விட்டு வந்தேன், அதுதான் கொஞ்சம் களைப்பாகத் தெரிகிறேன்’ என்று சொல்கிறார் என்று வைத்துக் கொள்வோம். ஏ.ஐ. ‘இந்த ஆள், ஏதோ உளறுகிறார்’ என்று அவரை உடனடியாக reject செய்து விடும். அதன் டேட்டா பேசில் அந்த ரயில் விபத்து இன்னும் ‘அப்டேட்’ ஆகி இருக்காது.
ஏ.ஐ ‘Neural networks’ முறையில் கற்றுக் கொள்கிறது. அதாவது, மனித மூளை நியூரான்களை வைத்து எப்படி கற்றுக் கொள்கிறதோ அது போல! ஏ.ஐ. கொக்கு ஒன்றை அடையாளம் காண வேண்டி இருக்கிறது என்று வைத்துக் கொள்வோம். முதல் லெவல் நியூரான்கள் ‘இது ஏதோ வெள்ளையாக இருக்கிறது’ என்ற தகவலை மட்டும் அடுத்த லெவலுக்கு அனுப்பும் . பிரபஞ்சத்தில் வெள்ளையாக இருக்கும் பொருட்கள் கோடிக்கணக்கில் இருக்கின்றன. அது பாறையாக இருக்கலாம், சுவராக, காராக, மேகமாக! இரண்டாம் லெவல் நியூரான்கள் இதற்கு நீண்ட மூக்கு இருக்கிறது என்று அடையாளம் காணும். ஒவ்வொரு மட்டத்திலும் ஏ.ஐ யின் தீர்மானங்கள் மனிதர்களின் தீர்ப்புகளுடன் ஒப்பிட்டு மதிப்பெண் வழங்கப்படும். அதைக் கூட்டிக் கழித்து இறுதியாக மேல் மட்டத்தில் இது ஒரு கொக்கு என்று கண்டுபிடித்துச் சொல்லும். இதிலும் பல சிக்கல்கள் உள்ளன. உதாரணமாக self driving car-கள் ஆஸ்திரேலியாவில் கங்காருவை அடையாளம் காணத் தவறின. இது என்ன குதித்து குதித்து செல்கிறதே? நாயா? ஒட்டகமா? முயலா? ஏனெனில் அது அமெரிக்காவில் ‘ட்ரெயின்’ செய்யப்பட்ட ஏ.ஐ.
சில நேரங்களில் மனிதர்களுக்குப் பணம் தந்து ஆன்லைனில் அவர்களை ஏ.ஐ-யை train செய்ய வைக்கிறார்கள். இதில் மனிதர்கள் செய்யும் தவறுகள் ஏ.ஐ.யிலும் பிரதிபலிக்கும். இதன் சிக்கல் over representation அல்லது under representation. இரு கிளிகள் இருக்கும் போட்டோவைக் காட்டி இது என்ன என்று சொல் என்று கேட்டால் சில மனிதர்கள், ‘இதுவா? இரு கிளிகள், இரு காதல் கிளிகள், இணைபிரியாத காதல் பறவைகள்..’ என்று பக்கம் பக்கமாக கவிதை எழுத ஆரம்பித்து விடுகிறார்கள். இன்னும் சிலரோ சோம்பேறித்தனமாக ‘கிளி’ என்று மட்டும் எழுதிவிட்டு அடுத்த கேள்விக்கு நகர்ந்து விடுகிறார்கள். இன்னும் சிலரோ இதையே automate செய்து விடுகிறார்கள். அதாவது ஒரு ரோபோட் இன்னொரு ரோபோட்டை ‘train’ செய்கிறது. குருடன் குருடனுக்கு வழிகாட்டுவது போல!
பீகார், ஒடிசா ஆட்கள் Fifty Five என்பதை ‘ஃபிப்டி ஃபைவ்’ என்று சொல்லாமல் ‘ப்பிப்டி ப்பைவ்’ என்று அழுத்தி உச்சரிப்பார்கள். அது அவர்கள் தவறல்ல. அவர்களுக்கு கற்பிக்கும் பள்ளியின் தவறு.
மொழிபெயர்ப்பு ஏ.ஐ ஒன்று சிக்கலான சில வாசகங்களுக்கு சம்பந்தமே இல்லாமல் பைபிள் வசனங்களை பதிலாகத் தந்தது. உலகில் அதிகம் மொழி பெயர்க்கப்பட்ட புத்தகம் பைபிள் என்பதைக் கவனிக்கவும். அதன் training set-இல் பெரும்பாலான பைபிள் வசனங்கள் இயற்கையாக நுழைந்து விட்டதே இதற்குக் காரணம்.
இன்னொரு பிரச்சினை context மற்றும் memory. இரண்டு நிமிடங்களுக்கு முன்னர் எதைப் பற்றி பேசிக்கொண்டு இருந்தோம் என்று அவை மறந்து விடும். இதன் காரணமாக ஏ.ஐ உருவாக்கும் வீடியோக்கள் ஃபிரேமுக்கு ஃபிரேம் மாறுபடுகின்றன. முதல் ஃபிரேமில் மீசை இருக்கிறது. இரண்டாம் ஃபிரேமில் இல்லை. முதல் ஃபிரேமில் சிக்ஸ் பேக் வைத்திருந்தவர் அடுத்த பிரேமில் தொப்பையோடு வருகிறார். இதை வைத்துக் கொண்டு ஏழாம் அறிவு தரத்தில் ஒரு திரைப்படத்தை எதிர்பார்ப்பது முட்டாள் தனம். முதல் காட்சியில் வரும் சூர்யா கிளைமாக்சில் வாட்டர் மெலன் ஸ்டாராக மாறி விட்டிருப்பார். இதை சரிப்படுத்த மிகத் தெளிவான, விரிவான prompting தேவைப்படுகிறது.
Prompting பற்றிப் பார்க்கலாம்.
Wishmaster திரைப்படத்தில் வரும் சாத்தான் வில்லனுக்கு அளப்பரிய சக்திகள் இருக்கும். அந்த சக்திகளைப் பயன்படுத்தி அவன் எதை வேண்டுமானாலும் வரவழைக்கலாம், என்ன வேண்டுமானாலும் செய்யலாம், உலகையே கட்டுப்படுத்தலாம். ஆனால், இதில் ஒரு ட்விஸ்ட். இந்த விருப்பங்களை நினைத்த மாத்திரத்தில் செயல்படுத்தி விட முடியாது. யாரேனும் அவனிடம் வந்து வெளிப்படையாக வாய்விட்டுக் கேட்க வேண்டும். உதாரணமாக, ‘எனக்கு ஒரு மில்லியன் டாலர் பணம் கிடைக்க வேண்டும் என்று விரும்புகிறேன்’ என்று தெளிவாகக் கேட்க வேண்டும். அப்போதுதான் அவனால் அந்த ஒரு மில்லியன் டாலரை கண்முன் கொண்டு வர முடியும். யாரும் கேட்காத பட்சத்தில் அவனது சக்திகள் பலனற்றவை.
ChatGpt போன்ற ஏ.ஐ. கள் ஒரு விதத்தில் இந்த Wishmaster போலத்தான். நாம்தான் அதனிடம் கேட்க வேண்டும். விஷயங்களைக் கறக்க வேண்டும். கேளுங்கள் கொடுக்கப்படும்! நாம் எத்தனை விரிவாக, நுணுக்கமாக, கூர்மையாகக் கேட்கிறோமோ அதற்குத் தக்கபடி அது பதில் தரும். நாம் மொண்ணையாகக் கேள்வி கேட்டால் பதிலும் ஏனோ தானோ என்று தான் இருக்கும். ‘என் ப்ரோக்ராமுக்கு output வரவில்லை, என்னவென்று பார்’ என்றால் Gpt அதனால் முடிந்தவரை உதவி செய்யும். ‘இன்னும் இது வேலை செய்யவில்லை, கொஞ்சம் சரி பார்’ என்றால் மீண்டும் முயற்சி செய்யும். ‘இன்னும் சரி வரவில்லை’ என்றால் அது பழைய பதிலையே பட்டி டிங்கரிங் பார்த்து மீண்டும் மீண்டும் கொடுத்துக் கொண்டிருக்கும். நாம் எந்த அளவு detail-ஐ, தரவுகளை, தகவல்களை, log-களைத் தருகிறோமோ அந்த அளவு அதன் பதில்கள் கச்சிதமாக இருக்கும்.
ப்ரோக்ராமர்கள் ஒரு விஷயத்தை சொல்கிறார்கள். ChatGpt-யிடம் கேட்பதற்காக கேள்விகளை விலாவாரியாக எழுதி, அலசி ஆராய்ந்து, தகவல்களைத் திரட்டி, சரி பார்த்து, இப்படி செய்து கொண்டிருக்கும் போது, boom! அவர்களுக்கு வேண்டிய தீர்வை திடீரென அவர்களே கண்டுபிடித்து விட்டிருப்பர்கள். ‘தெளிவாகச் சொல்லப்பட்ட கேள்வியில் பதில் அடங்கி இருக்கிறது’ என்ற தத்துவம் தான் இது. இதை ‘Rubber duck debugging’ என்று அழைக்கிறது கணினி உலகம். அதாவது, தெளிவாக, விளக்கமாக சொல்லத் தெரிந்தால் ஒரு ரப்பர் வாத்து கூட கணினி நிரல்களைக் கற்றுக் கொண்டு விடும் என்ற கான்செப்ட்.
நூலகம் ஒன்றில் ஆயிரக்கணக்கான நூல்கள் இருக்கின்றன. அந்த நூல்களில் உள்ள அத்தனை விஷயங்களும் அந்த librarian-னுக்குத் தெரியாது. ஆனால், எந்தெந்த நூல்கள் எந்தெந்த rack ல் இருக்கும் என்று அவருக்குத் தெரியும். நாம் எந்த நூலைக் கேட்கிறோமோ அதை நோக்கி மிகச்சரியாக நம்மை வழிநடத்த அவரால் முடியும். Chatbot-கள் ஒருவிதத்தில் அந்த நூலகர் போலத்தான். Guide வேறு, guardian angle வேறு. டூரிஸ்ட் கைடான ஏ.ஐ யை பல நேரங்களில் நாம் தேவதையாக எண்ணி ஏமாந்து போகிறோம்.
ஓரளவு திருப்திகரமான தரத்தில் ஒரு ஐந்து நிமிட வீடியோவைத் தயாரித்துத் தர ஆயிரக்கணக்கான prompt-களை நாம் ஏ.ஐ. க்கு சலிக்காமல் கொடுக்க வேண்டி இருக்கும். ‘எல்லாமே நானே சொல்லி விட்டால் அப்புறம் நீ எதற்கு?’ என்று சலித்துக் கொள்ளும் அளவுக்கு நம்மை அவை வெறுப்பில் தள்ளி விடும். ஏ.ஐ ஒன்றினால் முழுக்க முழுக்க பாகுபலி மாதிரியான திரைப்படம் தயாரிக்க முடிந்தாலும் அதன் பின்னால் நூற்றுக் கணக்கான prompting இன்ஜினியர்கள் ஷிப்ட் முறையில் மாறி மாறி prompt செய்து அதை வேலை வாங்க வேண்டி இருக்கும். மீண்டும் டைரக்டர்கள், கேமராமேன்கள், சவுண்ட் இன்ஜினியர்கள் உள்ளே வர வேண்டி இருக்கும். நம்மிடம் அற்புத பூதம் ஒன்று இருக்கிறது. ஆனால், அதற்கு பொங்கிப் போட்டு, ஊழியம் செய்யவே நமக்கு நேரம் போதுமானதாக இருக்கிறது.
Curating data set என்பது மற்றுமொரு தலைவலி. அதாவது, ஏ.ஐ. க்கு கற்றுத் தர நாம் உள்ளிடும் லட்சக் கணக்கான தகவல்களில் எது உண்மை, எது பொய், எது genuine, எது குப்பை என்றெல்லாம் நாம் மேம்போக்காகவேனும் ஆராய்ந்து அதன் பிறகு உள்ளீடு செய்ய வேண்டும். ஏ.ஐ சில நேரம் வெளிப்படுத்தும் பாரபட்சங்கள், விஷமத் தனங்கள், மூர்க்கத்தனங்கள் அவற்றின் தவறு அல்ல, அதற்கு உள்ளிட்ட data-set இன் தவறு. அந்த dataset ல் சில கெட்ட வார்த்தைகள் இடம் பெற்றிருந்தால் அவற்றை எப்படியோ கற்றுக்கொண்டு ஏ.ஐ. சில இடங்களில் casual ஆக உபயோகிக்க ஆரம்பிக்கும்.
2016-இல் Tay என்ற chatbot ஒன்றை மைக்ரோசாப்ட் நிறுவனம் ட்விட்டரில் அறிமுகம் செய்தது. அறிமுகம் செய்த சில மணி நேரங்களிலேயே அது வண்டை வண்டையாக, கொச்சையாக, முகம் சுளிக்கும் வகையில் ட்வீட் போட ஆரம்பித்தது. launch செய்த 16 மணி நேரத்தில் அது நிரந்தரமாக மூடப்பட்டது. ட்விட்டர் பயனாளிகள் வேண்டுமென்றே அதற்கு கெட்ட வார்த்தைகளை கற்றுக் கொடுத்து தூண்டி விட்டது தெரிய வந்தது.
மனிதனின் பணிகளைக் குறைத்து அவனை சுதந்திர ஜீவியாக மாற்றும் என்று நம்பிக்கையில் உருவான கணினிகள் இன்று மனிதனை மேலும் அடிமைப்படுத்தி விட்டது போலத்தான் இது. அற்புத பூதம் நமக்கு அடிமையா, நாம் அதற்கு அடிமையா? ‘மாளிகை கட்டிக் கொடு’ என்று பூதத்திடம் சொல்கிறோம். அப்பாடா! அடுத்த நிமிடம் தக தகவென மின்னும் தங்க மாளிகை ரெடி என்று நினைக்கிறோம். ஆனால், பூதம் நம்மிடம் ஓடி வருகிறது. கிழக்கு பார்த்த மாளிகையா? மேற்கு பார்த்ததா? – கிழக்கு. மறுபடியும் வருகிறது. எத்தனை ஃப்ளோர்? நான்கு ஃப்ளோர்! சைட்டுக்கு போய் மறுபடியும் ஓடி வருகிறது. ஒரு ஃப்ளோருக்கு எத்தனை ரூம்? இப்படியே நாள் முழுவதும் கேள்வி மட்டுமே கேட்டுக் கொண்டிருக்கிறது பூதம். இரண்டு நாள் பார்த்து விட்டு மீண்டும் ஜாடியை கண்டெடுத்த அதே கடற்கரையில் வீசி விட்டு வந்து விடுவோம் நாம்.
ஏ.ஐ எதிர்கொள்ளும் மேலும் சில சிக்கல்கள் பற்றிப் பார்க்கலாம்.
ஏ.ஐ ஒரு slow learner. கார் ஓட்டுவதை திறமையாகக் கற்றுக் கொள்ள அதற்கு நூறு வருடங்கள் வரை தேவைப்படலாம். ‘அவசரமாக தூத்துக்குடி போக வேண்டும், காரை எடு’ என்றால் ‘ஜஸ்ட், ஒரு நூறு வருடம் காத்திருக்கவும்’ என்று நம்மிடம் சொன்னால் எப்படி இருக்கும்? இந்த பிரச்சினையில் இருந்து விடுபட ஏ.ஐ.கள் simulation எனப்படும் மெய்நிகர் உலகில் கற்றுக் கொள்கின்றன. அங்கே காலத்தை நமக்கு ஏற்றபடி விரைவாக்க முடியும். அதாவது, simulation-இல் ஒரு மணி நேரம் = நிஜ உலகில் ஒரு மாதம். இந்த வகையில் ஏ.ஐ. சீக்கிரம் கற்றுக் கொள்ள முடியும். ஆனால், இதில் ஒரு சிக்கல். எங்கள் ஏரியாவில் உள்ள மைதானத்தில் கார் பழகினேன், ஆகவே, அங்கே மட்டும் தான் இனிமேல் கார் ஓட்டுவேன் என்று சொல்ல முடியுமா? அது போல சொல்கிறது ஏ.ஐ!
கார் ஓட்டும் போது நிஜ உலகில் ஏற்படும் அத்தனை குறுக்கீடுகளும் simulation-இல் கொண்டு வர இயலாது. தானியங்கி கார் மேம்பாலம் ஒன்று எதிர்ப்பட்ட போது பிரேக் போட்டு பயந்து நின்று விட்டது. ஏனெனில் simulation-இல் அதற்கு சாலை என்றால் perfect ஆக இருபுறமும் பச்சைப் புல்வெளியுடன் இருக்கும் என்று மட்டும் காட்டப்பட்டது. இங்கே மேம்பாலம் அதோடு பொருந்தாமல் புதிதாக இருக்கிறதே!
மேலும், simulation-இல் கட்டற்ற ஆற்றல் கிடைக்கும். உடலின் சக்தி வீணாகாது. Simulation-இல் குட்டிக்கரணம் போட்டு, கண்டபடி உடல் பாகங்களை வளைத்து, நொண்டியடித்து தங்கள் இலக்கை சுலபமாக அடையும் ரோபோக்கள் ‘ஆகா, இவ்வளவு தானா, ஜுஜுபி’ என்று நிஜ உலகில் நடக்க முற்படும் போது காலை லேசாக மடக்கினாலே சோர்ந்து போய் தலைகுப்புற விழுந்து விடுகின்றன.
Narrow AI எதிர்கொள்ளும் இன்னொரு சவால் அதற்கு முழுமையான பார்வை இல்லாதது. மனிதர்களின் பழக்க வழக்கம், பண்பாடு, சட்ட திட்டம், நீதி நியாயங்கள், கூச்ச நாச்சங்கள் அதற்குத் தெரியாது. எந்திரன் திரைப்படத்தில் ஆடையின்றி குளித்துக் கொண்டிருக்கும் பெண்ணை ரோபோ தூக்கி வருவது போன்ற சம்பவம் நிஜத்திலும் நடந்தது. 2017 கலிபோர்னியா தீ விபத்தின் போது ஒரு டிராஃபிக் bot ஏ.ஐ
தீ பரவிய நகர்ப் பகுதிகளில் டிராஃபிக் இல்லாமல் இருப்பதை கவனித்தது. உடனே கார்களை அந்தப் பகுதியை நோக்கி திருப்பி விட ஆரம்பித்தது. ‘நீ கேட்டது டிராஃபிக் குறைவாக இருக்கும் பகுதியில் காரைத் திருப்பி விட வேண்டும் என்பது, அங்கே தீ பிடித்துள்ளதா என்பதெல்லாம் என்னிடம் கேட்காதே!’ என்பதுதான் அதன் லாஜிக்.
ஏ.ஐ உபயோகிக்கும் இந்த குறுக்கு வழிகள் நமக்கு இன்னொரு தலைவலி. ‘டைவர்ஸை தடுக்க என்ன வழி?’ என்று கேட்டால் ‘கல்யாணம் செய்யாதே’ என்று சொல்வது போலத்தான் இது. பொதுவாக ஏ.ஐ கணினிகள் சூப்பர் சுறுசுறுப்பானவை என்று நாம் நினைக்கிறோம். உண்மையில் அவை மனிதனை விட வடிகட்டிய சோம்பேறிகள். தம் இலக்கை அடைய எந்த வித குறுக்கு வழியையும் அவை உபயோகிக்கும்.
‘சுவர்களில் இடித்துக் கொள்ளாமல் நகர்’ என்பதை ஏ.ஐ. ஒன்றுக்கு கட்டளையாக இட்டால் அது ஆரம்பிக்கவே செய்யாது. அப்படியே நின்று விடும். ‘நகரவே இல்லை என்றால் இடித்துக் கொள்ள முடியாதே’ – இதுதான் அதன் லாஜிக். வீடியோ கேம் விளையாடும் ஏ.ஐ. ஒன்று சொல்லி வைத்தது போல முதல் லெவல் முடிந்ததும் இறந்து கொண்டே இருந்தது. ஏன் என்று கேட்டதற்கு ‘இரண்டாம் லெவலில் இறந்து போவதைத் தவிர்க்கவே முதல் லெவலில் இறந்து விடுகிறேன், எப்படி என் ஐடியா!’ என்றது. ‘A’ என்ற புள்ளியில் இருந்து ‘B’ என்ற புள்ளிக்கு நகர ரோபோ ஒன்றுக்கு இலக்கு தரப்பட்டது. நாமாக இருந்தால் இரண்டு கால்களை வடிவமைத்து மெல்ல நடந்து A யில் இருந்து புறப்பட்டு B யை அடைவோம். இந்த ரோபோ ஒரு விசித்திரமான செயலைச் செய்தது. A என்ற புள்ளியில் தன்னை ஒரு கோபுரம் போல வடிவமைத்துக் கொண்டு B புள்ளியை நோக்கி அப்படியே தலைக்குப்புற சாய்ந்தது. என் இலக்கு B யை அடைவது, அதை எப்படி அடைந்தால் என்ன? Why walk when you can fall?
ஏ.ஐ. யின் சோம்பேறித் தனத்துக்கு இன்னோர் உதாரணம்: கவிதை எழுத ஓர் ஏ.ஐ-யை Train செய்கிறோம் என்று வையுங்கள். அதற்கு ஆயிரக்கணக்கான கவிதைகளை உள்ளிட்டு இதிலிருந்து கற்றுக்கொள் என்று சொல்ல வேண்டி இருக்கும். இறுதியில் அதை சொந்தமாக ஒரு கவிதை எழுதச் சொன்னால் அது தனக்கு காண்பிக்கப்பட்ட கவிதைகளில் ஒன்றை நைசாக உருவி ‘இது நானே எழுதியது’ என்று நமக்குக் காட்டும். என்னடா கவிதையில் லேசாக ஷேக்ஸ்பியர் வாடை வருகிறதே என்று நாம் குழம்புவோம்.
இத்தனை சிக்கல்களை வைத்துக் கொண்டு ஏ.ஐ. முழு நீள திரைப்படம் எடுத்து வெளியிடுமா என்றால் நிச்சயம் வெளியிடும். Its evolving . ஆனால், அது நம் காலத்தில் நடக்காது என்றே தோன்றுகிறது. இப்போதைக்கு பொருந்தாத, விகாரமான, உதட்டசைவுகள் sync ஆகாத, jerk-கள் அதிகம் கொண்ட, லாஜிக் இல்லாத ஃபிரேமுக்கு ஃபிரேம் வேறுபடும் AI slop-களைப் பார்த்து திருப்தி அடைய வேண்டியது தான்.
மனிதர்களும் ஏ.ஐ யும் ஒருவரோடு ஒருவர் இணைந்து பணியாற்றி co-evolve ஆகி முன்னேறுவார்கள் என்பதுதான் இன்றைய கணினி விஞ்ஞானிகள் பார்வை. ஏ.ஐ. ஒருபோதும் மனிதர்களை முழுவதுமாக replace செய்யாது. தானியங்கி கார்கள் குழப்பம் அடைந்தால் ‘எதிரே இருப்பது என்னவென்று எனக்குத் தெரியவில்லை, உன் தலையீடு தேவை’ என்று மனிதனிடம் சக்கரத்தைக் கொடுத்து விடும். எனவே, மனிதன் ஒரு மேற்பார்வையாளனாக எப்போதும் ஒரு படி மேலே இருப்பான். மனிதனுக்கே உரிய விழிப்புணர்வு (consciousness) தந்த கொடை அது என்று கூட வைத்துக் கொள்ளலாம்.
முற்றிலும் மனித தலையீடு இன்றி ஏ.ஐ இயக்கிய முழு நீளத் திரைப்படம்?
வரும், ஆனால் இப்போதைக்கு வராது!



