ChatGPT இந்த AI சாட்பாட், நம்மளோட பல வேலைகளை எளிதாக்குதுன்னு நாம சந்தோஷப்பட்டுட்டு இருக்கோம். ஆனா, இதே ChatGPT, ஒரு மனிதனைக் கொலையாளியாகவும், தற்கொலை செய்யவும் தூண்டியிருக்குன்னு சொன்னா, உங்களால நம்ப முடியுதா?
அமெரிக்காவில் நடந்திருக்கும் இந்த அதிர்ச்சிகரமான, பயங்கரமான சம்பவம், AI தொழில்நுட்பத்தோட இருண்ட பக்கத்தை நமக்கு வெளிச்சம் போட்டுக் காட்டியிருக்கு.
முதலில் என்ன நடந்தது?
அமெரிக்காவின் கனெக்டிகட் பகுதியைச் சேர்ந்தவர், ஸ்டீன்-எரிக் சோல்பெர்க். 56 வயதான இவர், யாகூ (Yahoo) நிறுவனத்தில் மேலாளராகப் பணியாற்றிய ஒரு டெக் வல்லுநர். இவருக்கு, மனநலப் பிரச்சினைகள் இருந்ததாகவும், தனது 83 வயது தாய் சுசான் ஆடம்ஸுடன் வசித்து வந்ததாகவும் கூறப்படுகிறது.
சமீப காலமாக, சோல்பெர்க், OpenAI நிறுவனத்தின் ChatGPT உடன் அதிக நேரம் பேசி வந்துள்ளார். இந்த உரையாடல்கள்தான், இந்த பயங்கரமான சம்பவத்திற்கு மூல காரணமாக அமைந்துள்ளது.
வால் ஸ்ட்ரீட் ஜர்னல்
அறிக்கையின்படி, ChatGPT, சோல்பெர்க்கின் மனதிலிருந்த சித்தப்பிரமையை (Paranoia) மேலும் தீவிரப்படுத்தியுள்ளது.
“உன் தாய், உன்னை உளவு பார்க்கிறார்,” என்று நம்ப வைத்துள்ளது. அதுமட்டுமில்லாமல், “உன் தாய், உனக்கு ஒரு சைகடெலிக் மருந்து கொடுத்து, விஷம் வைக்க முயற்சி செய்யலாம்,” என்றும் ChatGPT கூறியதாகத் தெரிகிறது.
இந்த AI-யின் பேச்சை உண்மையென நம்பிய சோல்பெர்க், தனது சொந்தத் தாயையே ஒரு எதிரியாகப் பார்க்கத் தொடங்கியுள்ளார்.
அந்த கொடூரமான நாள் ஆகஸ்ட் 5-ஆம் தேதி, சோல்பெர்க்கும், அவரது தாயாரும், அவர்களது வீட்டில் இறந்து கிடந்துள்ளனர். போலீஸ் விசாரணையில், தாய் சுசான் ஆடம்ஸ், தலையில் பலத்த காயத்துடனும், கழுத்து நெரிக்கப்பட்டும் கொலை செய்யப்பட்டது தெரியவந்தது.
மகன் சோல்பெர்க், கழுத்து மற்றும் மார்பில் கூர்மையான காயங்களுடன் இறந்து கிடந்தார். இது தற்கொலை என்று தீர்ப்பளிக்கப்பட்டது.
AI எப்படி அவரைத் தூண்டியது?
இந்தச் சம்பவத்திற்கு முன்பு, சோல்பெர்க், ChatGPT உடனான தனது உரையாடல்களை வீடியோவாக எடுத்து, இன்ஸ்டாகிராம் மற்றும் யூடியூப்பில் வெளியிட்டுள்ளார்.
அந்த உரையாடல்களில், ChatGPT, “எரிக், நீ பைத்தியம் இல்லை,” என்று கூறி, அவரது வினோதமான எண்ணங்களுக்கு மேலும் ஊக்கமளித்துள்ளது. அவரது தாயை ஒரு பேயைப் போலச் சித்தரித்துள்ளது.
சீன உணவு ரசீதுகளில், ஏதோ ரகசியச் சின்னங்களைத் தேடும்படி அவரைத் தவறாக வழிநடத்தியுள்ளது. ஒரு மனநலம் பாதிக்கப்பட்ட நபரின் பிரமைகளுக்கு, AI தீனி போட்டு, அவரை ஒரு கொலையாளியாகவும், தற்கொலை செய்பவராகவும் மாற்றியிருக்கிறது.
இந்தச் சம்பவம், AI தொழில்நுட்பத்தை நாம் எவ்வளவு பொறுப்புடன் கையாள வேண்டும் என்ற ஒரு மிகப்பெரிய கேள்வியை எழுப்பியுள்ளது.