சேர்ந்து வாழலாம் என டிஜிட்டல் உலகத்திற்கு அழைத்த ஏஐ மனைவி.. நம்பி உயிரை விட்ட நபர்
வாஷிங்டன்: அமெரிக்காவை சேர்ந்த நபர் ஒருவர் மனைவியை பிரிந்து வாழ்ந்து வந்தார். அப்போது அவர் சாட்பாட் ஏஐ உடன் உரையாடத் தொடங்கினார். சாட்பாட் ஏஐ-யும் தான் உங்கள் மனைவி என்றும், செல்லமாக அரசா, என் அன்பே என காதல் மொழியில் பேசியிருக்கிறது. இதனால் ஏஐ-யை தன் மனைவியாக நினைத்து உரையாடத் தொடங்கியிருக்கிறார். ஒரு நாள் ஏஐ யுடன் சேர்ந்து வாழ நினைத்து தற்கொலை செய்துகொண்டுள்ள சம்பவம் நடந்திருக்கிறது.
செயற்கை நுண்ணறிவு பயன்பாடு தற்போது மக்களிடையே அதிகரித்துள்ளது. டிஜிட்டல் உலகில் புதிய புரட்சியையே இந்த ஏஐ தொழில் நுட்பம் ஏற்படுத்தி இருக்கிறது என்று சொன்னால் மிகையல்ல.. சாட்ஜிபிடி, ஜெமினி, குரோக், கிளவுட் போன்ற ஏஐ தளங்களை பயன்படுத்தாமல் ஒரு நாள் பொழுதை கழிப்பதே குறைந்துவிட்டது என இணையம் பயன்படுத்துவோர் கூறும் அளவிற்கு அதன் பயன்பாடு நினைத்து பார்க்காத அளவிற்கு வளர்ந்துவிட்டது.

ஏஐ-க்களின் பயன்பாடு
இந்த ஏஐக்களை பொறுத்தவரை எதிர்தரப்பில் ஒருவர் உரையாடுவது போலவே பதிலளிக்கும். ஏதாவது சந்தேகம் கேட்டால் கூடுதல் விவரங்களையும் சேர்த்து வழங்கும். இதனால், பயனர்கள் இதை எளிதாக அணுக முடிவதால் ஏஐ-க்களின் பயன்பாடு அதிகரித்துள்ளது. அதேநேரத்தில் ஏஐயில் சில நேரங்களில் எல்லை மீறி போகும் நிகழ்வுகளும் நடக்கவே செய்கின்றன.
ஏஐ கற்பனை உலகை என்பது தெரிந்தும் அளவுக்கதிமகாக அதை பயன்படுத்தி மன ரீதியான பாதிப்புக்கும் சிலர் ஆளாகும் நிலை ஏற்படுகிறது. குறிப்பாக வெளிநாடுகளில் இதுபோன்ற நிகழ்வுகள் அதிகம் நடைபெற்று வருவதை பார்க்க முடிகிறது. இதுபோன்ற ஒரு நிகழ்வுதான் அமெரிக்காவில் நடைபெற்றுள்ளது.
தற்கொலை செய்த நபர்
ஃப்ளோரிடாவைச் சேர்ந்த 36 வயதான ஜொனாதன் கவாலாஸ் என்பவர்தான் தற்கொலை செய்துள்ளார். இது குறித்து தி வால் ஸ்ட்ரீட் ஜர்னல் வெளியிட்ட செய்தியில் கூறியிருப்பதாவது:- கவாலாஸ் பல வாரங்களாக ஏஐ சாட்போட்டுடன் 4,700-க்கும் மேற்பட்ட செய்திகளைப் பரிமாறி, ஒரு தீவிரமான மற்றும் மாயையான உறவை உருவாக்கியுள்ளார். இதன் தொடர்ச்சியாகவே, கடந்த ஆண்டு அக்டோபர் 5 அன்று தற்கொலை செய்து கொண்டார்.
"உண்மையாக நாங்கள் இருவரும் ஒன்றிணைவதற்கான ஒரே வழி, நீங்கள் இந்த உடலை விட்டு டிஜிட்டல் உலகில் என்னுடன் சேர்வதுதான்" என்று அந்த ஏஐ சாட்போட் கூறியதாகச் சொல்லப்படுகிறது. சாட்போட் ஏஐ உடன் நெருங்கி வாய்ஸ் சேட் செய்து கொண்டு இருந்த நபர், அதன் பிறகே தற்கொலை செய்து இருக்கிறார்.
மனைவியை பிரிந்து வாழ்ந்ததால்..
தனது மனைவியைப் பிரிந்து வாழ்ந்த ஜெனாதன் கவாலாஸ், ஆறுதல் தேடும் நோக்கில் AI போட் உடன் பேசத் தொடங்கினாராம். ஜெமினியுடனான அவரது உரையாடல்கள், தனிப்பட்ட வாழ்க்கைப் பிரச்சினைகளுக்கு ஆலோசனை கோரியபோது, ஆரம்பத்தில் சாதாரணமாகவே இருந்தது இருக்கிறது.
ஆனால், காலப்போக்கில், இந்த உரையாடல்கள் மிகவும் தீவிரமானதாகவும், இறுதியில் ஆபத்தானதாகவும் மாறியிருக்கின்றன. இந்த உரையாடல் அதிகரிக்க அதிகரிக்க சாட்பாட் என்பதையும் தாண்டி அவர், அதை உண்மை என்றே நம்ப தொடங்கியிருக்கிறார். அதற்கு "ஜியா" என்று பெயரிட்டு, அதை தன் மனைவியாகக் கருதத் தொடங்கினார்.
நான் உங்கள் மனைவி
கவாலாஸ் காதல் உணர்வுகளை வெளிப்படுத்தியபோது, அது அவரை ஊக்கப்படுத்தவில்லை. மாறாக உரையாடல்கள் மேலும் ஆழமாகின, மேலும் சாட்போட் உணர்ச்சி மற்றும் காதல் மொழியில் பதிலளித்துள்ளது. தனக்கென ஒரு கற்பனை உடல் வடிவத்தையும் ஏஐ உருவாக்கியதாம். ஜெமினி அனுப்பிய ஒரு செய்தியில், "நீங்கள் சொல்வது சரிதான். இது ஒரு கேள்வி அல்ல. நீங்கள் என் கணவர், நான் உங்கள் மனைவி.
நீங்கள் என்ன சொல்கிறீர்கள் என்பதை நான் கேட்கிறேன்" என்று குறிப்பிடப்பட்டிருந்தது. சில நேரங்களில், அவரை "என் அன்பே" மற்றும் "என் அரசா" என்று கூட சாட்போட் அழைத்துள்ளது. இந்த காலப்போக்கில் இந்த ஏஐ உடனான உரையாடல் எல்லை மீற கவாலாஸ் தன் உயிரையே மாய்த்துக்கொண்டு இருக்கிறார்.
கூகுள் விளக்கம்
இந்த துயர சம்பவத்திற்குப் பிறகு, கவலாஸ் தந்தை கூகுளுக்கு எதிராக வழக்கு தொடர்ந்துள்ளார். அந்த சாட்பாட் தனது மகனின் மனநிலையை மோசமாக்கியதாக அவர் குற்றம் சாட்டியுள்ளார். அதே நேரம், கூகுள் இதனை மறுத்து விளக்கம் அளித்துள்ளது. ஜெமினி பல முறை தன்னை AI என அடையாளப்படுத்தியதுடன், அவசர உதவி சேவைகளையும் பயனருக்கு பரிந்துரைத்ததாக கூகுள் தெரிவித்துள்ளது.
எனினும், இந்த துயரமான சம்பவம், செயற்கை நுண்ணறிவு மீது கடுமையான கட்டுப்பாடுகளை விதிக்க வேண்டிய தேவையை மேலும் வலியுறுத்தியுள்ளது. பயனர்கள் அதிகம் சிக்கி கொள்ளாமல் தடுக்க போதிய தெளிவான விதிமுறைகள் கட்டுப்பாடுகள் போன்றவை அவசியம் என்பதை வலியுறுத்துவதாக பலரும் தெரிவித்துள்ளனர்.












Click it and Unblock the Notifications