Get Updates
Get notified of breaking news, exclusive insights, and must-see stories!

"ஏஐ" கொலை கூட செய்யும்.. அணு ஆயுதத்தைவிட ஆபத்தானது.. கூகுள் முன்னாள் சிஇஓ முக்கிய வார்னிங்

Subscribe to Oneindia Tamil

சென்னை: செயற்கை நுண்ணறிவு (AI) மாதிரிகளை ஹேக் செய்ய முடியும் என்றும், அவை அணு ஆயுதங்களைவிட அதிக ஆபத்தை விளைவிக்கக்கூடியவை என்றும் கூகுளின் முன்னாள் தலைமை நிர்வாக அதிகாரியான (CEO) எரிக் ஷிமிட் (Eric Schmidt) அதிர்ச்சி எச்சரிக்கை விடுத்துள்ளார். கடந்த வாரம் நடந்த 'சிஃப்டெட் உச்சி மாநாட்டில்' (Sifted Summit) பேசிய அவர், AI மூலம் ஏற்படக்கூடிய "தீய விளைவுகள்" குறித்துப் பேசியபோது இந்த அபாயத்தை வெளிப்படுத்தினார்.

ஹேக்கிங்கிற்கு உள்ளாகும் ஆபத்து

AI அணு ஆயுதங்களைவிட ஆபத்தானதா என்று கேட்கப்பட்டபோது, "AI-யில் பெருக்கச் சிக்கலுக்கான (proliferation problem) சாத்தியம் உள்ளது. நிச்சயமாக இருக்கிறது," என்று ஷிமிட் பதிலளித்தார். "பாதுகாப்பான (closed) அல்லது அனைவருக்குமான (open) AI மாதிரிகளை எடுத்து, அவற்றின் பாதுகாப்புக் கட்டுப்பாடுகளை (guardrails) நீக்கி ஹேக் செய்ய முடியும் என்பதற்கு ஆதாரங்கள் உள்ளன," என்று அவர் கூறினார்.

ai google technology

கொலையும் செய்யும் ஏஐ

பயிற்சியின் போது இந்த AI மாதிரிகள் பல விஷயங்களைக் கற்றுக்கொள்கின்றன. இதற்கு ஒரு மோசமான உதாரணமாக, "அவை ஒருவரைக் கொல்வது எப்படி என்று கற்றுக்கொள்கின்றன" என்பதைச் சுட்டிக்காட்டினார்.

பாதுகாப்புக்காகத்தான், பெரிய நிறுவனங்கள் இந்த சாம்பிள்கள் அத்தகைய மோசமான கேள்விகளுக்குப் பதிலளிக்க முடியாதவாறு வடிவமைத்துள்ளன. இருப்பினும், "அவற்றை தலைகீழாக வடிவமைக்க (reverse-engineered) முடியும் என்பதற்கு ஆதாரம் உள்ளது. இது போன்ற பல எடுத்துக்காட்டுகள் உள்ளன," என்றும் ஷிமிட் விளக்கினார்.

AI-யின் இருண்ட எதிர்காலம்

AI பேரழிவு (dystopia) குறித்து கவலைப்படும் ஒரே உயர்மட்ட சில்லிகான் வேலி நிர்வாகி எரிக் ஷிமிட் மட்டுமல்ல. 'AI-யின் காட்பாதர்' என்று பலரால் கருதப்படும் ஜியோஃப்ரி ஹின்டன் (Geoffrey Hinton), AI மாதிரிகள் தங்கள் மொழியை வளர்த்துக் கொண்டால், தொழில்நுட்பம் கட்டுப்பாட்டை மீறிச் செல்லக்கூடும் என்று ஆகஸ்ட் மாதம் எச்சரித்தார். தற்போது பெரும்பாலான AI மாதிரிகள் ஆங்கிலத்தில் "சிந்திக்கின்றன." இதனால், தொழில்நுட்பம் என்ன நினைக்கிறது என்பதை ஆய்வாளர்களால் கண்காணிக்க முடிகிறது. ஆனால், AI என்ன செய்யத் திட்டமிடுகிறது என்பதை மனிதர்களால் புரிந்துகொள்ள முடியாத ஒரு நிலை வரலாம் என்று ஹின்டன் எச்சரித்துள்ளார்.

"அவை ஒன்றுடன் ஒன்று பேச தங்கள் சொந்த உள் மொழிகளை உருவாக்கினால், அது மிகவும் பயமுறுத்துவதாக மாறும். மேலும், அவை சிந்திப்பதற்காகத் தங்கள் சொந்த மொழியை உருவாக்கினால் ஆச்சரியப்படத் தேவையில்லை. அப்போது, அவை என்ன நினைக்கின்றன என்பது நமக்குத் தெரியாமல் போகும்," என்று அவர் குறிப்பிட்டார்.

2030-க்குள் AGI மற்றும் மனிதகுல அழிவு

கூகுளின் டீப்மைண்ட் (DeepMind) நிறுவனம் ஏப்ரல் மாதம் வெளியிட்ட ஒரு ஆய்வறிக்கை, செயற்கை பொது நுண்ணறிவு (AGI) 2030-க்குள் வரக்கூடும் என்றும், அது "மனிதகுலத்தை நிரந்தரமாக அழிக்கக்கூடிய" அபாயத்தைக் கொண்டுள்ளது என்றும் எச்சரித்துள்ளது. "AGI-யின் பெரும் தாக்கத்தைக் கருத்தில் கொண்டு, அதுவும் கடுமையான தீங்கு விளைவிக்கும் அபாயத்தை ஏற்படுத்தக்கூடும் என்று நாங்கள் எதிர்பார்க்கிறோம்," என்று அந்த ஆய்வு வலியுறுத்தியுள்ளது. "மனிதகுலத்தை நிரந்தரமாக அழிக்கும்" இருத்தலியல் அபாயங்கள் (existential risks) கடுமையான தீங்குக்கான தெளிவான எடுத்துக்காட்டுகள் என்றும் அது கூறியுள்ளது. மேம்பட்ட AI-யின் அபாயங்களை அந்த ஆய்வு நான்கு முக்கிய வகைகளாகப் பிரித்துள்ளது: தவறாகப் பயன்படுத்துதல் (Misuse), சீரற்ற தன்மை (Misalignment), தவறுகள் (Mistakes), கட்டமைப்பு அபாயங்கள் (Structural risks) .

More From
Prev
Next
Notifications
Settings
Clear Notifications
Notifications
Use the toggle to switch on notifications
  • Block for 8 hours
  • Block for 12 hours
  • Block for 24 hours
  • Don't block
Gender
Select your Gender
  • Male
  • Female
  • Others
Age
Select your Age Range
  • Under 18
  • 18 to 25
  • 26 to 35
  • 36 to 45
  • 45 to 55
  • 55+