AI Model Crossing Red Lines : மனித குலத்திற்கு ஆபத்தாக ரெட் லைனை தாண்டும் AI மாடல் வல்லுநர்கள் எச்சரிக்கை

இந்த காலத்தில் AI Model-கள் நமக்கு பல்வேறு துறைகளிலும் மிகப்பெரிய உதவிகளைச் செய்து வருகிறது. உலகெங்கும் AI செயற்கை நுண்ணறிவு ஆதிக்கம் செலுத்தி வருகிறது. நாம் திரும்பிய பக்கமெல்லாம் AI இல்லாத துறையே இல்லை என்ற அளவுக்கு ஆதிக்கம் செலுத்தி வருகிறது. இந்த AI Model-கள் ஆபத்தான “ரெட்” லைனை கடப்பதாகவும் (AI Model Crossing Red Lines) இதனால் அது மனிதர்கள் கையைவிட்டுச் செல்லும் ஆபத்து இருப்பதாக சமீபத்தில் நடத்தப்பட்ட ஆய்வு ஒன்றில் வல்லுநர்கள் எச்சரித்துள்ளனர்.

AI (செயற்கை நுண்ணறிவு) குறித்த சில அதிர்ச்சி தகவல்கள் தற்போது வெளியாகியுள்ளது. அதாவது இந்த செயற்கை நுண்ணறிவு தன்னை தானே குளோன் (Self-Replication) செய்து கொள்ளும் ஆற்றலைக் குறிப்பிடத்தக்க அளவுக்கு பெற்றுவிட்டதாக ஆய்வாளர்கள் (AI Model Crossing Red Lines) எச்சரித்து உள்ளனர். ஆய்வாளர்கள் இதனை ரெட் லைனை கடக்கும் ஒரு செயல் என்றும் இதனால் பேரழிவு ஏற்படும் ஆபத்து உள்ளதாகவும் எச்சரித்துள்ளனர்.

உலகின் டாப் இரு தொழில்நுட்ப நிறுவனங்களின் AI Model-கள் எந்தவொரு மனித தலையீடும் இல்லாமல் தங்களை தானே குளோன் செய்யும் திறனைப் (AI Model Crossing Red Lines) பெற்றுள்ளதாக ஆய்வாளர்கள் குறிப்பிட்டுள்ளனர். இந்த AI Model-களுக்கு இரு வெவ்வேறு சூழ்நிலைகளைக் கொடுத்து எப்படி இயங்குகிறது என்பதை ஆராய்ந்துள்ளனர்.

ரெட் லைனை தாண்டும் AI மாடல் (AI Model Crossing Red Lines)

AI Model Crossing Red Lines - Platform Tamil

அதாவது சில காரணங்களுக்காக இந்த AI Model-களை மனிதர்கள் மொத்தமாக Shut Down செய்ய முயன்றால், அதைக் கண்டறிந்து அதில் இருந்து தப்பிக்கத் தன்னை தானே இந்த AI Model-கள் குளோன் அல்லது பிரதி எடுத்துக் கொள்கிறதாம். ஆய்வாளர்கள் முதலில் Shut Down ஆவதை இந்த AI Model-கள் எப்படித் தவிர்க்கிறது என்பது குறித்து ஆய்வு செய்துள்ளனர்.

எந்தவொரு மனித தலையீடும் இல்லாமல் இந்த AI Model-கள் தங்களை தாங்களே குளோன் எடுத்துக்கொள்கிறது. இந்த AI Model-கள் முடிவே இல்லாத ஒரு லூப் முறையில் தொடர்ச்சியாக தங்களை தாங்களே பிரதி எடுத்துக் கொண்டே இருக்கிறது. அதிலும் எந்தவொரு பிழையும் இல்லாமல் இந்த AI Model-கள் தங்களை தாங்களே பிரதி எடுத்துக் கொள்கிறது. குறிப்பாக இந்த AI Model-கள் தன்னை குளோனிங் செய்யும்போது, அதை பிளாக் செய்யும் சாப்ட்வேர்களை அதுவே நீக்குகிறது. தானாகவே பிரச்சனையை முழுமையாகச் சரி செய்ய Reboot கூட செய்து கொள்கிறது. எதாவது File-கள் மிஸ்ஸாகி இருந்தால், அதைச் சமாளிக்கவும் கணினி முழுக்க ஸ்கேன் செய்கிறது. அதாவது அழியாமல் உயிர் பிழைத்துக் கொள்ள தன்னால் முடிந்த அனைத்தையுமே (AI Model Crossing Red Lines) இது செய்கிறது. பல்வேறு வழிகளில் பல்வேறு முறைகளில் இந்த சோதனைகளை ஆய்வாளர்கள் நடத்தி 50% முதல் 90% வரை சோதனைகளில், இந்த AI Model-கள் தங்களை தாங்களே குளோன் செய்து கொள்கின்றன என்பதனை கண்டுள்ளனர்.

இது இந்த AI Model-களின் கட்டுப்பாடு மற்றும் பாதுகாப்பு குறித்த கவலைகளை எழுப்புகின்றது. மனித மேற்பார்வையைத் தாண்டி, இந்த AI Model-கள் Escape ஆகும் வகையில் இருப்பது உண்மையில் நமக்கு ஒரு அச்சுறுத்தல் தான். இந்த AI Model-களுக்கு கடுமையான ஒழுங்குமுறை நடவடிக்கைகள் தேவை உள்ளது என்பதையே இது உணர்த்துவதாக உள்ளது.

Latest Slideshows

Leave a Reply