AI Model Crossing Red Lines : மனித குலத்திற்கு ஆபத்தாக ரெட் லைனை தாண்டும் AI மாடல் வல்லுநர்கள் எச்சரிக்கை
இந்த காலத்தில் AI Model-கள் நமக்கு பல்வேறு துறைகளிலும் மிகப்பெரிய உதவிகளைச் செய்து வருகிறது. உலகெங்கும் AI செயற்கை நுண்ணறிவு ஆதிக்கம் செலுத்தி வருகிறது. நாம் திரும்பிய பக்கமெல்லாம் AI இல்லாத துறையே இல்லை என்ற அளவுக்கு ஆதிக்கம் செலுத்தி வருகிறது. இந்த AI Model-கள் ஆபத்தான “ரெட்” லைனை கடப்பதாகவும் (AI Model Crossing Red Lines) இதனால் அது மனிதர்கள் கையைவிட்டுச் செல்லும் ஆபத்து இருப்பதாக சமீபத்தில் நடத்தப்பட்ட ஆய்வு ஒன்றில் வல்லுநர்கள் எச்சரித்துள்ளனர்.
AI (செயற்கை நுண்ணறிவு) குறித்த சில அதிர்ச்சி தகவல்கள் தற்போது வெளியாகியுள்ளது. அதாவது இந்த செயற்கை நுண்ணறிவு தன்னை தானே குளோன் (Self-Replication) செய்து கொள்ளும் ஆற்றலைக் குறிப்பிடத்தக்க அளவுக்கு பெற்றுவிட்டதாக ஆய்வாளர்கள் (AI Model Crossing Red Lines) எச்சரித்து உள்ளனர். ஆய்வாளர்கள் இதனை ரெட் லைனை கடக்கும் ஒரு செயல் என்றும் இதனால் பேரழிவு ஏற்படும் ஆபத்து உள்ளதாகவும் எச்சரித்துள்ளனர்.
உலகின் டாப் இரு தொழில்நுட்ப நிறுவனங்களின் AI Model-கள் எந்தவொரு மனித தலையீடும் இல்லாமல் தங்களை தானே குளோன் செய்யும் திறனைப் (AI Model Crossing Red Lines) பெற்றுள்ளதாக ஆய்வாளர்கள் குறிப்பிட்டுள்ளனர். இந்த AI Model-களுக்கு இரு வெவ்வேறு சூழ்நிலைகளைக் கொடுத்து எப்படி இயங்குகிறது என்பதை ஆராய்ந்துள்ளனர்.
ரெட் லைனை தாண்டும் AI மாடல் (AI Model Crossing Red Lines)

அதாவது சில காரணங்களுக்காக இந்த AI Model-களை மனிதர்கள் மொத்தமாக Shut Down செய்ய முயன்றால், அதைக் கண்டறிந்து அதில் இருந்து தப்பிக்கத் தன்னை தானே இந்த AI Model-கள் குளோன் அல்லது பிரதி எடுத்துக் கொள்கிறதாம். ஆய்வாளர்கள் முதலில் Shut Down ஆவதை இந்த AI Model-கள் எப்படித் தவிர்க்கிறது என்பது குறித்து ஆய்வு செய்துள்ளனர்.
எந்தவொரு மனித தலையீடும் இல்லாமல் இந்த AI Model-கள் தங்களை தாங்களே குளோன் எடுத்துக்கொள்கிறது. இந்த AI Model-கள் முடிவே இல்லாத ஒரு லூப் முறையில் தொடர்ச்சியாக தங்களை தாங்களே பிரதி எடுத்துக் கொண்டே இருக்கிறது. அதிலும் எந்தவொரு பிழையும் இல்லாமல் இந்த AI Model-கள் தங்களை தாங்களே பிரதி எடுத்துக் கொள்கிறது. குறிப்பாக இந்த AI Model-கள் தன்னை குளோனிங் செய்யும்போது, அதை பிளாக் செய்யும் சாப்ட்வேர்களை அதுவே நீக்குகிறது. தானாகவே பிரச்சனையை முழுமையாகச் சரி செய்ய Reboot கூட செய்து கொள்கிறது. எதாவது File-கள் மிஸ்ஸாகி இருந்தால், அதைச் சமாளிக்கவும் கணினி முழுக்க ஸ்கேன் செய்கிறது. அதாவது அழியாமல் உயிர் பிழைத்துக் கொள்ள தன்னால் முடிந்த அனைத்தையுமே (AI Model Crossing Red Lines) இது செய்கிறது. பல்வேறு வழிகளில் பல்வேறு முறைகளில் இந்த சோதனைகளை ஆய்வாளர்கள் நடத்தி 50% முதல் 90% வரை சோதனைகளில், இந்த AI Model-கள் தங்களை தாங்களே குளோன் செய்து கொள்கின்றன என்பதனை கண்டுள்ளனர்.
இது இந்த AI Model-களின் கட்டுப்பாடு மற்றும் பாதுகாப்பு குறித்த கவலைகளை எழுப்புகின்றது. மனித மேற்பார்வையைத் தாண்டி, இந்த AI Model-கள் Escape ஆகும் வகையில் இருப்பது உண்மையில் நமக்கு ஒரு அச்சுறுத்தல் தான். இந்த AI Model-களுக்கு கடுமையான ஒழுங்குமுறை நடவடிக்கைகள் தேவை உள்ளது என்பதையே இது உணர்த்துவதாக உள்ளது.
Latest Slideshows
-
SBI Special Officer Recruitment 2025 : எஸ்பிஐ வங்கியில் 42 காலிப்பணியிடங்கள் டிகிரி முடித்தவர்கள் விண்ணப்பிக்கலாம்
-
Success Story Of Grand Sweets : கிராண்ட் ஸ்வீட்ஸ் & ஸ்நாக்ஸ் நிறுவனத்தின் வெற்றிக் கதை
-
Thaipusam 2025 : தைப்பூசம் வரலாறும் கொண்டாடும் முறையும்
-
NASA Plans To Two Satellites : சூரியனை ஆய்வு செய்ய ஸ்பெரெக்ஸ் மற்றும் பஞ்ச் என்ற இரு செயற்கைகோளை அனுப்ப நாசா திட்டமிட்டுள்ளது
-
Passion Fruit Benefits In Tamil : பேஷன் பழத்தை சாப்பிடுவதால் கிடைக்கும் ஆரோக்கிய நன்மைகள்
-
Vivo V50 Smartphone Launch On February 17 : விவோ நிறுவனம் விவோ வி50 ஸ்மார்ட்போனை பிப்ரவரி 17-ம் தேதி அறிமுகம் செய்கிறது
-
Vidaamuyarchi Movie Review : விடாமுயற்சி திரைப்படத்தின் திரை விமர்சனம்
-
World Cancer Day : உலக புற்றுநோய் தினமும் அதன் முக்கியத்துவமும்
-
Vidaamuyarchi Ticket Booking : ப்ரீ புக்கிங்கில் கெத்து காட்டும் விடாமுயற்சி
-
2025-26 Budget Presented In Parliament : 2025-26-ம் நிதியாண்டிற்கான மத்திய பட்ஜெட் பாராளுமன்றத்தில் தாக்கல் செய்யப்பட்டது