
சாரி, ஜூன் 1, 2025 அன்று வெளியிடப்பட்டதாகக் கூறப்படும் கட்டுரை ‘AI வளர்ந்து வருவதால், ‘கொல்லும் ரோபோக்களை’ கட்டுப்படுத்த அழுத்தம் அதிகரிக்கிறது’ பற்றிய முழு விவரங்களையும் என்னால் வழங்க முடியாது. ஐக்கிய நாடுகள் சபையின் செய்தி வெளியீட்டு தளத்தில் (news.un.org) இருந்து குறிப்பிட்ட தகவல்களைப் பெறுவதில் எனக்கு தற்போது சிக்கல் உள்ளது.
இருப்பினும், இந்த தலைப்பைப் பற்றி நான் அறிந்த பொதுவான தகவல்களையும், அது தொடர்பான கவலைகளையும் வைத்து ஒரு விரிவான கட்டுரையை உருவாக்க முடியும்:
AI மற்றும் ‘கொல்லும் ரோபோக்கள்’: ஒழுங்குமுறைக்கான அழுத்தம் அதிகரிப்பு
செயற்கை நுண்ணறிவு (Artificial Intelligence – AI) தொழில்நுட்பம் அபரிமிதமான வேகத்தில் வளர்ந்து வருகிறது. இதன் விளைவாக, பல துறைகளில் முன்னேற்றங்கள் ஏற்பட்டுள்ளன. அதே நேரத்தில், இராணுவத் துறையில் AI பயன்பாடு குறித்த கவலைகளும் அதிகரித்து வருகின்றன. குறிப்பாக, “கொல்லும் ரோபோக்கள்” (killer robots) என்று அழைக்கப்படும் தன்னாட்சி ஆயுத அமைப்புகள் (Autonomous Weapons Systems – AWS) குறித்த விவாதங்கள் தீவிரமடைந்துள்ளன. இந்த ஆயுதங்கள் மனித தலையீடு இல்லாமல் இலக்குகளைத் தேர்ந்தெடுத்துத் தாக்கும் திறன் கொண்டவை.
கொல்லும் ரோபோக்கள் என்றால் என்ன?
கொல்லும் ரோபோக்கள் என்பவை, இலக்குகளை அடையாளம் கண்டு, தாக்குதல் முடிவுகளைத் தாங்களாகவே எடுக்கும் திறனுடைய ஆயுத அமைப்புகளாகும். தற்போதுள்ள பல ஆயுதங்கள் மனிதர்களால் கட்டுப்படுத்தப்படுகின்றன அல்லது முன்கூட்டியே திட்டமிடப்பட்ட இலக்குகளை மட்டுமே தாக்குகின்றன. ஆனால், தன்னாட்சி ஆயுத அமைப்புகள் AI மற்றும் இயந்திர கற்றல் (Machine Learning) மூலம் சூழலை உணர்ந்து, மனித தலையீடு இல்லாமல் செயல்படும் திறன் கொண்டவை.
ஒழுங்குமுறைக்கான காரணம்:
கொல்லும் ரோபோக்களை ஒழுங்குபடுத்தக் கோருவதற்கு பல காரணங்கள் உள்ளன:
- மனிதக் கட்டுப்பாடு இல்லாமை: இந்த ஆயுதங்கள் மனிதக் கட்டுப்பாட்டை மீறிச் செயல்படும் அபாயம் உள்ளது. இதனால், தவறான இலக்குகளைத் தாக்குதல், தேவையற்ற உயிரிழப்புகள் போன்ற விளைவுகள் ஏற்படலாம்.
- பொறுப்புக்கூறல் குறைவு: ஒரு தன்னாட்சி ஆயுத அமைப்பு தவறு செய்தால், யார் பொறுப்பேற்பது என்ற கேள்வி எழுகிறது. நிரலாளரா, தளபதியா அல்லது அந்த ஆயுதமா? தெளிவான வரையறைகள் இல்லாததால், பொறுப்புக்கூறல் கேள்விக்குறியாகிறது.
- நெறிமுறை சிக்கல்கள்: உயிர்களை எடுக்கும் முடிவை ஒரு இயந்திரத்திடம் கொடுப்பது நெறிமுறைப்படி சரியா என்ற விவாதம் உள்ளது. மனிதர்கள் மட்டுமே எடுக்கக்கூடிய முடிவுகளை இயந்திரங்கள் எடுப்பது மனித மாண்புக்கு எதிரானது என்ற வாதமும் முன்வைக்கப்படுகிறது.
- பாதுகாப்புக் கவலைகள்: இந்த ஆயுதங்கள் தவறான கைகளில் சிக்கினால் அல்லது ஹேக் செய்யப்பட்டால், பேரழிவுகள் ஏற்பட வாய்ப்புள்ளது. மேலும், இது ஆயுதப் பந்தயத்தை ஊக்குவிக்கும் அபாயமும் உள்ளது.
சர்வதேச முயற்சிகள்:
கொல்லும் ரோபோக்களை ஒழுங்குபடுத்துவதற்காக சர்வதேச அளவில் பல்வேறு முயற்சிகள் மேற்கொள்ளப்பட்டு வருகின்றன. ஐக்கிய நாடுகள் சபை (United Nations) இதுகுறித்து பல மாநாடுகளை நடத்தியுள்ளது. ஆயுதக் குறைப்பு தொடர்பான மாநாடுகளில் (Conference on Disarmament) இது முக்கிய விவாதப் பொருளாக உள்ளது. பல நாடுகள் இந்த ஆயுதங்களுக்கு தடை விதிக்க வேண்டும் என்று வலியுறுத்தி வருகின்றன.
எதிர்காலம்:
AI தொழில்நுட்பத்தின் வளர்ச்சி அபரிமிதமானது. கொல்லும் ரோபோக்களின் பயன்பாடு அதிகரிக்கும்போது, சர்வதேச அளவில் ஒருமித்த கருத்தை ஏற்படுத்தி, கடுமையான விதிமுறைகளை உருவாக்குவது அவசியமாகிறது. மனித உயிர்களைப் பாதுகாப்பதும், தொழில்நுட்பத்தை பொறுப்புடன் பயன்படுத்துவதை உறுதி செய்வதும் நமது கடமை.
இந்த கட்டுரை, ஜூன் 1, 2025 அன்று வெளியான ஐ.நா. செய்திக் கட்டுரையின் அடிப்படையில் எழுதப்படவில்லை. இருப்பினும், இது ‘கொல்லும் ரோபோக்கள்’ குறித்த பொதுவான கவலைகளையும், ஒழுங்குமுறைக்கான அழுத்தத்தையும் விளக்குகிறது. குறிப்பிட்ட செய்தி அறிக்கையைப் பற்றிய கூடுதல் தகவல்கள் கிடைத்தவுடன், நான் அதை உங்களுக்கு வழங்க முடியும்.
As AI evolves, pressure mounts to regulate ‘killer robots’
AI செய்திகள் வழங்கியுள்ளது.
கீழ்க்கண்ட கேள்வி Google Gemini இல் இருந்து பதிலை உருவாக்க பயன்படுத்தப்பட்டது:
2025-06-01 12:00 மணிக்கு, ‘As AI evolves, pressure mounts to regulate ‘killer robots’’ Top Stories படி வெளியிடப்பட்டது. தயவுசெய்து தொடர்புடைய தகவலுடன் ஒரு விரிவான கட்டுரை எழுதுங்கள். தயவுசெய்து தமிழில் பதிலளிக்கவும்.
268