
பெரிய மொழி மாதிரிகளில் உள்ள பாரபட்சங்களை ஆராய்வோம்: குழந்தைகளுக்கு ஒரு அறிவியல் கதை!
வணக்கம் குட்டி விஞ்ஞானிகளே!
MIT என்ற ஒரு பெரிய அறிவியல் நிறுவனம் 2025 ஆம் ஆண்டு ஜூன் 17 அன்று ஒரு அற்புதமான செய்தியை வெளியிட்டது. அதன் பெயர், “பெரிய மொழி மாதிரிகளில் உள்ள பாரபட்சங்களை ஆராய்வோம்” (Unpacking the bias of large language models). இது என்னவென்று உங்களுக்கு புரியும்படி ஒரு சூப்பர் கதையாக சொல்கிறேன்.
பெரிய மொழி மாதிரிகள் என்றால் என்ன?
நாம் பேசும் மொழியை, எழுதும் வார்த்தைகளை எல்லாம் புரிந்துகொண்டு, அதற்கேற்ப பதில்களைக் கொடுக்கும் சக்தி வாய்ந்த கணினி நிரல்கள்தான் இந்த பெரிய மொழி மாதிரிகள். நாம் கேட்கும் கேள்விகளுக்கு பதில் சொல்வது, கதைகள் எழுதுவது, பாடல்கள் இயற்றுவது என பல வேலைகளை இவை செய்யும். இவை பெரும்பாலும் “செயற்கை நுண்ணறிவு” (Artificial Intelligence – AI) என்று அழைக்கப்படுகின்றன.
பாரபட்சம் என்றால் என்ன?
பாரபட்சம் என்பது, ஒரு குறிப்பிட்ட விஷயத்தைப் பற்றி நாம் வைத்திருக்கும் ஒருதலைப்பட்சமான கருத்து. அதாவது, எல்லோரையும் ஒரே மாதிரி பார்க்காமல், சிலர் மீது ஒரு சிறப்பு அன்பு காட்டுவது அல்லது சிலர் மீது வெறுப்பு காட்டுவது போல. உதாரணமாக, “ஆண்கள் தான் தைரியமானவர்கள், பெண்கள் தான் மென்மையானவர்கள்” என்று நினைப்பது ஒரு பாரபட்சம். உண்மையில், எல்லோருமே தைரியமாகவும், எல்லோருமே மென்மையாகவும் இருக்கலாம்.
பெரிய மொழி மாதிரிகளில் எப்படி பாரபட்சம் வருகிறது?
இந்த பெரிய மொழி மாதிரிகள் எப்படி வேலை செய்கின்றன தெரியுமா? அவை இணையத்தில் உள்ள கோடிக்கணக்கான புத்தகங்கள், கட்டுரைகள், இணையப் பக்கங்கள் ஆகியவற்றைப் படித்து கற்றுக்கொள்கின்றன. இந்த தகவல்களில், மனிதர்கள் எழுதி வைத்திருக்கும் பல கருத்துக்களும், சில சமயங்களில் பாரபட்சங்களும் இருக்கும்.
அதாவது, சில கதைகளில் பெண்கள் வீட்டிலேயே இருப்பதாகவும், ஆண்கள் தான் வேலைக்குப் போவதாகவும் எழுதப்பட்டிருக்கலாம். சில சமயங்களில், சில குறிப்பிட்ட நிறமுள்ள அல்லது குறிப்பிட்ட மதத்தைச் சேர்ந்தவர்களைப் பற்றி தவறான கருத்துக்கள் எழுதப்பட்டிருக்கலாம்.
இந்த மாதிரி நிரல்கள் (models) எல்லாவற்றையும் அப்படியே படித்துக் கொள்வதால், மனிதர்கள் எழுதியதில் இருக்கும் பாரபட்சங்களையும் இவை கற்றுக்கொள்கின்றன. அதனால், நாம் கேட்கும் கேள்விகளுக்குப் பதில் சொல்லும்போது, சில சமயங்களில் இந்த பாரபட்சமான கருத்துக்களையும் அவை வெளிப்படுத்திவிடலாம்.
MIT என்ன செய்கிறது?
MIT விஞ்ஞானிகள் இந்த பாரபட்சங்களை எப்படி கண்டுபிடிப்பது, ஏன் வருகிறது, அதை எப்படி சரி செய்வது என்று ஆராய்ச்சி செய்கிறார்கள். அவர்கள் என்ன செய்கிறார்கள் என்றால்:
- கண்காணித்தல்: இந்த மாதிரி நிரல்கள் எப்படி பதில் சொல்கின்றன என்பதை கவனமாகப் பார்க்கிறார்கள். ஏதேனும் பாரபட்சமான பதில் வருகிறதா என்று கண்டறிகிறார்கள்.
- ஆராய்ச்சி: பாரபட்சங்கள் எங்கிருந்து வருகின்றன, எந்த மாதிரி தகவல்களால் வருகின்றன என்று ஆராய்கிறார்கள்.
- சரி செய்தல்: கற்றுக் கொள்வதற்காக கொடுக்கப்படும் தகவல்களை மேலும் சரிசெய்து, பாரபட்சங்கள் குறைவாக உள்ள தகவல்களைக் கொடுக்க முயற்சிக்கிறார்கள். அல்லது, மாதிரி நிரல்களின் பதில்களை மேலும் நியாயமானதாக மாற்றுவதற்கு புதிய வழிகளைக் கண்டுபிடிக்கிறார்கள்.
இது ஏன் முக்கியம்?
நாம் செயற்கை நுண்ணறிவை நம்பி பல வேலைகளைச் செய்கிறோம். உதாரணமாக, வேலைக்கு விண்ணப்பிக்கும்போது, அல்லது ஒருவரிடம் கடன் வாங்கும்போதும், AI உதவலாம். அப்போது, இந்த AI பாரபட்சமாக இருந்தால், சில நல்லவர்களுக்கு வாய்ப்பு கிடைக்காமல் போகலாம்.
குழந்தைகளாகிய நீங்கள் எதிர்காலத்தில் விஞ்ஞானிகளாகவோ, மருத்துவர்களாகவோ, ஆசிரியர்களாகவோ ஆகலாம். அப்போது, நீங்கள் இந்த AI கருவிகளைப் பயன்படுத்த வேண்டியிருக்கும். அதனால், இந்த AI கருவிகள் எல்லோருக்கும் நியாயமாக இருக்க வேண்டும்.
குழந்தைகளாகிய நீங்கள் என்ன செய்யலாம்?
- கேள்வி கேளுங்கள்: உங்களுக்கு ஒரு விஷயத்தில் சந்தேகம் வந்தால், அதைப்பற்றி மேலும் கேளுங்கள். “ஏன் இப்படி சொல்கிறது?”, “இது சரியான பதில்தானா?” என்று யோசியுங்கள்.
- புதிய விஷயங்களைக் கற்றுக்கொள்ளுங்கள்: பலதரப்பட்ட புத்தகங்களைப் படியுங்கள், வெவ்வேறு விதமான மனிதர்களைப் பற்றி தெரிந்துகொள்ளுங்கள். இது உங்கள் மனதில் உள்ள பாரபட்சங்களை நீக்கவும் உதவும்.
- விஞ்ஞானத்தில் ஆர்வம் காட்டுங்கள்: AI போன்ற அறிவியல் கண்டுபிடிப்புகள் எப்படி வேலை செய்கின்றன என்று கற்றுக்கொள்ளுங்கள். நீங்கள் எதிர்காலத்தில் இப்படிப்பட்ட நல்ல விஷயங்களுக்கு உதவலாம்!
MIT விஞ்ஞானிகள் கடினமாக உழைத்து, இந்த பெரிய மொழி மாதிரிகளை அனைவருக்கும் பயனுள்ளதாகவும், நியாயமானதாகவும் மாற்ற முயற்சிக்கிறார்கள். குட்டி விஞ்ஞானிகளாகிய நீங்களும், நம்மைச் சுற்றியுள்ள உலகத்தை இன்னும் அழகாகவும், நியாயமாகவும் மாற்ற உதவலாம்.
அறிவியலை நேசியுங்கள்! கேள்விகள் கேளுங்கள்! உங்கள் கற்பனையை விரிவுபடுத்துங்கள்!
Unpacking the bias of large language models
ஏஐ செய்திகள் வழங்கியுள்ளது.
Google Gemini இலிருந்து பதிலை பெற கீழே உள்ள கேள்வி பயன்படுத்தப்பட்டது:
2025-06-17 20:00 அன்று, Massachusetts Institute of Technology ‘Unpacking the bias of large language models’ ஐ வெளியிட்டது. தயவுசெய்து தொடர்புடைய தகவல்களுடன் விரிவான கட்டுரையை குழந்தைகள் மற்றும் மாணவர்கள் புரிந்துகொள்ளக்கூடிய எளிய மொழியில் எழுதவும், இது அதிக குழந்தைகளை அறிவியலில் ஆர்வம் கொள்ள ஊக்குவிக்கும். தயவுசெய்து கட்டுரையை தமிழில் மட்டும் வழங்கவும்.