ஏஐயின் பொறுப்பு குறித்து எப்போது பேசுவோம்?

ஏஐயின் திறன் மீது வியப்பும் – பல சமயங்களில் பெருமிதமும் - வைக்கப்படும் அளவுக்கு, அதன் பொறுப்பு மீது கேள்விகள் வைக்கப்படுவதில்லை.

Update: 2026-03-18 23:40 GMT

வெறும் 11 நாட்களில் 30 லட்சம் ‘பாலியல்ரீதியிலான’ படங்களை உருவாக்கியிருக்கிறது க்ரோக் ஏஐ. இதில் சுமார் 23,000 படங்கள், குழந்தைகளைத் தவறாகச் சித்தரிப்பவை.

அதிர்ச்சியில் ஐரோப்பிய ஒன்றியம் விசாரணையை முடுக்கிவிட்டுள்ளது. இவ்வளவு விரைவாக, பொறுப்பற்று, ஏஐ இப்படி ஒரு வேலையைச் செய்துள்ளது என்பதுதான் இந்த அதிர்ச்சியின் அடிநாதம். என்சிஐஐ (NCII) எனப்படும் ‘ஒப்புதலற்ற பாலியலிணக்கப் படங்கள்’ ஒரு கொடுமையான வன்முறையின் அம்சம். ஆனால், ஏஐ மூலம் இந்த வன்முறை மிக எளிமையாக தொழில்மயமாகியிருக்கிறது.

ஏஐயின் திறன் மீது வியப்பும் – பல சமயங்களில் பெருமிதமும் - வைக்கப்படும் அளவுக்கு, அதன் பொறுப்பு மீது கேள்விகள் வைக்கப்படுவதில்லை. அதிலும் பாலினம்-சார் வன்முறை என்ற புலத்தில், இன்னும் கேள்விக்குறிதான்.

ஏஐக்குப் பொறுப்பா?

பொறுப்பு என்பது மனிதர்களுக்கானதுதானே என்று சிந்திப்போமானால், நாம் இன்னும் பின்தங்கிப்போவோம். ஒரு காலத்தில் அறிவு ஆண்களுக்கானது என்று பேசிய சமூகம்தான் இது. சிந்திப்பது மனிதர்களால் மட்டுமே முடியும் என்று பேசிய சமூகம்தான் இது. ஆனால், இன்று நிலைமை வேறு.

எதிர்வரும் நாட்களில் ஆராய்ச்சிப் பணிகளில், அரசுப் பணிகளில் என எங்கும் - எல்லாம் வல்ல - உதவியாளராக(!) மாறப்போகும் இந்த ஏஐ, மாற்றுக் கருத்துக்கு இடமின்றி, பொறுப்போடு இருக்க வேண்டியதும் அவசியம்தான்.

மாறாக, பொறுப்பற்ற பாதையில் தொழில்நுட்பம் தொடருமானால், இந்தியாவில் ஏற்கனவே வெறுப்புப் பேச்சு இயல்பாகிக்கொண்டிருக்கும் ஆபத்தான சூழல் போல, பாலினரீதியிலான வன்முறையும் இயல்பாக்கப்படும். அதற்கான ‘எச்சரிக்கை மணி’தான் இந்த க்ரோக் ஏஐ மூலம் உருவாக்கிய பாலியல் படங்கள் விவகாரம்.

இந்தியாவிலும் ஏராளமான TFGBV (technology-facilitated gender based violence) வகை பதிவுகள் ஏஐ மூலம் உருவாக்கப்பட்டு பரப்படுவதுண்டு. ஆனால், அவற்றின் வேகமும் வீரியமும் இதுவரை பொதுவெளியில் பேசப்பட்டதில்லை.

இந்த, ‘தொழில்நுட்பம் எளிதாக்கிய பாலினம் சார் வன்முறை’ என்பது ஒரு தனிவகை அல்லது குறிப்பிட்ட வடிவம் என்ற வரையறைகளுக்கு அப்பாற்பட்டது. உருவாக்க, அனுப்ப, பகிர, ரகசியம் காக்க என ஏதோ ஒரு விதத்தில் தொழில்நுட்பம் இந்த தீயநோக்கத்துக்காகப் பயன்படுமானால் அதனை TFGBV வகையில் சேர்க்கலாம். ஏஐ உதவியால் செயல்படும் நிர்வாணமாக்கம்’ (Nudify) மற்றும் ‘ஆழ்போலி’ (Deepfakes) வகை செயலிகள் ஆப் ஸ்டோர்களிலும் தனிப்பட்ட செய்திகள் வழியாகவும் இலவசமாகப் பகிரப்படுகின்றன. இவை இணையவெளியைத் தாண்டி நேரடியான பிரச்சினைகளுக்கும் வழிவகுக்கும்.

பன்னெடுங்காலமாக பெண்களைக் கட்டுப்படுத்துவதற்கு பாலியல்ரீதியிலான கண்ணோட்டங்கள் நிஜ உலகில் எவ்வாறு பயன்பட்டனவோ, ‘உண்மைபோலவே’ உருவாக்கப்படும் இந்த ஏஐ படங்களும் காணொளிகளும் இணைய உலகில் அதேபோல பயன்படுகின்றன. இதில் கவலையளிக்கும் அம்சமே, இது ஒரு தனி தொழில்துறையாகப் பரிணமித்துவருகிறது என்பதுதான். உண்மையில், இப்படி ஒரு துறை உருவாகுமானால் அது சட்டவிரோதமானதுதான்.

ஆனால், இதுவரை ஏஐ மூலம் ‘தகாத’ படங்களையும் காணொளிகளையும் உருவாக்கும் 55 செயலிகள் கூகுள் பிளே ஸ்டோரிலும் 47 செயலிகள் ஆப்பிள் ஸ்டோரிலும் (2026 இல்) இதுவரை கண்டறியப்பட்டுள்ளன. பெண்களுக்கெதிரான வன்முறை தொழில்நுட்ப வடிவில் பெருமளவும் நிறுவனமயமாகிறது என்பதற்கான சான்று இது.

இந்த நிறுவனமயத்தை இயல்பாக்கும் அம்சம்தான் எக்ஸ் போன்ற பொதுத்தளத்தில் மிக எளிதாக, ‘இந்தப் படத்தை நிர்வாணமாக்கு’ என்று ஒரு பயனர் கேட்க வாய்ப்பளித்ததும். 11 நாட்களில் 30 லட்சம் பாலியல்ரீதியான படங்கள் என்பது சாதாரணமானதல்ல. எந்த தொழில்நுட்ப அறிவும் இல்லாத ஒருவர் கூட இனி எளிமையாக இப்படியொன்றை உருவாக்க முடியும் என்றால் அதன் சமூக அபாயம் சிந்தனைக்கு அப்பாற்பட்டது.

கண்டுகொள்ளாமல் விட்ட குழந்தை பின்நாட்களில் கொலை செய்து கைதாகும்போது பெற்றோர் அழுது தீர்ப்பதில் பலனில்லை. ஏஐயின் வளர்ச்சி விகிதத்தைப் பார்த்தால், பொறுப்புக் கடிவாளம் போடாமல் விடுவதும் நம்மை அழ வைக்கலாம்.

ஏஐயின் பிறப்பும் வளர்ப்பும் போதுமான அளவுக்குக் கொண்டாடப்பட்டாயிற்று. இனி பொறுப்பு குறித்து கட்டாயப்படுத்த வேண்டிய காலம் இது.

Tags:    

Similar News