Top
Begin typing your search above and press return to search.
கட்டுரை
3 நிமிட வாசிப்பு

ஏஐயின் பொறுப்பு குறித்து எப்போது பேசுவோம்?

ஏஐயின் திறன் மீது வியப்பும் – பல சமயங்களில் பெருமிதமும் - வைக்கப்படும் அளவுக்கு, அதன் பொறுப்பு மீது கேள்விகள் வைக்கப்படுவதில்லை.

ஏஐயின் பொறுப்பு குறித்து எப்போது பேசுவோம்?
X

வெறும் 11 நாட்களில் 30 லட்சம் ‘பாலியல்ரீதியிலான’ படங்களை உருவாக்கியிருக்கிறது க்ரோக் ஏஐ. இதில் சுமார் 23,000 படங்கள், குழந்தைகளைத் தவறாகச் சித்தரிப்பவை.

அதிர்ச்சியில் ஐரோப்பிய ஒன்றியம் விசாரணையை முடுக்கிவிட்டுள்ளது. இவ்வளவு விரைவாக, பொறுப்பற்று, ஏஐ இப்படி ஒரு வேலையைச் செய்துள்ளது என்பதுதான் இந்த அதிர்ச்சியின் அடிநாதம். என்சிஐஐ (NCII) எனப்படும் ‘ஒப்புதலற்ற பாலியலிணக்கப் படங்கள்’ ஒரு கொடுமையான வன்முறையின் அம்சம். ஆனால், ஏஐ மூலம் இந்த வன்முறை மிக எளிமையாக தொழில்மயமாகியிருக்கிறது.

ஏஐயின் திறன் மீது வியப்பும் – பல சமயங்களில் பெருமிதமும் - வைக்கப்படும் அளவுக்கு, அதன் பொறுப்பு மீது கேள்விகள் வைக்கப்படுவதில்லை. அதிலும் பாலினம்-சார் வன்முறை என்ற புலத்தில், இன்னும் கேள்விக்குறிதான்.

ஏஐக்குப் பொறுப்பா?

பொறுப்பு என்பது மனிதர்களுக்கானதுதானே என்று சிந்திப்போமானால், நாம் இன்னும் பின்தங்கிப்போவோம். ஒரு காலத்தில் அறிவு ஆண்களுக்கானது என்று பேசிய சமூகம்தான் இது. சிந்திப்பது மனிதர்களால் மட்டுமே முடியும் என்று பேசிய சமூகம்தான் இது. ஆனால், இன்று நிலைமை வேறு.

எதிர்வரும் நாட்களில் ஆராய்ச்சிப் பணிகளில், அரசுப் பணிகளில் என எங்கும் - எல்லாம் வல்ல - உதவியாளராக(!) மாறப்போகும் இந்த ஏஐ, மாற்றுக் கருத்துக்கு இடமின்றி, பொறுப்போடு இருக்க வேண்டியதும் அவசியம்தான்.

மாறாக, பொறுப்பற்ற பாதையில் தொழில்நுட்பம் தொடருமானால், இந்தியாவில் ஏற்கனவே வெறுப்புப் பேச்சு இயல்பாகிக்கொண்டிருக்கும் ஆபத்தான சூழல் போல, பாலினரீதியிலான வன்முறையும் இயல்பாக்கப்படும். அதற்கான ‘எச்சரிக்கை மணி’தான் இந்த க்ரோக் ஏஐ மூலம் உருவாக்கிய பாலியல் படங்கள் விவகாரம்.

இந்தியாவிலும் ஏராளமான TFGBV (technology-facilitated gender based violence) வகை பதிவுகள் ஏஐ மூலம் உருவாக்கப்பட்டு பரப்படுவதுண்டு. ஆனால், அவற்றின் வேகமும் வீரியமும் இதுவரை பொதுவெளியில் பேசப்பட்டதில்லை.

இந்த, ‘தொழில்நுட்பம் எளிதாக்கிய பாலினம் சார் வன்முறை’ என்பது ஒரு தனிவகை அல்லது குறிப்பிட்ட வடிவம் என்ற வரையறைகளுக்கு அப்பாற்பட்டது. உருவாக்க, அனுப்ப, பகிர, ரகசியம் காக்க என ஏதோ ஒரு விதத்தில் தொழில்நுட்பம் இந்த தீயநோக்கத்துக்காகப் பயன்படுமானால் அதனை TFGBV வகையில் சேர்க்கலாம். ஏஐ உதவியால் செயல்படும் நிர்வாணமாக்கம்’ (Nudify) மற்றும் ‘ஆழ்போலி’ (Deepfakes) வகை செயலிகள் ஆப் ஸ்டோர்களிலும் தனிப்பட்ட செய்திகள் வழியாகவும் இலவசமாகப் பகிரப்படுகின்றன. இவை இணையவெளியைத் தாண்டி நேரடியான பிரச்சினைகளுக்கும் வழிவகுக்கும்.

பன்னெடுங்காலமாக பெண்களைக் கட்டுப்படுத்துவதற்கு பாலியல்ரீதியிலான கண்ணோட்டங்கள் நிஜ உலகில் எவ்வாறு பயன்பட்டனவோ, ‘உண்மைபோலவே’ உருவாக்கப்படும் இந்த ஏஐ படங்களும் காணொளிகளும் இணைய உலகில் அதேபோல பயன்படுகின்றன. இதில் கவலையளிக்கும் அம்சமே, இது ஒரு தனி தொழில்துறையாகப் பரிணமித்துவருகிறது என்பதுதான். உண்மையில், இப்படி ஒரு துறை உருவாகுமானால் அது சட்டவிரோதமானதுதான்.

ஆனால், இதுவரை ஏஐ மூலம் ‘தகாத’ படங்களையும் காணொளிகளையும் உருவாக்கும் 55 செயலிகள் கூகுள் பிளே ஸ்டோரிலும் 47 செயலிகள் ஆப்பிள் ஸ்டோரிலும் (2026 இல்) இதுவரை கண்டறியப்பட்டுள்ளன. பெண்களுக்கெதிரான வன்முறை தொழில்நுட்ப வடிவில் பெருமளவும் நிறுவனமயமாகிறது என்பதற்கான சான்று இது.

இந்த நிறுவனமயத்தை இயல்பாக்கும் அம்சம்தான் எக்ஸ் போன்ற பொதுத்தளத்தில் மிக எளிதாக, ‘இந்தப் படத்தை நிர்வாணமாக்கு’ என்று ஒரு பயனர் கேட்க வாய்ப்பளித்ததும். 11 நாட்களில் 30 லட்சம் பாலியல்ரீதியான படங்கள் என்பது சாதாரணமானதல்ல. எந்த தொழில்நுட்ப அறிவும் இல்லாத ஒருவர் கூட இனி எளிமையாக இப்படியொன்றை உருவாக்க முடியும் என்றால் அதன் சமூக அபாயம் சிந்தனைக்கு அப்பாற்பட்டது.

கண்டுகொள்ளாமல் விட்ட குழந்தை பின்நாட்களில் கொலை செய்து கைதாகும்போது பெற்றோர் அழுது தீர்ப்பதில் பலனில்லை. ஏஐயின் வளர்ச்சி விகிதத்தைப் பார்த்தால், பொறுப்புக் கடிவாளம் போடாமல் விடுவதும் நம்மை அழ வைக்கலாம்.

ஏஐயின் பிறப்பும் வளர்ப்பும் போதுமான அளவுக்குக் கொண்டாடப்பட்டாயிற்று. இனி பொறுப்பு குறித்து கட்டாயப்படுத்த வேண்டிய காலம் இது.


Next Story

மேலும் படிக்க

All Rights Reserved. Copyright @2019
Share it