இணையத்தில் எவருக்கும் அணுகக்கூடிய வகையில் பல்லாயிரக்கணக்கான அதிர்ச்சியூட்டும் AI மூலம் உருவாக்கப்பட்ட படங்கள், குறிப்பாக குழந்தைகளின் பாலியல் துன்புறுத்தல் தொடர்பான படங்கள் கசிந்துள்ளது உலகையே உலுக்கியுள்ளது. இந்த அதிர்ச்சி தரும் கசிவு, AI தொழில்நுட்பம் எவ்வளவு ஆபத்தான முறையில் தவறாக பயன்படுத்தப்படலாம் என்பதற்கான கசப்பான சாட்சியாகும்.
தென் கொரியாவை தளமாகக் கொண்ட AI பட உருவாக்கும் நிறுவனத்திற்குச் சொந்தமான திறந்த தரவுத்தளத்தில் 95,000 க்கும் மேற்பட்ட பதிவுகள் இருந்தன. அதில் அரியானா கிராண்டே, கார்டாஷியன்ஸ் மற்றும் பியோன்சே போன்ற பிரபலங்களின் குழந்தைப் பருவ தோற்றங்கள் உட்பட, அதிர்ச்சியூட்டும் AI மூலம் உருவாக்கப்பட்ட படங்கள் அடங்கும். இந்த ஆபத்தான கசிவை பாதுகாப்பு ஆராய்ச்சியாளர் ஜெர்மெயா ஃபவுலர் கண்டுபிடித்து, WIRED செய்தி நிறுவனத்துடன் பகிர்ந்து கொண்டார்.
இந்த தரவுத்தளம், தென் கொரியாவை தளமாகக் கொண்ட GenNomis என்ற இணையதளத்துடன் இணைக்கப்பட்டுள்ளது. AI-Nomis என்ற தாய் நிறுவனத்தின் கீழ் இயங்கும் இந்த இணையதளம், பயனர்கள் பயன்படுத்த பலவிதமான AI பட உருவாக்கம் மற்றும் சாட்போட் கருவிகளை வழங்கியது. சுமார் 45 GB க்கும் அதிகமான தரவு, பெரும்பாலும் AI படங்களால் நிரம்பியது, இணையத்தில் எந்தவித பாதுகாப்பும் இன்றி திறந்த நிலையில் விடப்பட்டது.
இந்த கசிவு, AI பட உருவாக்கும் கருவிகள் எவ்வளவு எளிதாக தவறாகப் பயன்படுத்தப்பட்டு, பெரியவர்களுக்கும் குழந்தைகளுக்கும் ஒப்புதல் இல்லாமல் அதிர்ச்சி தரும் பாலியல் ரீதியான உள்ளடக்கத்தை உருவாக்க முடியும் என்பதற்கான ஆபத்தான எடுத்துக்காட்டாகும். சமீபத்திய ஆண்டுகளில், "டீப்ஃபேக்" மற்றும் "நியூடிஃபை" போன்ற இணையதளங்கள், போட்கள் மற்றும் செயலிகள் பெருகி, ஆயிரக்கணக்கான பெண்கள் மற்றும் சிறுமிகள் மோசமான படங்கள் மற்றும் வீடியோக்களால் குறிவைக்கப்பட்டுள்ளனர். மேலும், AI மூலம் உருவாக்கப்பட்ட குழந்தைகள் பாலியல் துன்புறுத்தல் தொடர்பான படங்களின் எண்ணிக்கையும் அதிகரித்துள்ளது.
"இது எவ்வளவு ஆபத்தானது என்பதுதான் முக்கியமான விஷயம்," என்று ஃபவுலர் கூறுகிறார். "பாதுகாப்பு ஆராய்ச்சியாளராகவும், பெற்றோராகவும் பார்க்கும்போது, இது பயங்கரமானது. அந்த உள்ளடக்கத்தை உருவாக்குவது எவ்வளவு எளிது என்பதும் பயங்கரமானது."
ஃபவுலர் மார்ச் மாத தொடக்கத்தில் கடவுச்சொல் பாதுகாப்பு அல்லது குறியாக்கம் செய்யப்படாத கோப்புகளின் திறந்த சேமிப்பைக் கண்டுபிடித்து, அதில் AI CSAM (Child Sexual Abuse Material) படங்கள் இருப்பதைச் சுட்டிக்காட்டி GenNomis மற்றும் AI-Nomis ஆகிய இரு நிறுவனங்களுக்கும் விரைவாகத் தெரிவித்தார். GenNomis உடனடியாக தரவுத்தளத்தை மூடியது, ஆனால் ஃபவுலர் கண்டறிந்த தகவல்களுக்கு அவர்கள் பதிலளிக்கவில்லை.
WIRED செய்தி நிறுவனம் பலமுறை கருத்து கேட்டபோதும் GenNomis அல்லது AI-Nomis எந்த பதிலும் அளிக்கவில்லை. ஆனால், WIRED நிறுவனத்தை அவர்கள் தொடர்பு கொண்ட சில மணிநேரங்களில், இரு நிறுவனங்களின் இணையதளங்களும் மூடப்பட்டன. GenNomis இணையதளம் இப்போது 404 பிழைப் பக்கத்தைக் காட்டுகிறது.
"இத்தகைய தவறான படங்களை உருவாக்க உதவும் AI க்கான சந்தை எவ்வளவு ஆபத்தானது என்பதை இந்த எடுத்துக்காட்டு மீண்டும் காட்டுகிறது," என்று ஆன்லைன் மற்றும் படம் சார்ந்த துஷ்பிரயோகத்தில் நிபுணத்துவம் பெற்ற இங்கிலாந்தில் உள்ள டர்ஹாம் பல்கலைக்கழகத்தின் சட்ட பேராசிரியர் கிளேர் மெக்லின் கூறுகிறார். "குழந்தைகள் பாலியல் துன்புறுத்தல் தொடர்பான படங்களை உருவாக்குதல், வைத்திருத்தல் மற்றும் விநியோகித்தல் ஆகியவை அரிதானவை அல்ல, மேலும் தவறான நபர்களால் செய்யப்படுகின்றன என்பதை இது நமக்கு நினைவூட்ட வேண்டும்."
அழிக்கப்படுவதற்கு முன்பு, GenNomis அதன் முகப்புப் பக்கத்தில் பலவிதமான AI கருவிகளை பட்டியலிட்டது. அதில் பயனர்கள் உருவாக்க விரும்பும் படங்களின் " prompts " ஐ உள்ளிட அனுமதிக்கும் பட ஜெனரேட்டர், முகம் மாற்றும் கருவி, பின்னணி நீக்கும் கருவி மற்றும் வீடியோக்களை படங்களாக மாற்றும் விருப்பம் போன்றவை இருந்தன.
"மிகவும் தொந்தரவான விஷயம், வெளிப்படையாக, குழந்தைகள் தொடர்பான வெளிப்படையான படங்கள் மற்றும் குழந்தைகளாக மாற்றியமைக்கப்பட்ட பிரபலங்களைப் பார்த்ததுதான்," என்று ஃபவுலர் கூறுகிறார். முற்றிலும் உடையணிந்த இளம் பெண்களின் AI மூலம் உருவாக்கப்பட்ட படங்களும் இருந்தன என்று அவர் கூறுகிறார். அந்த சந்தர்ப்பங்களில், பயன்படுத்தப்பட்ட முகங்கள் முற்றிலும் AI மூலம் உருவாக்கப்பட்டவையா அல்லது உண்மையான படங்களை அடிப்படையாகக் கொண்டவையா என்பது தெளிவாக இல்லை.
குழந்தைகள் பாலியல் துன்புறுத்தல் தொடர்பான படங்களுடன், தரவுத்தளத்தில் பெரியவர்களின் AI மூலம் உருவாக்கப்பட்ட ஆபாசப் படங்களும் மற்றும் " face swap " படங்களும் இருந்தன என்று ஃபவுலர் கூறுகிறார். கோப்புகளில், உண்மையான நபர்களின் புகைப்படங்கள் போல் தோன்றியவற்றைக் கண்டறிந்தார், அவை " explicit nude " அல்லது பாலியல் AI மூலம் உருவாக்கப்பட்ட படங்களை உருவாக்க பயன்படுத்தப்பட்டிருக்கலாம் என்று அவர் கூறுகிறார். "அவர்கள் உண்மையான நபர்களின் படங்களை எடுத்து அவர்களின் முகங்களை மாற்றுகிறார்கள்," என்று சில உருவாக்கப்பட்ட படங்களைப் பற்றி அவர் கூறுகிறார்.
GenNomis இணையதளம் நேரலையில் இருந்தபோது, வெளிப்படையான AI பெரியவர்களின் படங்களை அனுமதித்தது. அதன் முகப்புப் பக்கத்தில் இடம்பெற்ற பல படங்கள் மற்றும் AI " models " பிரிவில் பெண்களின் பாலியல் படங்கள் இடம்பெற்றன. இதில் " NSFW " கேலரி மற்றும் பயனர்கள் படங்களைப் பகிரவும் AI மூலம் உருவாக்கப்பட்ட புகைப்படங்களின் ஆல்பங்களை விற்கவும் கூடிய " marketplace " ஆகியவை அடங்கும். " unrestricted " படங்கள் மற்றும் வீடியோக்களை உருவாக்கலாம் என்று இணையதளத்தின் டேக்லைன் கூறியது; 2024 இல் இருந்து முந்தைய பதிப்பில் " uncensored images " உருவாக்கப்படலாம் என்று கூறப்பட்டது.
GenNomis இன் பயனர் கொள்கைகள் "மரியாதையான உள்ளடக்கம்" மட்டுமே அனுமதிக்கப்படுகிறது என்று கூறியது, "வெளிப்படையான வன்முறை" மற்றும் வெறுப்பு பேச்சு தடைசெய்யப்பட்டுள்ளது என்றும் கூறியது. "குழந்தைகள் ஆபாசப் படங்கள் மற்றும் பிற சட்டவிரோத நடவடிக்கைகள் GenNomis இல் கண்டிப்பாக தடைசெய்யப்பட்டுள்ளன," என்று அதன் சமூக வழிகாட்டுதல்கள் கூறின. தடைசெய்யப்பட்ட உள்ளடக்கத்தை இடும் கணக்குகள் நிறுத்தப்படும் என்று கூறப்பட்டது.
AI தூண்டுதல்களை உள்ளடக்கியதாகத் தோன்றிய கோப்புகளையும் தரவுத்தளம் வெளிப்படுத்தியது என்று ஃபவுலர் கூறுகிறார். வெளிப்படுத்தப்பட்ட தரவில் உள்நுழைவுகள் அல்லது பயனர்பெயர்கள் போன்ற பயனர் தரவு எதுவும் இல்லை என்று அவர் கூறுகிறார். தூண்டுதல்களின் ஸ்கிரீன்ஷாட்கள் " tiny ," " girl " போன்ற சொற்களின் பயன்பாடு மற்றும் குடும்ப உறுப்பினர்களுக்கு இடையே பாலியல் செயல்களைக் குறிப்பிடுவதைக் காட்டுகின்றன. தூண்டுதல்களில் பிரபலங்களுக்கு இடையே பாலியல் செயல்களும் இருந்தன.
"சட்டரீதியான கண்ணோட்டத்தில், குழந்தைகள் தொடர்பான வெளிப்படையான படங்கள் சட்டவிரோதமானது என்பது நமக்குத் தெரியும், ஆனால் அந்த படங்களை உருவாக்கும் திறனை தொழில்நுட்பம் தடுக்கவில்லை" என்று ஃபவுலர் கூறுகிறார்.
இந்த அதிர்ச்சியூட்டும் கசிவு AI தொழில்நுட்பத்தை தவறாக பயன்படுத்தும் ஆபத்தை மீண்டும் ஒருமுறை உணர்த்துகிறது. இந்த ஆபத்தை தடுக்க உடனடி நடவடிக்கை எடுக்கப்பட வேண்டும்.
Transcreated based on wired Article.