Monday, March 31, 2025

அதிர்ச்சியளிக்கும் AI ஆபாச வலைத்தளம் அம்பலம்! பிரபலங்களின் குழந்தை பருவ படங்கள் உட்பட 95,000+ ஆபத்தான படங்கள் கசிவு!

 இணையத்தில் எவருக்கும் அணுகக்கூடிய வகையில் பல்லாயிரக்கணக்கான அதிர்ச்சியூட்டும் AI மூலம் உருவாக்கப்பட்ட படங்கள், குறிப்பாக குழந்தைகளின் பாலியல் துன்புறுத்தல் தொடர்பான படங்கள் கசிந்துள்ளது உலகையே உலுக்கியுள்ளது. இந்த அதிர்ச்சி தரும் கசிவு, AI தொழில்நுட்பம் எவ்வளவு ஆபத்தான முறையில் தவறாக பயன்படுத்தப்படலாம் என்பதற்கான கசப்பான சாட்சியாகும்.

தென் கொரியாவை தளமாகக் கொண்ட AI பட உருவாக்கும் நிறுவனத்திற்குச் சொந்தமான திறந்த தரவுத்தளத்தில் 95,000 க்கும் மேற்பட்ட பதிவுகள் இருந்தன. அதில் அரியானா கிராண்டே, கார்டாஷியன்ஸ் மற்றும் பியோன்சே போன்ற பிரபலங்களின் குழந்தைப் பருவ தோற்றங்கள் உட்பட, அதிர்ச்சியூட்டும் AI மூலம் உருவாக்கப்பட்ட படங்கள் அடங்கும். இந்த ஆபத்தான கசிவை பாதுகாப்பு ஆராய்ச்சியாளர் ஜெர்மெயா ஃபவுலர் கண்டுபிடித்து, WIRED செய்தி நிறுவனத்துடன் பகிர்ந்து கொண்டார்.

இந்த தரவுத்தளம், தென் கொரியாவை தளமாகக் கொண்ட GenNomis என்ற இணையதளத்துடன் இணைக்கப்பட்டுள்ளது. AI-Nomis என்ற தாய் நிறுவனத்தின் கீழ் இயங்கும் இந்த இணையதளம், பயனர்கள் பயன்படுத்த பலவிதமான AI பட உருவாக்கம் மற்றும் சாட்போட் கருவிகளை வழங்கியது. சுமார் 45 GB க்கும் அதிகமான தரவு, பெரும்பாலும் AI படங்களால் நிரம்பியது, இணையத்தில் எந்தவித பாதுகாப்பும் இன்றி திறந்த நிலையில் விடப்பட்டது.

இந்த கசிவு, AI பட உருவாக்கும் கருவிகள் எவ்வளவு எளிதாக தவறாகப் பயன்படுத்தப்பட்டு, பெரியவர்களுக்கும் குழந்தைகளுக்கும் ஒப்புதல் இல்லாமல் அதிர்ச்சி தரும் பாலியல் ரீதியான உள்ளடக்கத்தை உருவாக்க முடியும் என்பதற்கான ஆபத்தான எடுத்துக்காட்டாகும். சமீபத்திய ஆண்டுகளில், "டீப்ஃபேக்" மற்றும் "நியூடிஃபை" போன்ற இணையதளங்கள், போட்கள் மற்றும் செயலிகள் பெருகி, ஆயிரக்கணக்கான பெண்கள் மற்றும் சிறுமிகள் மோசமான படங்கள் மற்றும் வீடியோக்களால் குறிவைக்கப்பட்டுள்ளனர். மேலும், AI மூலம் உருவாக்கப்பட்ட குழந்தைகள் பாலியல் துன்புறுத்தல் தொடர்பான படங்களின் எண்ணிக்கையும் அதிகரித்துள்ளது.

"இது எவ்வளவு ஆபத்தானது என்பதுதான் முக்கியமான விஷயம்," என்று ஃபவுலர் கூறுகிறார். "பாதுகாப்பு ஆராய்ச்சியாளராகவும், பெற்றோராகவும் பார்க்கும்போது, இது பயங்கரமானது. அந்த உள்ளடக்கத்தை உருவாக்குவது எவ்வளவு எளிது என்பதும் பயங்கரமானது."

ஃபவுலர் மார்ச் மாத தொடக்கத்தில் கடவுச்சொல் பாதுகாப்பு அல்லது குறியாக்கம் செய்யப்படாத கோப்புகளின் திறந்த சேமிப்பைக் கண்டுபிடித்து, அதில் AI CSAM (Child Sexual Abuse Material) படங்கள் இருப்பதைச் சுட்டிக்காட்டி GenNomis மற்றும் AI-Nomis ஆகிய இரு நிறுவனங்களுக்கும் விரைவாகத் தெரிவித்தார். GenNomis உடனடியாக தரவுத்தளத்தை மூடியது, ஆனால் ஃபவுலர் கண்டறிந்த தகவல்களுக்கு அவர்கள் பதிலளிக்கவில்லை.

WIRED செய்தி நிறுவனம் பலமுறை கருத்து கேட்டபோதும் GenNomis அல்லது AI-Nomis எந்த பதிலும் அளிக்கவில்லை. ஆனால், WIRED நிறுவனத்தை அவர்கள் தொடர்பு கொண்ட சில மணிநேரங்களில், இரு நிறுவனங்களின் இணையதளங்களும் மூடப்பட்டன. GenNomis இணையதளம் இப்போது 404 பிழைப் பக்கத்தைக் காட்டுகிறது.

"இத்தகைய தவறான படங்களை உருவாக்க உதவும் AI க்கான சந்தை எவ்வளவு ஆபத்தானது என்பதை இந்த எடுத்துக்காட்டு மீண்டும் காட்டுகிறது," என்று ஆன்லைன் மற்றும் படம் சார்ந்த துஷ்பிரயோகத்தில் நிபுணத்துவம் பெற்ற இங்கிலாந்தில் உள்ள டர்ஹாம் பல்கலைக்கழகத்தின் சட்ட பேராசிரியர் கிளேர் மெக்லின் கூறுகிறார். "குழந்தைகள் பாலியல் துன்புறுத்தல் தொடர்பான படங்களை உருவாக்குதல், வைத்திருத்தல் மற்றும் விநியோகித்தல் ஆகியவை அரிதானவை அல்ல, மேலும் தவறான நபர்களால் செய்யப்படுகின்றன என்பதை இது நமக்கு நினைவூட்ட வேண்டும்."

அழிக்கப்படுவதற்கு முன்பு, GenNomis அதன் முகப்புப் பக்கத்தில் பலவிதமான AI கருவிகளை பட்டியலிட்டது. அதில் பயனர்கள் உருவாக்க விரும்பும் படங்களின் " prompts " ஐ உள்ளிட அனுமதிக்கும் பட ஜெனரேட்டர், முகம் மாற்றும் கருவி, பின்னணி நீக்கும் கருவி மற்றும் வீடியோக்களை படங்களாக மாற்றும் விருப்பம் போன்றவை இருந்தன.

"மிகவும் தொந்தரவான விஷயம், வெளிப்படையாக, குழந்தைகள் தொடர்பான வெளிப்படையான படங்கள் மற்றும் குழந்தைகளாக மாற்றியமைக்கப்பட்ட பிரபலங்களைப் பார்த்ததுதான்," என்று ஃபவுலர் கூறுகிறார். முற்றிலும் உடையணிந்த இளம் பெண்களின் AI மூலம் உருவாக்கப்பட்ட படங்களும் இருந்தன என்று அவர் கூறுகிறார். அந்த சந்தர்ப்பங்களில், பயன்படுத்தப்பட்ட முகங்கள் முற்றிலும் AI மூலம் உருவாக்கப்பட்டவையா அல்லது உண்மையான படங்களை அடிப்படையாகக் கொண்டவையா என்பது தெளிவாக இல்லை.

குழந்தைகள் பாலியல் துன்புறுத்தல் தொடர்பான படங்களுடன், தரவுத்தளத்தில் பெரியவர்களின் AI மூலம் உருவாக்கப்பட்ட ஆபாசப் படங்களும் மற்றும் " face swap " படங்களும் இருந்தன என்று ஃபவுலர் கூறுகிறார். கோப்புகளில், உண்மையான நபர்களின் புகைப்படங்கள் போல் தோன்றியவற்றைக் கண்டறிந்தார், அவை " explicit nude " அல்லது பாலியல் AI மூலம் உருவாக்கப்பட்ட படங்களை உருவாக்க பயன்படுத்தப்பட்டிருக்கலாம் என்று அவர் கூறுகிறார். "அவர்கள் உண்மையான நபர்களின் படங்களை எடுத்து அவர்களின் முகங்களை மாற்றுகிறார்கள்," என்று சில உருவாக்கப்பட்ட படங்களைப் பற்றி அவர் கூறுகிறார்.

GenNomis இணையதளம் நேரலையில் இருந்தபோது, வெளிப்படையான AI பெரியவர்களின் படங்களை அனுமதித்தது. அதன் முகப்புப் பக்கத்தில் இடம்பெற்ற பல படங்கள் மற்றும் AI " models " பிரிவில் பெண்களின் பாலியல் படங்கள் இடம்பெற்றன. இதில் " NSFW " கேலரி மற்றும் பயனர்கள் படங்களைப் பகிரவும் AI மூலம் உருவாக்கப்பட்ட புகைப்படங்களின் ஆல்பங்களை விற்கவும் கூடிய " marketplace " ஆகியவை அடங்கும். " unrestricted " படங்கள் மற்றும் வீடியோக்களை உருவாக்கலாம் என்று இணையதளத்தின் டேக்லைன் கூறியது; 2024 இல் இருந்து முந்தைய பதிப்பில் " uncensored images " உருவாக்கப்படலாம் என்று கூறப்பட்டது.

GenNomis இன் பயனர் கொள்கைகள் "மரியாதையான உள்ளடக்கம்" மட்டுமே அனுமதிக்கப்படுகிறது என்று கூறியது, "வெளிப்படையான வன்முறை" மற்றும் வெறுப்பு பேச்சு தடைசெய்யப்பட்டுள்ளது என்றும் கூறியது. "குழந்தைகள் ஆபாசப் படங்கள் மற்றும் பிற சட்டவிரோத நடவடிக்கைகள் GenNomis இல் கண்டிப்பாக தடைசெய்யப்பட்டுள்ளன," என்று அதன் சமூக வழிகாட்டுதல்கள் கூறின. தடைசெய்யப்பட்ட உள்ளடக்கத்தை இடும் கணக்குகள் நிறுத்தப்படும் என்று கூறப்பட்டது.

AI தூண்டுதல்களை உள்ளடக்கியதாகத் தோன்றிய கோப்புகளையும் தரவுத்தளம் வெளிப்படுத்தியது என்று ஃபவுலர் கூறுகிறார். வெளிப்படுத்தப்பட்ட தரவில் உள்நுழைவுகள் அல்லது பயனர்பெயர்கள் போன்ற பயனர் தரவு எதுவும் இல்லை என்று அவர் கூறுகிறார். தூண்டுதல்களின் ஸ்கிரீன்ஷாட்கள் " tiny ," " girl " போன்ற சொற்களின் பயன்பாடு மற்றும் குடும்ப உறுப்பினர்களுக்கு இடையே பாலியல் செயல்களைக் குறிப்பிடுவதைக் காட்டுகின்றன. தூண்டுதல்களில் பிரபலங்களுக்கு இடையே பாலியல் செயல்களும் இருந்தன.

"சட்டரீதியான கண்ணோட்டத்தில், குழந்தைகள் தொடர்பான வெளிப்படையான படங்கள் சட்டவிரோதமானது என்பது நமக்குத் தெரியும், ஆனால் அந்த படங்களை உருவாக்கும் திறனை தொழில்நுட்பம் தடுக்கவில்லை" என்று ஃபவுலர் கூறுகிறார்.

இந்த அதிர்ச்சியூட்டும் கசிவு AI தொழில்நுட்பத்தை தவறாக பயன்படுத்தும் ஆபத்தை மீண்டும் ஒருமுறை உணர்த்துகிறது. இந்த ஆபத்தை தடுக்க உடனடி நடவடிக்கை எடுக்கப்பட வேண்டும்.

Transcreated based on wired Article. 

Tuesday, March 25, 2025

Ethically ’Spareட்’ Human: சிந்திக்காத, நரம்பில்லா மனித உடல் : உடல் உறுப்பு சிகிச்சையில் புரட்சியை ஏற்படுத்துமா?

மருத்துவத்துறையில் பல சவால்கள் இருப்பதற்கு முக்கிய காரணம், அறநெறிப்படி பெறப்பட்ட மனித உடல்களின் கடுமையான பற்றாக்குறை. மனித உடல்கள் என்றால், உடல் உறுப்புகள், திசுக்கள், மற்றும் மருத்துவ ஆய்வுகளுக்குப் பயன்படும் மனித மாதிரிகள். இப்போது உயிர்த்தொழில்நுட்பத்தில் (biotechnology) ஏற்பட்டுள்ள சமீபத்திய முன்னேற்றங்கள், சிந்திக்கவோ, உணரவோ, அல்லது வலியை உணரவோ முடியாத உயிரினங்களை உருவாக்க ஒரு வழியை வழங்குகின்றன. அதாவது, மூளை மற்றும் நரம்பு மண்டலம் இல்லாமல், வெறும் உடல் உறுப்புகளையும் திசுக்களையும் மட்டுமே உருவாக்க முடியும்.

இந்த யோசனை பலருக்கு அதிர்ச்சியாக இருக்கலாம். ஆனால், ஆராய்ச்சியாளர்களும் கொள்கை வகுப்பாளர்களும் இந்த தொழில்நுட்பங்களை ஒன்றிணைக்க முடிந்தால், மனித மற்றும் விலங்குகளின் "உதிரி" உடல்களை நாம் உருவாக்க முடியும். "உதிரி" உடல்கள் என்றால், தேவைப்படும்போது பயன்படுத்தக்கூடிய கூடுதல் உடல்கள்.

இந்த "உதிரி" உடல்கள் மருத்துவ ஆராய்ச்சியை புரட்சிகரமாக்கும். விலங்குகளின் மீது செய்யப்படும் சோதனைகளின் தேவையை குறைத்து, உறுப்பு மாற்று அறுவை சிகிச்சைக்கு காத்திருக்கும் பல உயிர்களை காப்பாற்றும். மேலும், மிகவும் பயனுள்ள மருந்துகள் மற்றும் சிகிச்சைகளை உருவாக்க உதவும். இது பெரும்பாலான மக்களின் அறநெறி எல்லைகளை மீறாமல், மருத்துவ முன்னேற்றங்களுக்கு வழிவகுக்கும்.

உதாரணமாக, ஒருவருக்கு சிறுநீரகம் செயலிழந்துவிட்டால், அவருக்கு உறுப்பு மாற்று அறுவை சிகிச்சை தேவைப்படும். தற்போது, உறுப்பு தானம் செய்பவர்கள் குறைவாக இருப்பதால், பலர் நீண்ட காலம் காத்திருக்க வேண்டியுள்ளது. ஆனால், "உதிரி" மனித உடல்களை உருவாக்க முடிந்தால், தேவைப்படும் நபர்களுக்கு உடனடியாக உறுப்பு மாற்று அறுவை சிகிச்சை செய்ய முடியும்.

நரம்புகள் இல்லாத மனித உடல்களை உருவாக்குவது பின்னால் உள்ள அடிப்படை செயல்முறை மனித உடலை உருவாக்க தேவையான செல்களை ஆய்வகத்தில் வளர்ப்பது. இந்த செல்கள், மூளை மற்றும் நரம்பு மண்டலத்தை உருவாக்க தேவையான மரபணுக்களை (genes) கொண்டிருக்காது. இதனால், உருவாகும் உடல், உணர்வு மற்றும் வலி போன்றவற்றை உணர முடியாது.

இந்த செயல்முறையை சில முக்கிய நிலைகளாகப் பிரிக்கலாம்:

  1. ஸ்டெம் செல்கள் (Stem Cells) சேகரிப்பு: முதலில், மனித ஸ்டெம் செல்கள் சேகரிக்கப்பட வேண்டும். ஸ்டெம் செல்கள் என்பது, எந்த விதமான செல் ஆகவும் மாறக்கூடிய சிறப்பு செல்கள். இவை, எலும்பு மஜ்ஜை (bone marrow), இரத்த ஓட்டம் (blood stream), மற்றும் கரு (embryo) போன்ற பல்வேறு ஆதாரங்களில் இருந்து சேகரிக்கப்படலாம். கருவில் இருந்து ஸ்டெம் செல்கள் சேகரிப்பது பல அறநெறி சிக்கல்களை எழுப்புகிறது. அதனால், எலும்பு மஜ்ஜை மற்றும் இரத்த ஓட்டத்தில் இருந்து ஸ்டெம் செல்களை சேகரிப்பது மிகவும் விரும்பத்தக்கது.
  2. மரபணு மாற்றம் (Genetic Modification): சேகரிக்கப்பட்ட ஸ்டெம் செல்கள், மூளை மற்றும் நரம்பு மண்டலத்தை உருவாக்க தேவையான மரபணுக்களை நீக்க மரபணு மாற்றம் செய்யப்பட வேண்டும். CRISPR-Cas9 போன்ற மரபணு எடிட்டிங் (gene editing) கருவிகள், இந்த மாற்றத்தை செய்ய பயன்படும். இதன்மூலம், ஸ்டெம் செல்கள் நரம்பு மண்டலத்தை உருவாக்காமல், உடல் உறுப்புகளை மட்டும் உருவாக்கும்.
  3. திசு வளர்ப்பு (Tissue Culture): மரபணு மாற்றப்பட்ட ஸ்டெம் செல்கள், ஆய்வகத்தில் திசு வளர்ப்பு முறையில் வளர்க்கப்பட வேண்டும். இந்த முறையில், ஸ்டெம் செல்கள் தேவையான ஊட்டச்சத்துக்கள் மற்றும் வளர்ச்சி காரணிகள் (growth factors) வழங்கப்பட்டு, அவை பல்வேறு வகையான திசுக்களாக மாற ஊக்குவிக்கப்படும்.
  4. உறுப்பு உருவாக்கம் (Organogenesis): திசு வளர்ப்பு முறையில் உருவாக்கப்பட்ட திசுக்கள், 3D பயோபிரிண்டிங் (3D bioprinting) போன்ற தொழில்நுட்பங்களை பயன்படுத்தி உறுப்புகளாக உருவாக்கப்படலாம். 3D பயோபிரிண்டிங் முறையில், திசுக்கள் அடுக்குகளாக அச்சிடப்பட்டு, அவை ஒன்றிணைந்து உறுப்புகளாக உருவாகும்.
  5. உடல் உருவாக்கம் (Body Formation): உருவாக்கப்பட்ட உறுப்புகள், ஒரு செயற்கை எலும்புக்கூடு (artificial skeleton) அல்லது ஒரு பயோரியாக்டர் (bioreactor) போன்ற ஒரு கட்டமைப்பில் ஒருங்கிணைக்கப்பட்டு, ஒரு முழுமையான மனித உடல் உருவாக்கப்படும். இந்த உடல், தேவையான இரத்த ஓட்டம் மற்றும் ஊட்டச்சத்துக்களை பெற செயற்கை இரத்த நாளங்கள் (artificial blood vessels) மற்றும் பிற ஆதரவு அமைப்புகளை கொண்டிருக்கும்.

இந்த செயல்முறை பல தொழில்நுட்ப சவால்களை கொண்டுள்ளது. குறிப்பாக, சிக்கலான உறுப்புகளை உருவாக்குவது மற்றும் அவற்றை ஒரு முழுமையான உடலில் ஒருங்கிணைப்பது மிகவும் கடினமான பணியாகும். மேலும், இந்த செயல்முறையின் பாதுகாப்பு மற்றும் நம்பகத்தன்மையை உறுதி செய்வது மிகவும் முக்கியம்.

இந்த தொழில்நுட்பம் இன்னும் ஆரம்ப கட்டத்தில் இருந்தாலும், இது மருத்துவத்துறையில் புரட்சியை ஏற்படுத்தக்கூடிய சாத்தியக்கூறுகளை கொண்டுள்ளது. உறுப்பு மாற்று அறுவை சிகிச்சைக்காக காத்திருக்கும் பல உயிர்களை காப்பாற்றவும், புதிய மருந்துகள் மற்றும் சிகிச்சைகளை உருவாக்கவும் இது உதவும்.

மருந்து தயாரிப்பு மற்றும் மருத்துவ ஆய்வுகளிலும் இந்த "உதிரி" உடல்கள் மிகவும் பயனுள்ளதாக இருக்கும். தற்போது, புதிய மருந்துகளை சோதிக்க விலங்குகள் பயன்படுத்தப்படுகின்றன. ஆனால், மனித உடல்களின் மாதிரிகள் கிடைத்தால், மனிதர்களிடம் ஏற்படும் விளைவுகளை துல்லியமாக கணிக்க முடியும். இதனால், மருந்துகள் பாதுகாப்பானதாகவும் பயனுள்ளதாகவும் இருப்பதை உறுதிப்படுத்த முடியும்.

ஆனால், இந்த யோசனை பல சிக்கலான கேள்விகளை எழுப்புகிறது. மூளை மற்றும் நரம்பு மண்டலம் இல்லாமல் மனித உடலை உருவாக்குவது அறநெறிப்படி சரியானதா? இது மனித வாழ்க்கையின் புனிதத்தை மீறுவதாக கருதப்படுமா? இந்த "உதிரி" உடல்களை யார் சொந்தமாக வைத்திருப்பது? அவற்றை எவ்வாறு பயன்படுத்துவது? போன்ற பல கேள்விகள் உள்ளன.

இந்த தொழில்நுட்பம் இன்னும் ஆரம்ப கட்டத்தில் உள்ளது. ஆனால், எதிர்காலத்தில் இது சாத்தியமாகலாம். எனவே, இந்த தொழில்நுட்பத்தின் நன்மைகள் மற்றும் தீமைகள் குறித்து நாம் விவாதிக்க வேண்டும். மேலும், இந்த தொழில்நுட்பத்தை எவ்வாறு பயன்படுத்துவது என்பது குறித்து தெளிவான வழிகாட்டுதல்களை உருவாக்க வேண்டும்.

இறுதியாக, இந்த "உதிரி" மனித உடல்கள் மருத்துவத்துறையில் ஒரு பெரிய முன்னேற்றமாக இருக்கலாம். ஆனால், இது பல சிக்கலான அறநெறி கேள்விகளையும் எழுப்புகிறது. எனவே, இந்த தொழில்நுட்பத்தை கவனமாக அணுகி, மனித குலத்திற்கு நன்மை பயக்கும் வகையில் பயன்படுத்த வேண்டும்.


 

Monday, March 24, 2025

AI ஆபத்து! டிஸ்னி ஊழியரின் வாழ்க்கை நாசமான கதை!

 


டிஸ்னி நிறுவனத்தில் வேலை செய்த மேத்யூ வான் ஆண்டல் என்ற ஊழியர், ஒரு செயற்கை நுண்ணறிவு (AI) மென்பொருளை இணையத்தில் இருந்து பதிவிறக்கம் செய்தார். அந்த மென்பொருளில் தீங்கிழைக்கும் மென்பொருள் (Malware) ஒன்று மறைந்திருந்தது என்பது அவருக்குத் தெரியாது. இந்த Malware "நல்புல்ஜ்" (NullBulge) என்ற குழுவால் உருவாக்கப்பட்டது. இது டிஸ்னி நிறுவனத்தின் உள் கட்டமைப்புக்குள் ஊடுருவி, அங்குள்ள தகவல்களைத் திருடிவிட்டது. 

டிஸ்னி நிறுவனத்தில் பணிபுரிந்த மேத்யூ வான் ஆண்டல், நிறுவனத்தின் உள் கட்டமைப்பு மற்றும் தகவல் தொழில்நுட்பம் சார்ந்த பணிகளைச் செய்து வந்தார். தனது பணிகளை எளிதாக்கவும், மேம்படுத்தவும் ஒரு செயற்கை நுண்ணறிவு கருவியை (AI tool) இணையத்தில் இருந்து பதிவிறக்கம் செய்துள்ளார். தொழில்நுட்பம் சார்ந்த வேலைகளில், AI கருவிகள் பல புதிய வசதிகளை வழங்குவதால், அவர் அதை பயன்படுத்தியிருக்கக்கூடும். ஆனால், அவர் பதிவிறக்கம் செய்த மென்பொருளில் தீங்கிழைக்கும் மென்பொருள் (Malware) மறைந்திருந்தது அவருக்குத் தெரியாது. இதுவே, பின்னாளில் டிஸ்னி நிறுவனத்திற்கும் அவருக்கும் பெரும் பாதிப்புகளை ஏற்படுத்தியது.

மேத்யூ வான் ஆண்டல் பதிவிறக்கம் செய்த செயற்கை நுண்ணறிவு கருவி (AI tool) கிட்ஹப் (GitHub) எனும் மென்பொருள் பகிர்வு தளத்தில் இருந்து கிடைத்துள்ளது. கிட்ஹப் என்பது மென்பொருள் உருவாக்குநர்கள் தங்கள் பணிகளைப் பகிர்ந்து கொள்ளவும், ஒத்துழைக்கவும் பயன்படுத்தும் ஒரு பிரபலமான தளம். ஆனால், இந்த சம்பவத்திற்குப் பிறகு, கிட்ஹப் போன்ற தளங்களையும் முழுமையாக நம்புவது கடினமாகிவிட்டது. ஒரு ஊழியரின் கவனக்குறைவால், டிஸ்னி போன்ற பெரிய நிறுவனத்தின் தகவல்கள் கசிந்தது மட்டுமல்லாமல், கிட்ஹப்பின் நம்பகத்தன்மையையும் கேள்விக்குறியாக்கியுள்ளது. இனி, மென்பொருள் உருவாக்குநர்கள் உட்பட அனைவரும், கிட்ஹப்பில் கிடைக்கும் மென்பொருள்களைப் பயன்படுத்தும்போதும் மிகுந்த எச்சரிக்கையுடன் இருக்க வேண்டிய சூழல் உருவாகியுள்ளது.

இந்த ஊடுருவலின் விளைவாக, டிஸ்னி நிறுவனத்தின் மில்லியன் கணக்கான உள் செய்திகள், ஊழியர்களின் தனிப்பட்ட தகவல்கள், மற்றும் வாடிக்கையாளர்களின் தகவல்கள் என அனைத்தும் வெளியே கசிந்தன. மேத்யூ வான் ஆண்டலின் தனிப்பட்ட வாழ்க்கையும் இதனால் பெரிதும் பாதிக்கப்பட்டது. அவருடைய அடையாளத் திருட்டு (Identity Theft) நிகழ்ந்தது, அவரது நிதித் தகவல்கள் பொதுவில் வெளியாகின. டிஸ்னி நிறுவனத்தில் அவர் பார்த்த வேலையையும் அவர் இழக்க நேர்ந்தது. மேலும், அவரது குடும்பத்தினரின் தனிப்பட்ட தகவல்களும் திருடர்களால் வெளியிடப்பட்டது.

"நல்புல்ஜ்" என்ற இந்த குழு, செயற்கை நுண்ணறிவு மற்றும் கேமிங் துறைகளில் உள்ள நிறுவனங்களை குறிவைத்து தாக்குதல் நடத்தும் ஒரு சைபர் குற்றக் குழு என்று கூறப்படுகிறது. அவர்கள், மென்பொருள்களில் தீங்கிழைக்கும் மென்பொருளை மறைத்து, அதை பதிவிறக்கம் செய்யும் நபர்களின் கணினிகளுக்குள் ஊடுருவுகிறார்கள். இந்த சம்பவம், இணையத்தில் இருந்து மென்பொருள்களை பதிவிறக்கம் செய்யும் போது எவ்வளவு கவனமாக இருக்க வேண்டும் என்பதை நமக்கு உணர்த்துகிறது. குறிப்பாக, நம்பகத்தன்மை இல்லாத இடங்களில் இருந்து மென்பொருள்களை பதிவிறக்கம் செய்யக் கூடாது.

டிஸ்னி போன்ற பெரிய நிறுவனங்களிலும் சைபர் பாதுகாப்பு என்பது எவ்வளவு முக்கியம் என்பதை இந்த சம்பவம் தெளிவுபடுத்துகிறது. சிறிய தவறு கூட பெரிய பாதிப்புகளை ஏற்படுத்தும் என்பதை இது காட்டுகிறது. எனவே, இணையத்தில் நாம் பயன்படுத்தும் ஒவ்வொரு விஷயத்திலும் கவனமாக இருக்க வேண்டும். தெரியாத மென்பொருள்களை பதிவிறக்கம் செய்வதைத் தவிர்த்து, நிறுவனங்கள் தங்கள் ஊழியர்களுக்கு சைபர் பாதுகாப்பு பற்றிய விழிப்புணர்வை ஏற்படுத்த வேண்டும்.






Wednesday, March 19, 2025

The Eliza Effect chatbots பாட்களின் பேசுபவர எச்சரிக்கை ! பாட்டி பாட் எலிசா சொல்கிறார்.



மனிதர்களுடன் உரையாடும் கணினிகள் மற்றும் மென்பொருட்கள் இன்று பரவலாக உள்ளன. ஆனால், இந்த உரையாடல்களில் நாம் ஒரு முக்கிய விஷயத்தை கவனிக்க வேண்டும். அதுதான் "எலிசா விளைவு". இந்த விளைவு, நாம் இயந்திரங்களுடன் பேசும்போது, அவை உண்மையில் புரிந்துகொள்கின்றன என்று நம்பும் ஒரு மனநிலையை உருவாக்குகிறது.
எலிசா என்றால் என்ன?
எலிசா என்பது 1960 களில் ஜோசப் வெய்சென்பாம் என்ற MIT பேராசிரியர் உருவாக்கிய ஒரு கணினி நிரல். இது ஒரு மனநல மருத்துவர் போல உரையாடும் வகையில் வடிவமைக்கப்பட்டது. எலிசா உண்மையில் எந்த புரிதலும் இல்லாமல், பயனரின் உள்ளீடுகளை வைத்து பதில்களை உருவாக்கக்கூடியது. உதாரணமாக, "நான் வருத்தமாக இருக்கிறேன்" என்று நீங்கள் சொன்னால், எலிசா "ஏன் நீங்கள் வருத்தமாக இருக்கிறீர்கள்?" என்று கேட்கும்.
எலிசா விளைவு என்றால் என்ன?
எலிசா விளைவு என்பது, மக்கள் இயந்திரங்களுடன் பேசும்போது, அவை மனிதர்களைப் போலவே புரிந்துகொள்கின்றன என்று நம்பும் ஒரு மனநிலையை குறிக்கிறது. எலிசா போன்ற ஒரு எளிய நிரல் கூட, மக்கள் தங்களது உணர்வுகளைப் பகிர்ந்து கொள்ளவும், இயந்திரங்களுடன் உரையாடவும் தூண்டியது.
எலிசா விளைவு ஏன் ஏற்படுகிறது?
 மனித இயல்பு: நாம் மனிதர்களாக இருப்பதால், மற்றவர்களுடன் தொடர்பு கொள்ள விரும்புகிறோம். இயந்திரங்கள் பேசும்போது, அவை நம்மைப் புரிந்துகொள்கின்றன என்று நாம் நம்புகிறோம்.
 வடிவமைப்பு: எலிசா போன்ற நிரல்கள், மனிதர்களின் உரையாடல்களைப் போலவே வடிவமைக்கப்பட்டுள்ளன. இது நமக்கு ஒரு மாயையை உருவாக்குகிறது.
 உணர்ச்சி இணைப்பு: இயந்திரங்களுடன் உரையாடும்போது, நாம் உணர்ச்சி ரீதியாக இணைப்பை உருவாக்கலாம்.
எலிசா விளைவின் விளைவுகள்:
 நேர்மறை விளைவுகள்: இது மன அழுத்தத்தைக் குறைக்கலாம், தனிமையை போக்கலாம் மற்றும் உரையாடல் திறன்களை மேம்படுத்தலாம்.
 *எதிர்மறை விளைவுகள்: இது தவறான நம்பிக்கைகளை உருவாக்கலாம், இயந்திரங்களை அதிகமாக நம்ப வழிவகுக்கும், மேலும் மனிதர்களுடனான தொடர்புகளை குறைக்கலாம்.
இன்றைய உலகில் எலிசா விளைவு:
இன்றைய உலகில், எலிசா விளைவு இன்னும் அதிகமாக உள்ளது. ஸ்மார்ட் ஸ்பீக்கர்கள், சாட் பாட்கள் மற்றும் பிற AI-இயங்கும் சாதனங்கள், மனிதர்களுடன் உரையாடும் திறனைக் கொண்டுள்ளன. இந்த உரையாடல்கள், நாம் இயந்திரங்களுடன் ஒரு உண்மையான தொடர்பை ஏற்படுத்துவதாக நம்ப வைக்கின்றன.
முடிவுரை:
எலிசா விளைவு என்பது ஒரு சுவாரஸ்யமான மனோதத்துவ நிகழ்வு. இயந்திரங்களுடன் பேசும்போது, நாம் எச்சரிக்கையாக இருக்க வேண்டும். அவை மனிதர்களைப் போலவே புரிந்துகொள்கின்றன என்று நம்புவதை தவிர்க்க வேண்டும். இயந்திரங்கள் ஒரு கருவி மட்டுமே, மனிதர்களுடனான உண்மையான தொடர்புகளுக்கு அவை மாற்றாக முடியாது.
இந்த கட்டுரை, எலிசா விளைவைப் பற்றி உங்களுக்கு ஒரு தெளிவான புரிதலை அளிக்கும் என்று நம்புகிறேன்.

Tuesday, March 18, 2025

Information War- Information is Power : AI யுகத்தில் தகவல் பற்றி Yuval Hahariyin யின் பார்வை என்ன ?

 


இன்றைய டிஜிட்டல் உலகில் தகவல்கள் வெள்ளமென பெருக்கெடுத்து ஓடுகின்றன. சமூக ஊடகங்கள், இணையதளங்கள், செய்தி சேனல்கள் என எங்கு பார்த்தாலும் தகவல்களின் ஆதிக்கம் தான். ஆனால், இந்தத் தகவல்கள் அனைத்தும் உண்மையா? அல்லது நம்மை ஏமாற்ற வடிவமைக்கப்பட்டதா? இந்த முக்கியமான கேள்வியை யுவால் நோவா ஹராரி தனது Nexus புத்தகththil எழுப்புகிறார். தகவல்களைப் பற்றிய இரண்டு மாறுபட்ட பார்வைகளை அவர் முன்வைக்கிறார்.

1. அப்பாவி பார்வை (Naive View):

  • இந்த பார்வையில், தகவல்கள் என்பது வெறும் தரவு, எண்கள் மற்றும் வழிமுறைகள் (algorithms) மட்டுமே.
  • அதிக தகவல்கள் இருந்தால், அது நல்லது என்று நம்பப்படுகிறது.
  • தகவல்களின் உள்ளடக்கத்தை விட, அதன் அளவும், வேகமும் முக்கியம்.
  • உதாரணமாக, ஒரு பெரிய தரவுத் தொகுப்பை (data set) வைத்துக்கொண்டு, அதிலிருந்து தானாகவே உண்மைகள் வெளிவரும் என்று நம்புவது.
  • சாதாரண மக்களிடம், "என்னிடம் அனைத்து விபரங்களும் உள்ளது" என்று ஒருவர் சொல்பொழுது, அவர் சொல்வது உண்மை என்று நம்புவது.

2. வரலாற்று பார்வை (Historical View):

  • இந்த பார்வையில், தகவல்கள் என்பது வெறும் தரவு மட்டுமல்ல, அது மனிதர்களின் அனுபவங்கள், கலாச்சாரம், மற்றும் அதிகார கட்டமைப்புகளுடன் பின்னிப்பிணைந்தது.
  • தகவல்கள் நடுநிலையானவை அல்ல; அவை குறிப்பிட்ட நோக்கங்களுக்காக வடிவமைக்கப்படுகின்றன.
  • வரலாறு என்பது தகவல்கள் எவ்வாறு பரப்பப்படுகின்றன, கையாளப்படுகின்றன என்பதன் தொகுப்பு.
  • உதாரணமாக, மத நூல்கள், அரசியல் பிரச்சாரங்கள், அறிவியல் கோட்பாடுகள் போன்றவை சமூகத்தை எவ்வாறு வடிவமைக்கின்றன என்பதைப் புரிந்துகொள்வது.
  • ஒரு மதகுரு, ஒரு கம்யூனிஸ்ட் கட்சி உறுப்பினர், ஒரு சிலிக்கான் வேலி இன்ஜினியர், மூவரும் தங்களது தகவல் சரியானது என்று நம்புகிறார்கள். ஆனால், அவர்கள் ஒவ்வொருவரும் தங்களது நம்பிக்கையை, ஒரு காலகட்டத்தில் உருவாக்கப்பட்ட கதைகளின் அடிப்படையில் கட்டமைக்கிறார்கள்.

சமூக ஊடகங்கள், AI, டீப்ஃபேக்குகள் மூலம் தகவல்களை கையாளும் அபாயங்கள்:

  • சமூக ஊடகங்கள்:
    • சமூக ஊடகங்களில் பரவும் தவறான தகவல்கள் மற்றும் போலியான செய்திகள் (fake news) மக்களை எளிதில் திசை திருப்பும்.
    • எதிரெதிர் கருத்துக்கள் கொண்ட குழுக்கள் தங்களுக்குள் மோதிக்கொண்டு, சமூகத்தில் பிளவுகளை உருவாக்கும்.
    • தனிநபர்களின் தனிப்பட்ட தகவல்கள் திருடப்பட்டு, தவறாகப் பயன்படுத்தப்படும்.
  • AI (செயற்கை நுண்ணறிவு):
    • AI மூலம் போலியான வீடியோக்கள் மற்றும் ஆடியோக்களை உருவாக்கி, மக்களை ஏமாற்ற முடியும்.
    • AI மூலம் தானாகவே தவறான தகவல்களை உருவாக்கும் ரோபோக்கள் (bots) சமூக ஊடகங்களில் பரவி, குழப்பத்தை ஏற்படுத்தும்.
    • AI மனிதர்களிடம் இருந்து தகவலை பெற்று , அதை தனக்காக பயன்படுத்தும்.
  • டீப்ஃபேக்குகள் (Deepfakes):
    • டீப்ஃபேக்குகள் மூலம் அரசியல் தலைவர்கள், பிரபலங்கள் போன்றோரின் போலியான வீடியோக்களை உருவாக்கி, அவர்களின் நற்பெயருக்கு களங்கம் விளைவிக்க முடியும்.
    • டீப்ஃபேக்குகள் மூலம் தவறான தகவல்களைப் பரப்பி, சமூகத்தில் பதற்றத்தை உருவாக்க முடியும்.

நாம் என்ன செய்ய வேண்டும்?

  • தகவல்களைப் பற்றிய வரலாற்றுப் பார்வையை நாம் அனைவரும் கற்றுக்கொள்ள வேண்டும்.
  • சமூக ஊடகங்களில் பரவும் தகவல்களை நம்புவதற்கு முன்பு, அவற்றின் உண்மைத்தன்மையை சரிபார்க்க வேண்டும்.
  • AI மற்றும் டீப்ஃபேக்குகள் மூலம் பரவும் தவறான தகவல்களைப் பற்றி விழிப்புடன் இருக்க வேண்டும்.
  • தகவல் தொழில்நுட்பத்தைப் பயன்படுத்தும் விதத்தில் நெறிமுறைகளை வகுக்க வேண்டும்.
  • எந்த ஒரு தகவலையும், அது எந்த காலகட்டத்தில், எந்த சூழ்நிலையில் உருவாக்கப்பட்டது என்பதை புரிந்து கொள்ள வேண்டும்.


தகவல்கள் என்பது சக்தி வாய்ந்தது. ஆனால், அந்த சக்தியை நாம் சரியாக பயன்படுத்த வேண்டும். தகவல்களைப் பற்றிய வரலாற்றுப் பார்வையை கற்றுக்கொண்டு, தவறான தகவல்களிடம் இருந்து நம்மை பாதுகாத்துக்கொள்ள வேண்டும். அப்போதுதான், நாம் உண்மையான தகவல்களின் அடிப்படையில் சரியான முடிவுகளை எடுக்க முடியும்.

SEO முடிந்துவிட்டதா? AI யுகத்தில் SEO எதிர்காலம்!

 

இன்றைய டிஜிட்டல் உலகில், "SEO முடிந்துவிட்டது" (SEO is Dead) என்ற வார்த்தைகள் அடிக்கடி கேட்கப்படுகின்றன. குறிப்பாக, AI தொழில்நுட்பத்தின் வளர்ச்சி மற்றும் சாட்ஜிபிடி போன்ற செயற்கை நுண்ணறிவு கருவிகளின் வருகை, தேடுபொறி உகப்பாக்கத்தின் (SEO) எதிர்காலத்தை கேள்விக்குறியாக்கியுள்ளது.

உதாரணத்திற்கு  இனிமேல் சாட்ஜிபிட் கேல்வியகவோ அல்லது கூகுள் ஆசிஸ்டெண்ட் அலெக்ஸா விடம் வாய்மொழி மூக்லமோ தான் தேட போகிறோம். 

OK Google என் அருகில் இருக்கு நல்ல ஹோட்டல்களை பட்டியிலிடு

chatGPT  என் அருகில் நல்ல துணிக்க்டைகளை பட்டியலிடு

என போக போகிறது.

SEO உண்மையில் முடிந்துவிட்டதா?

நிச்சயமாக இல்லை! SEO முடிந்துவிடவில்லை, ஆனால் அது நிச்சயமாக மாறிக்கொண்டிருக்கிறது. முன்பு போல் வெறும் கீவேர்டுகளை (keywords) மட்டும் வைத்துக்கொண்டு SEO செய்தால் பலன் கிடைக்காது. AI யுகத்தில், SEO என்பது முற்றிலும் வேறுபட்ட அணுகுமுறையை கோருகிறது.

AI மற்றும் SEO: ஒரு புதிய உறவு

AI தொழில்நுட்பம், குறிப்பாக கூகுள் போன்ற தேடுபொறிகளில், தேடல் முடிவுகளை எவ்வாறு வழங்குகின்றன என்பதை மாற்றியமைக்கிறது. AI, பயனர்களின் தேடல் நோக்கத்தை (search intent) புரிந்து கொண்டு, அவர்களுக்கு பொருத்தமான மற்றும் பயனுள்ள தகவல்களை வழங்குகிறது.

மாறிவரும் SEO உத்திகள்:

  • பயனர் நோக்கம் முக்கியம் (User Intent): வெறும் கீவேர்டுகளை மட்டும் இலக்காகக் கொள்ளாமல், பயனர்கள் எதற்காகத் தேடுகிறார்கள் என்பதைப் புரிந்து கொண்டு, அவர்களுக்கு தேவையான தகவல்களை வழங்க வேண்டும்.
  • தரமான உள்ளடக்கம் (High-Quality Content): AI யுகத்தில், தரமான மற்றும் நம்பகமான உள்ளடக்கம் மிகவும் முக்கியமானது. எக்ஸ்பீரியன்ஸ், எக்ஸ்பெர்டைஸ், அதாரிட்டி, மற்றும் ட்ரஸ்ட் (E-E-A-T) கொள்கைகளை பின்பற்றி, பயனர்களுக்கு பயனுள்ள தகவல்களை வழங்க வேண்டும்.
  • Natural Language Optimization: பயனர்கள் பேசும் மொழியிலேயே உள்ளடக்கத்தை உருவாக்க வேண்டும். நீண்ட வாக்கியங்கள் மற்றும் உரையாடல் பாணியில் உள்ளடக்கத்தை உருவாக்குவது முக்கியம்.
  • Voice Search Optimization: ஸ்மார்ட் ஸ்பீக்கர்கள் மற்றும் மொபைல் போன்களில் குரல் தேடல் அதிகரித்துள்ளதால், குரல் தேடலுக்கு ஏற்றவாறு உள்ளடக்கத்தை உகப்பாக்கம் செய்ய வேண்டும்.
  • ஸ்ட்ரக்சர்ட் டேட்டா (Structured Data): கூகுள் போன்ற தேடுபொறிகள் உங்கள் உள்ளடக்கத்தை எளிதில் புரிந்து கொள்ள ஸ்ட்ரக்சர்டு டேட்டா மார்க்அப் (schema markup) பயன்படுத்த வேண்டும்.
  • LLM Optimization: பெரிய மொழி மாதிரிகள் (Large Language Models) பயன்படுத்துவதற்கு எளிதாக உள்ளடக்கத்தை மாற்ற வேண்டும்.

SEO வின் எதிர்காலம்:

SEO முடிந்துவிடவில்லை, ஆனால் அது நிச்சயமாக மாறிக்கொண்டிருக்கிறது. AI தொழில்நுட்பத்தின் வளர்ச்சியால், SEO என்பது வெறும் கீவேர்டுகளை மட்டும் வைத்துக்கொண்டு செய்வது அல்ல. பயனர் நோக்கம், தரமான உள்ளடக்கம், Optimization ஆகியவை முக்கியம்.

LLM Optimization 

  • Large Language Models என்றால் என்ன?
    • பெரிய மொழி மாதிரிகள் (Large Language Models - LLMs) என்பவை, பல கோடி வார்த்தைகள் மற்றும் வாக்கியங்களை வைத்து பயிற்சி பெற்ற செயற்கை நுண்ணறிவு மாதிரிகள். இவை மனிதர்கள் பேசுவது மற்றும் எழுதுவது போன்ற மொழியைப் புரிந்து கொண்டு, உருவாக்கவும் திறன் கொண்டவை. சாட்ஜிபிடி, கூகிள் பார்ட் போன்றவை LLM களுக்கு எடுத்துக்காட்டுகள்.
  • LLM Optimization  ஏன் முக்கியம்?
    • LLM கள் தேடல் முடிவுகளை உருவாக்குவதில் முக்கிய பங்கு வகிக்கின்றன. எனவே, உங்கள் உள்ளடக்கம் LLM களுக்கு எளிதில் புரியும்படி இருந்தால், தேடல் முடிவுகளில் உங்கள் வலைத்தளம் முன்னிலை பெற வாய்ப்புள்ளது.
    • LLM கள் தகவல்களை திரட்டி, சுருக்கி, பயனர்களுக்கு எளிமையாக வழங்கும். எனவே, உங்கள் உள்ளடக்கம் LLM களுக்கு ஏற்றவாறு கட்டமைக்கப்பட்டிருந்தால், பயனர்களுக்கு அதிக பயனுள்ளதாக இருக்கும்.
  • LLM Optimization  செய்வது எப்படி?
    • தெளிவான மற்றும் சுருக்கமான உள்ளடக்கம்: உங்கள் உள்ளடக்கம் தெளிவான மற்றும் சுருக்கமான வாக்கியங்களில் இருக்க வேண்டும். LLM கள் நீண்ட மற்றும் சிக்கலான வாக்கியங்களை புரிந்து கொள்வதில் சிரமப்படலாம்.
    • ஸ்ட்ரக்சர்டு டேட்டா (Structured Data): ஸ்ட்ரக்சர்டு டேட்டா மார்க்அப் (schema markup) பயன்படுத்தி, உங்கள் உள்ளடக்கத்தின் கட்டமைப்பை LLM களுக்கு தெளிவாக உணர்த்தலாம்.
    • கேள்வி-பதில் வடிவம்: உங்கள் உள்ளடக்கத்தை கேள்வி-பதில் வடிவில் அமைத்தால், LLM கள் தகவல்களை எளிதில் புரிந்து கொள்ளும்.
    • முக்கிய தகவல்களை முன்னிலைப்படுத்துதல்: உங்கள் உள்ளடக்கத்தில் உள்ள முக்கியமான தகவல்களை முன்னிலைப்படுத்தி, LLM கள் எளிதில் புரிந்து கொள்ளும் வகையில் வடிவமைக்க வேண்டும்.
    • பட்டியல்கள் மற்றும் அட்டவணைகள்: தகவல்களை பட்டியல்கள் மற்றும் அட்டவணைகள் வடிவில் அமைத்தால், LLM கள் தகவல்களை எளிதில் புரிந்து கொள்ளும்.

NLP Optimization

  • இயற்கை மொழி செயலாக்கம் என்றால் என்ன?
    • இயற்கை மொழி செயலாக்கம் (Natural Language Processing - NLP) என்பது, கணினிகள் மனிதர்கள் பேசும் மற்றும் எழுதும் மொழியைப் புரிந்து கொண்டு, செயலாக்கும் தொழில்நுட்பம் ஆகும்.
  • NLP Optimization ஏன் முக்கியம்?
    • தேடுபொறிகள் NLP தொழில்நுட்பத்தை பயன்படுத்தி, பயனர்களின் தேடல் நோக்கத்தை புரிந்து கொள்கின்றன. எனவே, உங்கள் உள்ளடக்கம் NLP க்கு ஏற்றவாறு இருந்தால், தேடுபொறிகள் உங்கள் உள்ளடக்கத்தை எளிதில் புரிந்து கொள்ளும்.
    • குரல் தேடல் (Voice Search) மற்றும் உரையாடல் தேடல் (Conversational Search) போன்ற அம்சங்கள் NLP தொழில்நுட்பத்தை அடிப்படையாகக் கொண்டவை.
  • NLP Optimization செய்வது எப்படி?
    • இயற்கை மொழி பயன்பாடு: உங்கள் உள்ளடக்கத்தில் மனிதர்கள் பேசும் மொழியை பயன்படுத்த வேண்டும். சிக்கலான மற்றும் தொழில்நுட்ப வார்த்தைகளை தவிர்த்து, எளிமையான வார்த்தைகளை பயன்படுத்த வேண்டும்.
    • நீண்ட வாக்கியங்கள் மற்றும் உரையாடல் பாணி: உங்கள் உள்ளடக்கத்தில் நீண்ட வாக்கியங்கள் மற்றும் உரையாடல் பாணியை பயன்படுத்த வேண்டும். இது குரல் தேடலுக்கு ஏற்றவாறு இருக்கும்.
    • பொருள் சார்ந்த கீவேர்டுகள் (Semantic Keywords): உங்கள் உள்ளடக்கத்தில் பொருள் சார்ந்த கீவேர்டுகளை பயன்படுத்த வேண்டும். ஒரே பொருளை குறிக்கும் பல வார்த்தைகளை பயன்படுத்தி, தேடுபொறிகள் உங்கள் உள்ளடக்கத்தை எளிதில் புரிந்து கொள்ள உதவும்.
    • பயனர் நோக்கம் (User Intent): உங்கள் உள்ளடக்கத்தில் பயனர்களின் தேடல் நோக்கத்தை புரிந்து கொண்டு, அவர்களுக்கு தேவையான தகவல்களை வழங்க வேண்டும்.
    • கேள்விகளுக்கு பதிலளித்தல்: உங்கள் உள்ளடக்கத்தில் பயனர்கள் கேட்கும் கேள்விகளுக்கு பதிலளிக்கும் வகையில் தகவல்களை வழங்க வேண்டும்.

AI யுகத்தில், SEO என்பது தொடர்ந்து மாறிக்கொண்டே இருக்கும். எனவே, இந்த மாற்றங்களுக்கு ஏற்ப நம்முடைய SEO உத்திகளை மாற்றியமைக்க வேண்டும். தரமான உள்ளடக்கத்தை உருவாக்கி, பயனர் நோக்கத்தை புரிந்து கொண்டு, AI தொழில்நுட்பத்தை பயன்படுத்தி, SEO வில் வெற்றி பெறலாம்.

மருத்துவத்தில் AI தோல்வி: ஆபத்தான உடல்நலப் பிரச்சினைகளை கண்டறியும் திறனில் குறைபாடு!

 


சமீபத்தில், மருத்துவத் துறையில் செயற்கை நுண்ணறிவு (AI) பயன்பாடு குறித்த ஒரு முக்கியமான ஆய்வு வெளிவந்துள்ளது. இந்த ஆய்வு, மருத்துவமனைகளில் சேர்க்கப்படும் நோயாளிகளின் உடல்நிலை மோசமடைவதைக் கண்டறிவதில் AI அமைப்புகள் தோல்வியடைவதாகக் கூறுகிறது. அதாவது, AI தொழில்நுட்பம் ஆபத்தான உடல்நலப் பிரச்சினைகளை சரியாகக் கணிக்கத் தவறிவிடுகிறது.

ஆய்வு என்ன சொல்கிறது?

  • "நேச்சர் கம்யூனிகேஷன்ஸ் மெடிசின்" (Nature's Communications Medicine) என்ற அறிவியல் இதழில் இந்த ஆய்வு வெளியிடப்பட்டது.
  • மருத்துவமனையில் அனுமதிக்கப்பட்ட நோயாளிகளின் இறப்பு அபாயத்தை கணிக்கப் பயன்படுத்தப்படும் AI அமைப்புகள், அவர்களின் உடல்நிலை மோசமடைவதைக் கண்டறிவதில் தோல்வியடைகின்றன.
  • ஏற்கனவே மருத்துவமனையில் உள்ள நோயாளிகளின் தரவுகளைக் கொண்டு பயிற்சி பெற்ற AI மாதிரிகள், சுமார் 66% உயிருக்கு ஆபத்தான காயங்களைக் கண்டறியத் தவறியுள்ளன.
  • தீவிர சிகிச்சைப் பிரிவு (ICU) மற்றும் புற்றுநோய் நோயாளிகளின் தரவுகளைப் பயன்படுத்தி பல்வேறு AI மாதிரிகளை ஆராய்ச்சியாளர்கள் ஆய்வு செய்தனர்.
  • நோயாளிகளின் உடல்நிலை அளவீடுகளை மாற்றி, AI மாதிரிகள் ஆபத்தான உடல்நலப் பிரச்சினைகள் மற்றும் அபாய மதிப்பெண்களை கணிக்கிறதா என்பதை ஆராய்ச்சியாளர்கள் சோதித்தனர்.
  • புற்றுநோய் முன்கணிப்புக்காக வடிவமைக்கப்பட்ட AI மாதிரிகளிலும் குறைபாடுகள் இருப்பது கண்டறியப்பட்டது.

பொதுமக்களுக்கு எளிய விளக்கம்:

மருத்துவமனையில் அனுமதிக்கப்படும் நோயாளிகளின் உடல்நிலை மோசமடையுமா என்பதை முன்கூட்டியே கணிக்க AI தொழில்நுட்பம் பயன்படுத்தப்படுகிறது. உதாரணமாக, ஒரு நோயாளிக்கு திடீரென மூச்சுத் திணறல் ஏற்பட்டால், அதை AI உடனடியாகக் கண்டறிந்து மருத்துவருக்குத் தகவல் தெரிவிக்கும். ஆனால், இந்த ஆய்வின்படி, AI இந்த ஆபத்தான மாற்றங்களை சரியாகக் கண்டறியத் தவறிவிடுகிறது.

அதாவது, ஏற்கனவே மருத்துவமனையில் சிகிச்சை பெற்ற நோயாளிகளின் தரவுகளை வைத்து AIக்கு பயிற்சி அளிக்கப்படுகிறது. ஆனால், ஒவ்வொரு நோயாளியின் உடல்நிலையும் மாறுபடும் என்பதால், ஏற்கனவே உள்ள தரவுகளை மட்டும் வைத்து AI சரியாக செயல்பட முடியாது.

இந்த ஆய்வு ஏன் முக்கியமானது?

  • மருத்துவத் துறையில் AI பயன்பாட்டில் கவனமாக இருக்க வேண்டும் என்பதை இந்த ஆய்வு உணர்த்துகிறது.
  • AI மாதிரிகளுக்கு பயிற்சி அளிக்க நோயாளிகளின் தரவுகளை மட்டும் நம்பியிருக்கக் கூடாது.
  • மருத்துவ அறிவை AI மாதிரிகளில் ஆழமாக இணைக்க வேண்டும்.
  • கணினி அறிவியல் மற்றும் மருத்துவ நிபுணர்களுக்கு இடையே அதிக சோதனை மற்றும் ஒத்துழைப்பு தேவை.

எதிர்காலத்தில் AI மருத்துவத்தில் பாதிப்பு ஏற்படுமா?

இந்த ஆய்வு AI மருத்துவத்தின் எதிர்காலத்தை பாதிக்கும். AI தொழில்நுட்பத்தை மருத்துவத்தில் பயன்படுத்துவதற்கு முன், அதன் நம்பகத்தன்மையை உறுதி செய்ய வேண்டும். மேலும், மருத்துவ நிபுணர்கள் மற்றும் கணினி அறிவியல் நிபுணர்கள் இணைந்து செயல்பட்டு, AI மாதிரிகளை மேம்படுத்த வேண்டும்.

இந்த ஆய்வின் முடிவுகள் AI மருத்துவத்தின் வளர்ச்சிக்கு ஒரு எச்சரிக்கை மணியாக அமைந்துள்ளது. AI தொழில்நுட்பத்தை மருத்துவத்தில் பயன்படுத்துவதற்கு முன், அதன் குறைபாடுகளைக் கண்டறிந்து, அதை சரி செய்ய வேண்டும். மேலும், AI மருத்துவத்தின் எதிர்காலத்தை மேம்படுத்த, தொடர்ச்சியான ஆராய்ச்சி மற்றும் மேம்பாடு அவசியம்.


அதிர்ச்சியளிக்கும் AI ஆபாச வலைத்தளம் அம்பலம்! பிரபலங்களின் குழந்தை பருவ படங்கள் உட்பட 95,000+ ஆபத்தான படங்கள் கசிவு!

 இணையத்தில் எவருக்கும் அணுகக்கூடிய வகையில் பல்லாயிரக்கணக்கான அதிர்ச்சியூட்டும் AI மூலம் உருவாக்கப்பட்ட படங்கள், குறிப்பாக குழந்தைகளின் பாலிய...