ఒక అమ్మాయికి తన ఫ్రెండ్ దగ్గర నుంచి ఓ వీడియో లింక్ వచ్చింది.. ఏంటో చూద్దాం అని ఎప్పటిలాగే ఓపెన్ చేసింది. వెంటనే షాక్..! అదో పో*ర్న్ సైట్.. తన ఫ్రెండ్ పంపిన వీడియోలో ఉన్నది తన ముఖమే.. కానీ బాడీ తనది కాదు.. ఆ అమ్మాయికి నోట మాట రాలేదు.. ఏడుపు ఆగలేదు.. వెంటనే పోలీస్ స్టేషన్ గడప తొక్కింది..! ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ యూగంలో ఇలాంటి ఘటనలు చాలా జరుగుతున్నాయి. మనకు నచ్చని వాళ్లు కావొచ్చు.. ఇంకా ఎవరైనా కావొచ్చు మన ఫొటోలను యూజ్ చేసుకోని డీప్ ఫేక్ చేసి పో*ర్న్ సైట్స్లో అప్లోడ్ చేస్తున్నారు. ఇది చాలా మంది అమ్మాయిల మానసిక క్షోభకు కారణమవుతోంది!
96శాతం డీప్ఫేక్ వీడియోలు అశ్లీలమైనవే
బిజినెస్ ఇన్సైడర్ నివేదిక ప్రకారం 96శాతం డీప్ఫేక్ వీడియోలు అశ్లీలమైనవే! 2024 జనవరిలో ఒక పో*ర్న్ సైట్లో టేలర్ స్విఫ్ట్ వీడియోలు కనిపించాయి. ఆమె ఫొటోలను యూజ్ చేసుకోని డీప్ఫేక్ ద్వారా అశ్లీల వీడియోలు సృష్టించారు. ఇక అన్నిటికంటే దారుణమైన విషయం మరొకటి ఉంది. ఈ AI క్రియేటెడ్ పో*ర్న్ ఎక్కువగా పిల్లలని టార్గెట్ చేస్తోంది. చైల్డ్ పో*ర్న్ అన్నది అతి పెద్ద నేరం. అది క్రియేట్ చేసిన వారితో పాటు చూసిన వారికి తీవ్ర శిక్షలు ఉంటాయి. అయితే ఏఐ ఉపయోగించుకోని కొంతమంది ఈ ఘోరాలకు పాల్పడుతున్నారు. చైల్డ్ సెక్యూవల్ అబ్యూజ్ మెటీరియల్.. దీన్ని CSAM అని పిలుస్తారు. ప్రస్తుతం ఇదే పెద్ద అన్నిటికంటే కలవర పెడుతోన్న అంశం.
పిల్లల ఫొటోలతో డీప్ ఫేక్
పోర్న్ వెబ్సైట్లతో పాటు ఫేస్బుక్, ఇన్స్టాగ్రామ్ లాంటి సోషల్ మీడియా ప్లాట్ఫామ్స్ ఈ CSAMకి అడ్డాగా మారుతుండడం అత్యంత ఆందోళన కలిగించే విషయం. అటు క్లౌడ్ స్టోరేజ్ లాంటివి CSAM క్రియేషన్కి ఉపయోగపడుతున్నాయి. ఈ ప్లాట్ఫామ్స్కు ఎలాంటి KYC నిబంధనలు ఉండవు. కేవలం జీమెయిల్ అకౌంట్ ఉంటే చాలు ఎవరు ఏ అడ్డమైన కంటెంట్ క్రియేట్ చేసినా ఇందులో స్టోర్ చేసుకోవచ్చు. ఇలాంటి టూల్స్ యూజ్ చేసుకుని పిల్లల ఫొటోలతో డీప్ ఫేక్ ద్వారా అశ్లీల వీడియోలు క్రియేట్ చేస్తున్నారు పెడోఫైల్స్!
అడ్డమైన యాప్స్ ద్వారా పైశాచిక ఆనందం
మరోవైపు 'క్లాత్స్ ఆఫ్' యాప్లను వాడే వారి సంఖ్య కూడా పెరిగిందని నివేదికలు చెబుతున్నాయి. ఈ యాప్లు ఫొటోల్లోని వ్యక్తులను బట్టలు లేకుండా చూపిస్తాయి. అయితే ఇది ఫేక్. ఎవరిదో బాడీని చూపించి అది ఆ ఫొటోలో వ్యక్తిదే అన్నట్టు చూపిస్తాయి. చాలామంది కామిస్టులు ఇలాంటి అడ్డమైన యాప్స్ ద్వారా పైశాచిక ఆనందం పొందుతున్నారు. మరికొంతమంది వీటిల్లో చూపించిన ఫొటోలను యూజ్ చేసుకోని బాధిత వ్యక్తులను బ్లాక్మెయిల్ చేస్తూ డబ్బులు గుంజుతున్నారు. ఇంకొంతమంది ఆ ఫొటోలను డార్క్ వెబ్లో పెట్టి సైకోల్లాగా బిహేవ్ చేస్తున్నారు.
90 శాతం అశ్లీలత కోసమే..
డీప్ఫేక్ పో*ర్న్ అంటే లైంగికంగా కలిసిన వ్యక్తుల ముఖాలను మార్చి వేరే వ్యక్తుల ఫొటోలను మార్ఫ్ చేయడం. ఇవి చూడటానికి రియల్గానే కనిపిస్తాయి. ఇలాంటి వీడియోలు, ఫొటోలను క్రియేట్ చేయడానికి మోడ్రన్ అల్గారిథమ్స్తో పాటు మెషీన్ లెర్నింగ్ను ఉపయోగిస్తారు. నిజానికి ఈ సాంకేతిక మంచికి ఉపయోగించుకుంటే ఎన్నో అద్భుతాలు చేయవచ్చు. అయితే డార్క్ వెబ్ మాత్రం దీన్ని ఎక్కువగా అశ్లీల కంటెంట్ కోసమే యూజ్ చేసుకుంటోంది. ఈ టెక్నాలజీని 90 శాతం అశ్లీలత కోసం ఉపయోగిస్తుండడం అత్యంత బాధాకరం! Sensity AI వెబ్సైట్ ఈ విషయాలను స్పష్టం చేస్తోంది. Sensity AI వెబ్సైట్ అనేది డీప్ ఫేక్ ఫొటోలను గుర్తించే ఓ ఫ్లాట్ఫామ్.
వాయిస్ను కూడా ఫేక్ చేయవచ్చు
AI రోజురోజుకు అభివృద్ధి చెందుతోంది.. ఇది మంచి పరిణామమే కావొచ్చు. అయితే ఈ సాంకేతికను కొందరు నీచమైన వాటికి ఉపయోగిస్తుండడం కలవర పెడుతోంది. నేటి AI కాలంలో అసలు మీరు మీ స్క్రీన్ చూసేది వాస్తవం కాకపోవచ్చు. వినే మాట నిజం కాకపోవచ్చు. ఇటివలీ శుభమన్గిల్ను కోహ్లీ ఏదో అన్నాడని సేమ్ విరాట్ వాయిస్తోనే డీప్ ఫేక్ చేశారు. కేవలం ఫొటోలు, వీడియోలే కాదు వాయిస్ను కూడా ఫేక్ చేయవచ్చు. అసలు ఈ ప్రపంచంలోనే లేని వ్యక్తులను, ప్రాంతాలను సృష్టించవచ్చు. ఇదంతా మంచి పనుల కోసం వాడుకుంటే పర్వాలేదు కానీ రియల్ ముఖాలతో ఫేక్ అశ్లీల వీడియోలను క్రియేట్ చేయడం, ఫేక్ వార్తలను సృష్టించడం సమాజాన్ని నెగిటివ్గా ప్రభావితం చేస్తుంది. దీన్ని అడ్డుకోవాల్సిన బాధ్యత ప్రభుత్వాలపై ఉంటుంది. ఇక ఇలా టెక్నాలజీని మిస్యూజ్ చేయకూడదన్న బుద్ధి అందరిలోనూ ఉండాలి!
ఇది కూడా చదవండి: సీక్రెట్ కెమెరాల కలకలం.. ఈ చిట్కాలతో చెక్ పెట్టండి