ప్రస్తుతం డీప్ఫేక్ వీడియోలు ప్రపంచ దేశాలకు ఆందోళనకరంగా మారాయి. పలువురు ప్రముఖులు, సెలబ్రటీలు, రాజకీయ నాయకులకు సంబంధించిన డీప్ఫేక్ వీడియోలు సోషల్ మీడియాలో హల్చల్ చేస్తున్నారు. అయితే ఇటీవల ఏకంగా అమెరికా అధ్యక్షుడు జో బైడెన్ వాయిస్ను అనుకరించేలా.. కొందరు కేటుగాళ్లు ఏఐ ఆధారిత ఫోన్కాల్స్ సృష్టించి తప్పుడు ప్రచారం చేయడం కలకలం రేపింది. దీంతో అప్రమత్తమైన అగ్రరాజ్యం కీలక నిర్ణయం తీసుకుంది. ఏఐ-ఆధారిత వాయిస్ రోబోకాల్స్పై నిషేధం విధించింది. ఫెడరల్ కమ్యూనికేషన్ ఇందుకు సంబంధించి ఓ ప్రకటనలో వెల్లడించింది.
Also Read: పాకిస్థాన్లో సంకీర్ణ ప్రభుత్వం.. కుదిరిన పార్టీల మధ్య ఒప్పందం?
ఇప్పుడు కష్టంగా మారింది
'కొందరు క్రిమినల్స్ ఏఐని వినియోగించి ఫేక్ వాయిస్ రోబోకాల్స్ను సృష్టిస్తున్నారు. వాటితో ప్రముఖుల కుటుంబాలను బెదిరించి, సెలబ్రిటీల వాయిస్ను అనుకరించి తప్పుడు సమాచారాన్ని వ్యాప్తి చేస్తున్నారు. గతంలో కూడా ఇలాంటి ఆడియో.. వీడియో కాల్స్ను సృష్టించినా గుర్తించేవాళ్లం. కానీ ఇప్పుడున్న అధునాతన టెక్నాలజీతో ఈ ఫేక్ వాయిస్లను గుర్తించడం కష్టంగా మారిపోయింది. ప్రస్తుత ఎన్నికల సీజన్లో ఇలాంటి ఫేక్ రోబోకాల్స్ కొత్త ముప్పును తీసుకొస్తున్నాయని'.. ఎఫ్సీసీ కమిషనర్ జియోఫ్రే స్టార్క్స్ పేర్కొన్నారు.
ఇలాంటి ఏఐ ఆధారిత రోబోకాల్స్పై నిషేధం విధిస్తున్నామని.. ఈ ఆంక్షలు తక్షణమే అమల్లోకి వస్తాయని తెలిపారు. అంతేకాదు ఏవైన కంపెనీలు వీటిని సృష్టించినా లేదా ప్రసారం చేసినా కూడా భారీ జరిమానా విధిస్తామంటూ వార్నింగ్ ఇచ్చారు. అయితే ఇటీవల అచ్చం జో బైడెన్ను అనుకరించేలా సృష్టించిన ఫేక్ రోబో కాల్స్.. డెమోక్రాట్ ప్రైమరీ ఎన్నికల సమయంలో బయటపడ్డాయి. ఆ ఎన్నికల్లో తనకు ఓటు వేయొద్దని ప్రజలకు బెడైన్ చెప్పినట్లు ఉండటం కలకలం రేపింది. ప్రస్తుతం దీనిపై అధికారులు విచారణ చేస్తున్నారు.
Also Read: రోబో ఆపరేషన్.. కంపెనీపై కేసు.. ఏమి జరిగిందంటే..