ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ ఆధారిత డీప్ఫేక్ టెక్నాలజీని వినియోగించుకొని ప్రముఖ నటి రష్మిక నకిలీ వీడియోను తయారు చేసి వైరల్ చేశారు. ఈ ఘటన పెద్ద చర్చకు దారితీసింది.కొత్త టెక్నాలజీ వల్ల జరుగుతున్న ఘోరాల పట్ల ఆందోళన వ్యక్తం చేస్తున్నారు
ఈ డీప్పేక్ AI టెక్నాలజీ వీడియోపై నటి రష్మిక మందాన్న తీవ్ర ఆవేదన వ్యక్తం చేశారు. ఈ ఘటనపై ప్రముఖులు తీవ్ర ఆందోళన వ్యక్తం చేశారు. రష్మిక మందాన్నకు మద్దతుగా నిలిచారు. కేంద్ర ప్రభుత్వం సైతం ఈ ఘటనను సీరియస్గా తీసుకుంది. సోషల్ మీడియా సంస్థలకు కీలక రిమైండర్ను పంపింది.మరోసారి ఇలాంటి ఘటనలు జరగకుండా ఎలా జాగ్రత్తలు తీసుకోవాలి అని టెక్నికల్ పీపుల్ నీ అలెర్ట్ చేశారు
మరో ఘటనలో కోల్ ఇండియా మాజీ ఉన్నతోద్యోగిని సైతం ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ ఆధారిత డీప్ఫేక్ టెక్నాలజీ ద్వారా స్నేహితుడి మాదిరిగా వీడియో కాల్ చేసి రూ.4౦ వేలు దోచుకున్నారు. మరికొంత నగదు కావాలని కోరడంతో సదరు మాజీ ఉద్యోగికి అనుమానం వచ్చి పోలీసులను ఆశ్రయించారు
ఇప్పుడు తాజాగా ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ ఆధారిత ఫేక్ వాయిస్ కాల్ చేసి ఓ మహిళను మోసం చేశారు. కెనడాలో ఉన్న 59 సంవత్సరాల మహిళ మేనల్లుడి వాయిస్ను అనుకరించారు. తనకు తక్షణ అవసరం ఉందని చెప్పి ఆమె వద్ద నుంచి రూ.1.4 లక్షల నగదును దోచుకున్నారు. ఈ తరహా నేరాలు ఎక్కువగా జరుగుతున్నాయి.
సైబర్ నేరగాళ్లు కొన్నిసార్లు కస్టమర్ కేర్ సభ్యులుగా కాల్ చేస్తారు. బ్యాంక్ క్రెడిట్ లేదా డెబిట్ కార్డు టీంకు చెందిన వారిగా మాట్లాడతారు. వ్యక్తిగత సమాచారాన్ని ధృవీకరించమని లేదా చెల్లింపులు చేయాలని కోరతారు. ఇలాంటి సందర్భాల్లో అప్రమత్తంగా ఉండాలి.
ప్రభుత్వ అధికారులుగా నటిస్తూ : ప్రభుత్వ అధికారులుగా నటిస్తూ కాల్ చేస్తారు. సోషల్ సెక్యూరిటీ అడ్మినిస్ట్రేషన్ లేదా ఐఆర్ఎస్ వంటి సంస్థల పేరు చెప్పి కాల్ చేయవచ్చు. బెదిరించి లేదా ఇతర విధాలుగా మాట్లాడి నగదు డిమాండ్ చేయవచ్చు. ఇలాంటి కాల్స్ పట్ల అప్రమత్తంగా ఉండాలి. అని సైబర్ ఎక్స్పర్ట్స్ హెచ్చరిస్తున్నారు
ఇలాంటి AI టెక్నాలజీ మోసాల నుంచి ఎలా తప్పించుకోవాలి..
కాల్స్ చేసిన వ్యక్తి వివరాలు కచ్చితంగా తెలియకుంటే ఫోన్లో వ్యక్తిగత వివరాలు వెల్లడించకూడదు. దాంతోపాటు అత్యవసరంగా డబ్బు లేదా వ్యక్తిగత సమాచారం అడిగే కాల్స్ పట్ల జాగ్రత్తగా ఉండాలి. సైబర్ నేరాల గురించి తెలుసుకొనే ప్రయత్నం చేయండి. అప్పుడే అలాంటి ప్రమాదాల బారిన పడకుండా అప్రమత్తంగా ఉండగలుగుతారు.అని పోలీసులు భావిస్తున్నారు