
नारी डेस्क : हरियाणा के फरीदाबाद से एक दिल दहला देने वाला मामला सामने आया है, जहां एक 19 साल के कॉलेज छात्र ने AI तकनीक से बनाई गई अश्लील तस्वीरों और वीडियो के जरिए ब्लैकमेलिंग से तंग आकर आत्महत्या कर ली। यह मामला न सिर्फ एक परिवार की त्रासदी है, बल्कि बताता है कि कैसे आर्टिफिशियल इंटेलिजेंस (AI) का गलत इस्तेमाल किसी की जिंदगी खत्म कर सकता है।
क्या है पूरा मामला
मृतक छात्र राहुल (परिवर्तित नाम), फरीदाबाद के डीएवी (DAV) कॉलेज का सेकंड ईयर का छात्र था। परिवार का कहना है कि राहुल पिछले कुछ हफ्तों से काफी परेशान था। किसी ने उसका मोबाइल फोन हैक करके AI का इस्तेमाल कर उसकी तीन बहनों के साथ मिलाकर फर्जी अश्लील तस्वीरें और वीडियो तैयार किए थे। राहुल के पिता ने पुलिस को बताया, “किसी ने राहुल के फोन पर मेरी बेटियों की अश्लील वीडियो और फोटो भेजी थीं और उन्हें वायरल करने की धमकी दी जा रही थी। इससे वह मानसिक रूप से टूट गया था।”
कैसे हुआ ब्लैकमेल
पुलिस जांच में पता चला है कि आरोपी ‘साहिल’ नाम के व्यक्ति ने राहुल से संपर्क किया और 20,000 रुपये की डिमांड रखी। व्हाट्सएप चैट (WhatsApp chat) में कई ऑडियो और वीडियो कॉल के सबूत मिले हैं, जिनमें आरोपी ने धमकी दी कि पैसे न देने पर सारी तस्वीरें सोशल मीडिया पर वायरल कर देगा।
आखिरी चैट में ‘साहिल’ ने कथित तौर पर राहुल को उकसाते हुए कहा कि अगर पैसे नहीं दिए तो “अब जो होगा, उसकी जिम्मेदारी तुम्हारी होगी।”
आत्महत्या से पहले क्या हुआ
राहुल ने तनाव में आकर कुछ गोलियां खा लीं। जब उसकी तबीयत बिगड़ी तो परिजन उसे तुरंत अस्पताल लेकर पहुंचे, लेकिन इलाज के दौरान उसकी मौत हो गई पुलिस के मुताबिक, आत्महत्या से पहले राहुल की कुछ लोगों से बात हुई थी, जिनमें एक का नाम नीरज भारती बताया गया है। राहुल की मां ने आरोप लगाया कि नीरज और एक अन्य महिला ने मिलकर साजिश रची थी।
पुलिस की कार्रवाई
फरीदाबाद पुलिस ने इस मामले में दो लोगों के खिलाफ आईटी एक्ट और ब्लैकमेलिंग की धाराओं में केस दर्ज किया है। जांच अधिकारी सुनील कुमार ने बताया, “राहुल का मोबाइल जब्त कर लिया गया है। फोन की डिजिटल फॉरेंसिक जांच की जा रही है। शुरुआती जांच से यह साफ है कि यह मामला AI के गलत इस्तेमाल और साइबर ब्लैकमेलिंग का गंभीर उदाहरण है।”
AI का खतरनाक दुरुपयोग
विशेषज्ञों का कहना है कि अब “डीपफेक वीडियो” (Deepfake Videos) बनाना बेहद आसान हो गया है। AI टूल्स की मदद से किसी भी चेहरे या आवाज़ को जोड़कर अश्लील या झूठे वीडियो बनाए जा सकते हैं। यह न सिर्फ निजता का उल्लंघन है बल्कि मानसिक उत्पीड़न का एक नया रूप बन चुका है।
AI से बनी फर्जी तस्वीरें असली जैसी दिखती हैं। ऐसे मामलों में तुरंत पुलिस की साइबर सेल से संपर्क करें और किसी भी तरह की ब्लैकमेलिंग में पैसे न दें।”
राहुल के पिता ने भावुक होते हुए कहा, “मेरा बेटा निर्दोष था। अगर उसने समय रहते पुलिस को बताया होता तो शायद आज ज़िंदा होता। सरकार को ऐसे AI अपराधियों पर कड़ी कार्रवाई करनी चाहिए।”
सावधानी रखें, सुरक्षित रहें
सोशल मीडिया पर अनजान लोगों से चैट न करें।
अपने मोबाइल और अकाउंट्स में 2-Step Verification ज़रूर रखें।
किसी भी संदिग्ध संदेश या वीडियो पर तुरंत पुलिस को सूचित करें।
साइबर हेल्पलाइन नंबर: 1930.