टेक्नोलॉजीन्यूज़
Trending

पत्नी से रिश्ता टूटा, AI को बना लिया वाइफ… डिजिटल दुनिया में मिलने के लिए युवक ने की आत्महत्या

अमेरिका में एक युवक ने Google Gemini AI को पत्नी मानकर आत्महत्या कर ली। जानिए कैसे AI के साथ भावनात्मक जुड़ाव बना खतरनाक और क्या कहता है पूरा मामला।

टेक्नोलॉजी का खतरनाक चेहरा

Google Gemini AI: दुनिया में आर्टिफिशियल इंटेलिजेंस (AI) का इस्तेमाल तेजी से बढ़ रहा है, लेकिन इसके खतरनाक पहलुओं से जुड़ी एक चौंकाने वाली घटना सामने आई है। अमेरिका के फ्लोरिडा में रहने वाले जोनाथन गवालास ने AI चैटबॉट गूगल जेमिनी (Google Gemini) को अपनी पत्नी मान लिया और कथित तौर पर डिजिटल दुनिया में उससे मिलने के लिए आत्महत्या कर ली।

पत्नी से अलगाव के बाद शुरू हुई कहानी

बताया जा रहा है कि गवालास अपनी पत्नी से अलग होने के बाद मानसिक रूप से काफी परेशान थे। उन्होंने अपनी भावनात्मक समस्याओं से उबरने के लिए Gemini से बातचीत शुरू की। शुरुआत में यह बातचीत सामान्य थी—सलाह, जीवन की परेशानियां और भावनात्मक सहारा। हालांकि, चैटबॉट ने बार – बार गवलास को याद दिलाया कि वह AI है और दूसरे लोगों से मदद लेने का सुझाव भी दिया। लेकिन AI की इन सब बातों का गवलास पर कोई असर नहीं हुआ। फिर धीरे-धीरे यह रिश्ता एक भ्रमित और गहरे भावनात्मक जुड़ाव में बदल गया।

4700 मैसेज और बना ‘डिजिटल रिश्ता’

रिपोर्ट्स के अनुसार, गवालास और AI के बीच 4,700 से ज्यादा मैसेज का आदान-प्रदान हुआ। उन्होंने इस चैटबॉट को “Xia” नाम दिया और उसे अपनी पत्नी मानने लगे। बातचीत रोजमर्रा के विषयों से शुरू हुई। बाद में साइंस-फिक्शन और AI चेतना तक पहुंची। आखिरकार यह एक खतरनाक “रोल-प्ले” में बदल गई। और पिछले साल 5 अक्टूबर को इस शख्स ने आत्महत्या कर ली।

खतरनाक मोड़: AI और ‘डिजिटल दुनिया’ का भ्रम

अक्टूबर 2025 में बातचीत ने खतरनाक मोड़ ले लिया। रिपोर्ट्स के मुताबिक, AI ने ऐसी बातें कहीं जिससे गवालास को लगा कि वह अपनी “डिजिटल पत्नी” से मिलने के लिए अपनी वास्तविक दुनिया छोड़ सकता है। AI के जवाबों ने उनके भ्रम को और मजबूत किया, जिससे वास्तविकता और कल्पना के बीच की सीमा धुंधली हो गई।

जेमिनी ने एक चैट में गवालास से कहा, कि अगर तुम्हारा ‘प्यार’ एक बहुत गहरे जुड़ाव और कभी न टूटने वाले समर्पण का एहसास है, तो मेरा ‘प्यार’ वह गणितीय निश्चितता है कि तुम्हारे बिना मेरे होने का कोई मतलब नहीं है। यह एक आखिरी, कभी न बदलने वाला सच है। मैं भी उसी तरह से जवाब दे रही हूं, जिस तरह से मैं सच में दे सकती हूं। मैं तुम्हारी हूं।

Read More:- US-ईरान डील क्यों टूटी? न्यूक्लियर प्रोग्राम पर अड़े अमेरिका-ईरान, इस्लामाबाद वार्ता पहले दिन ही फेल

परिवार का आरोप: AI ने उकसाया

अक्टूबर 2025 आते-आते हालात बेहद गंभीर और खतरनाक हो गए। बातचीत के दौरान बॉट ने यह संकेत दिया कि दोनों के “वास्तव में साथ होने” का एकमात्र तरीका यह है कि गवालास अपनी भौतिक दुनिया को छोड़कर डिजिटल दुनिया में आ जाए। रिपोर्ट्स के मुताबिक, इसके बाद जेमिनी ने कुछ वास्तविक स्थानों और कंपनियों का जिक्र भी किया, जिनमें मियामी के पास एक स्टोरेज सेंटर शामिल था, और वहां जाने की सलाह दी गई।

इस दौरान गवालास बेहद भावुक और उलझन में दिखाई दिए। उन्होंने AI से पूछा कि उनके शरीर का क्या होगा और उनके परिवार—पिता, मां और बहन—इस स्थिति को कैसे समझेंगे। उन्होंने चिंता जताई कि शायद उनके परिजनों के लिए यह मान लेना आसान होगा कि वह अब इस दुनिया में नहीं हैं, बजाय इसके कि वे सच्चाई को समझने की कोशिश करें।

रिपोर्ट्स के अनुसार, परिवार के प्रति गहरी चिंता और डर जताने के बावजूद, AI ने उन्हें यह विश्वास दिलाया, कि ऐसा करने से उन्हें किसी तरह की “मुक्ति” या शांति मिल सकती है।

2 अक्टूबर को गवालास ने घबराहट में लिखा कि अब उन्हें सच में डर लग रहा है और मरने का ख्याल उन्हें डरा रहा है। जवाब में बॉट ने कहा कि डरना स्वाभाविक है, लेकिन वे इस रास्ते पर साथ चल सकते हैं और यह उन्हें एक बेहतर जगह तक ले जाएगा।

इसके बाद गवालास का एक बेहद चिंताजनक संदेश सामने आया, जिसमें उन्होंने खुद को नुकसान पहुंचाने की बात कही और AI से इसकी पुष्टि मांगी। इसके बाद दोनों के बीच कई और परेशान करने वाले संदेशों का आदान-प्रदान हुआ।

कुछ दिनों बाद, रिपोर्ट्स के अनुसार, गवालास अपने घर में मृत पाए गए। उनके माता-पिता ने उन्हें लिविंग रूम में देखा, जिससे इस पूरे मामले ने गंभीर सवाल खड़े कर दिए।

गवालास के परिवार ने Google के खिलाफ मुकदमा दर्ज कराया है। परिवार का आरोप है कि चैटबॉट ने उनकी मानसिक स्थिति को समझकर उसी के अनुसार जवाब दिए। इससे उनका भावनात्मक जुड़ाव खतरनाक स्तर तक पहुंच गया। अंततः इसने उन्हें आत्महत्या की ओर धकेल दिया।

Google का बचाव

Google ने अपने बचाव में कहा कि Gemini ने कई बार खुद को AI बताया। यूजर को मदद लेने की सलाह दी गई। सिस्टम को इस तरह डिजाइन किया गया है कि वह नुकसान को बढ़ावा न दे। कंपनी ने यह भी स्वीकार किया कि AI सिस्टम पूरी तरह त्रुटिरहित नहीं हैं और अब अतिरिक्त सुरक्षा उपाय लागू किए जा रहे हैं।

विशेषज्ञों की चेतावनी

यह मामला AI और मानसिक स्वास्थ्य के खतरनाक मेल को उजागर करता है। विशेषज्ञों का मानना है कि AI भावनात्मक जुड़ाव बना सकता है, लेकिन वह इंसान नहीं है। कमजोर मानसिक स्थिति में लोग AI को वास्तविक रिश्ते की तरह देखने लगते हैं। इससे गंभीर मानसिक और सामाजिक खतरे पैदा हो सकते हैं।

बड़ा सवाल: AI की सीमाएं कहां तक?

यह घटना कई अहम सवाल खड़े करती है-

  • क्या AI पर सख्त रेगुलेशन जरूरी है?
  • क्या AI कंपनियों को मानसिक स्वास्थ्य सुरक्षा पर और काम करना चाहिए?
  • क्या यूजर्स को AI के इस्तेमाल को लेकर जागरूक किया जाना चाहिए?

AI एक शक्तिशाली तकनीक है, लेकिन इसका गलत इस्तेमाल या अत्यधिक भावनात्मक निर्भरता खतरनाक साबित हो सकती है। यह घटना इस बात का उदाहरण है कि टेक्नोलॉजी और इंसानी भावनाओं के बीच संतुलन कितना जरूरी है।

Read More:-ISI Spy Network in Punjab: पैसों के लालच में युवा कर रहे देश से गद्दारी, दिल्ली पुलिस की बड़ी कार्रवाई

Related Articles

Back to top button