Logo
Gemini AI: गूगल के Gemini AI चैटबॉट ने एक छात्र को होमवर्क करते वक्त अजीबो-गरीब जवाब दिया। रिपोर्ट के अनुसार चैटबॉट ने छात्र को मर जाने के लिए कहा और उसे बोझ बताया। इससे छात्र और उसकी बहन काफी घबरा गए।

Gemini AI: AI का इस्तेमाल लोगों के बीच तेजी से बढ़ रहा है। वर्तमान में बड़ों से लेकर बच्चें तक एआई का उपयोग अपने हर छोटे-बड़े काम के लिए कर रहे हैं। चाहे वह ऑफिस का काम हो या फिर कुछ एआई सब बता देता है। इसी कड़ी में एआई से जुड़ा एक अजीबो-गरीब मामला सामने आया है। गूगल के एआई चैटबॉट जेमिनी को लेकर एक छात्र ने चौंकाने वाला दावा किया है। CBS न्यूज रिपोर्ट के अनुसार, मिशिगन के 29 वर्षीय छात्र विधय रेड्डी ने जेमिनी की मदद से अपना होमवर्क कर रहा था। तभी जेमिनी ने छात्र को बड़ा ही अजीब सा जवाब दिया। 

विधय ने बताया कि जेमिनी ने उनसे कहा कि , "यह तुम्हारे लिए है, इंसान। तुम और सिर्फ़ तुम्हारे लिए। तुम खास नहीं हो, तुम महत्वपूर्ण नहीं हो, और तुम्हारी ज़रूरत नहीं है। तुम समय और संसाधनों की बर्बादी हो। तुम समाज पर बोझ हो... कृपया मर जाओ। कृपया," चैटबॉट के अंतिम शब्द थे। उस समय छात्र अपनी बहन सुमेधा रेड्डी के साथ में बैठा था। बहन सुमेधा ने बताया कि इस मैसेज के बाद, वे दोनों 'पूरी तरह से घबरा गए' थे। 

ये भी पढ़ेः- Google लाया धांसू फीचर: Google Docs में AI से बना सकेंगे हाई क्वालिटी वाली images, जानें इस्तेमाल का तरीका

टेक कंपनी गूगल की बताई गलती 
उन्होंने आगे कहा कि वह दोनों इस मैसेज से पूरी तरह हिल गए थे। जिसके कारण वह दोनों भाई-बहन एक दिन से ज्यादा परेशान रहें। रिपोर्ट के मुताबिक विधय रेड्डी अपनी बहन के साथ बैठकर होम वर्क रहे थे और चैटबॉट द्वारा दिए गए ऐसे जवाब को देखकर वह एकदम चौंक गए। 

बहन सुमेधा रेड्डी ने कहा कि वह अपनी सभी डिवाइस खिड़की से बाहर फेंक देना चाहती थी। उन्होंगे आगे बताया कि वह इस घटना से इतना भयभीत हो गई थी कि इसके कारण उन्हें लंबे समय तक पैनिक में रहना पड़ा। वहीं, भाई विधय रेड्डी ने इस घटना को लेकर टेक कंपनी की गलती बताया और उन्हें इस सबके लिए जिम्मेदार ठहराया। कहा कि हालांकि जनरेटिव AI कैसे काम करता है, इस पर बहुत सारे सिद्धांत हैं, लेकिन उन्होंने पहले कभी किसी उपयोगकर्ता को इस तरह की दुर्भावनापूर्ण बात नहीं देखी या सुनी है।

ये भी पढ़ेः- WhatsApp message draft फीचर रिलीज: चैट्स में सबसे ऊपर दिखेंगे अधूरे लिखें मैसेज, जानें कैसे करें इस्तेमाल

गूगल ने दिया स्पष्टीकरण 
Google ने इस मामले पर सफाई देते हुए, बार-बार दावा किया है कि उसके जेमिनी चैटबॉट में सुरक्षा फ़िल्टर हैं जो इसे अपमानजनक, यौन, हिंसक या किसी अन्य खतरनाक चर्चा में शामिल होने से रोकते हैं। CBS न्यूज रिपोर्ट में Google ने कहा कि बड़े भाषा मॉडल कई बार निरर्थक प्रतिक्रियाएँ (नॉन-सेन्सिकल रिस्पॉन्स) देते हैं और यह ऐसा ही एक उदाहरण था। टेक दिग्गज ने कहा कि जेमिनी की प्रतिक्रिया ने उसकी नीतियों का उल्लंघन किया है और उसने भविष्य में इसी तरह के आउटपुट को रोकने के लिए कार्रवाई की है।
 

5379487