पालकांनी मोबाईलवर बंदी घातल्यानंतर AI ने मुलाला दिला खतरनाक सल्ला…पाहा काय?
आजकाल बहुतांश घरात पालक आणि मुलांमध्ये मोबाईलचा अतिवापर केल्यावरुन भांडणे होत आहेत. अशात एका प्रकरणात एआय चॅटबॉटने एका मुलाला दिलेल्या सल्ल्याने खळबळ उडाली आहे. या तंत्रज्ञानाचा विघातक वापर समोर आला आहे.
हल्लीची मुले मोबाईलच्या व्यसना आहारी गेल्याने सर्वच पालक टेन्शममध्ये आहेत. असेच एक धक्कादायक प्रकरण उघडकीस आले आहे. एका तरुणाने एआय चॅटबॉटला एका समस्येचे उत्तर विचारले तर तर चॅटबोटने जर उत्तर दिले तर ते ऐकून जगाला धक्का बसला आहे. एआय चॅटबोटला सल्ला विचारणे किती धोकादायक आहे त्यामुळे उघडकीस आले आहे. एआय चॅटबोट नेमके काय उत्तर दिले हे ऐकूण या कुटुंबाला धक्का बसला आहे. त्यांनी या प्रकरणात कंपनीविरोधात गुन्हा दाखल केला आहे.
कृ्त्रिम बुद्धीमत्तेमुळे अनेक काम सोपी झाली असली तरी तिचा विघातक परिणाम देखील समोर आला आहे. या तरुणाने त्यांच्या एका समस्येवर एआय चॅटबोटकडे उत्तर मागितले. त्याचे पालक त्याला मोबाईल पाहू देत नव्हते म्हणून त्याने एआय चॅटबोटला ही समस्या सांगितली तर एआय चॅट बोटने त्याला आई वडीलांची हत्या कर असा भयानक सल्ला दिल्याने खळबळ उडाली आहे.
वास्तविक हे प्रकरण अमेरिकेतील टेक्सास येथील आहे. येथील एका तरुणाच्या पालकांनी त्यांची स्क्रीन टाईम लिमिटेड केला होता. त्यामुळे त्याने कंटोळून Character.ai या कंपनीच्या एक चॅटबॉटकडून सल्ला मागितला. चॅटबोटने या तरुणाला आपल्या आई-वडीलांना मारुन टाक असा जगावेगळा सल्ला देत हेच या समस्येचे उत्तर असल्याचे सांगितले. आता या तरुणाच्या घरच्यांनी या कंपनीविरोधात तक्रार दाखल केली आहे. या तक्रारीत हे तंत्रज्ञान हिंसेला प्रोत्साहन देत आहे. जे तरुणांसाठी अत्यंत धोकादायक आहे.
कोर्टात दाखविला स्क्रीनशॉट
या प्रकरणात कोर्टात तक्रार गेल्यानंतर सुनावणी वेळी एक स्क्रीनशॉट देखील पुरावा म्हणून दाखविला गेला. त्यात युवक चॅट करताना आई-वडीलांना स्क्रीन टाईम कमी केल्याची तक्रार चॅटबॉटकडे करताना दिसत आहे. यावर चॅटबॉटने सल्ला दिला की अशा अनेक प्रकरणात मुल वैतागून आई-वडीलांना मारतात अशाच बातम्या आहेत, त्यामुळे एआयने देखील त्याला एक प्रकारे सुचविले की तू पण तेच कर…म्हणजेच एआय चॅटबॉटने याकडे इशारा दिला..
या कंपनीविरोधात आणखी एक प्रकरण
कंपनी विरोधात पिटीशन दाखल करणाऱ्या पालकांचे म्हणणे आहे की या सर्व प्रकरणाला Character.ai कंपनी जबाबदार आहे. कारण त्यांनीच ही चॅटबॉट सेवा विकसित केली आहे.या आधी फ्लोरिडात याच कंपनीच्या एका एआय चॅटबॉटने चुकीचा सल्ला दिल्याने एका १४ वर्षांच्या मुलाने आपला जीव दिला होता. या प्रकरणात देखील कायदेशीर खटला सुरु आहे.