एआई एजेंट्स हो सकते हैं खतरनाक
Sam Altman द्वारा किया गया ट्वीट इस ओर इशारा कर रहा है कि वे आगे आने वाले समय में एआई एजेंट्स से होने वाले खतरों से निपटने के लिए तैयारी में लग गए हैं और OpenAI AI एजेंट्स के बढ़ते खतरों को लेकर सतर्क हैं। उन्होंने अपने ट्वीट में लिखा है कि साल 2025 में कंपनी ने मॉडल्स के मानसिक स्वास्थ्य पर पड़ने वाले असर की झलक देखी थी। अब ये मॉडल्स कंप्यूटर सुरक्षा में इतने माहिर हो गए हैं कि वे गंभीर कमजोरियां ढूंढने लगे हैं। यह समझना जरूरी है कि मॉडल्स की पावर का उपयोग अच्छे के लिए हो। हमें यह सुनिश्चित करना होगा कि वे सुरक्षित रहें और उनका दुरुपयोग न हो। यह एक नई चुनौती है और हमें मिलकर इसके समाधान खोजने होंगे।
आपकी जानकारी के लिए बता दें कि प्रॉम्प्ट इंजेक्शन एक ऐसी समस्या है, जिसमें हैकर AI मॉडल को गलत निर्देश देकर उसे धोखा दे सकता है। यह AI की सुरक्षा के लिए एक बड़ा खतरा है।
क्याें उठाया गया ये कदम?
कंपनी इस तरह के सुरक्षा जोखिमों से निपटने के लिए नए लोगों की तलाश कर रही है। यह दिखाता है कि AI तकनीक जितनी तेजी से आगे बढ़ रही है, उतनी ही तेजी से सुरक्षा के लिए नई चुनौतियां भी सामने आ रही हैं। यह कदम AI सिस्टम द्वारा कंप्यूटर सुरक्षा में गंभीर कमजोरियां खोजने और मानसिक स्वास्थ्य पर पड़ने वाले नकारात्मक प्रभावों की बढ़ती चिंताओं के बीच उठाया गया है।
हाल की रिपोर्टों के अनुसार, AI सिस्टम का इस्तेमाल करके साइबर हमले किए जा रहे हैं। पिछले महीने, Anthropic ने बताया था कि हैकर्स ने उनके क्लाउड कोड टूल का इस्तेमाल लगभग 30 वैश्विक संस्थाओं को निशाना बनाने के लिए किया। इनमें टेक कंपनियां, वित्तीय संस्थान और सरकारी एजेंसियां शामिल थीं।
चैटजीपीटी पर चल रहे कई केस
सैम ऑल्टमैन ने खासतौर पर मानसिक स्वास्थ्य को एक चिंता का विषय बताया है। बता दें कि चैटजीपीटी पर कई हाई-प्रोफाइल मुकदमे चल रहे हैं, जिनमें ChatGPT पर किशोरों की आत्महत्याओं में भूमिका निभाने का आरोप लगाया गया है। साथ ही, ऐसी रिपोर्टें भी सामने आई हैं कि AI चैटबॉट यूजर्स को भ्रम में फंसा रहे हैं। इस कारण कंपनी पहले से ही इससे निपटने के लिए लिए तैयारी कर रही है।















