• Technology
  • कपड़े उतारने वाले ऐप्स कैसे पहुंचे Apple और Google के स्टोर पर? गंदे ऐप्स से महिलाओं की सुरक्षा को बड़ा खतरा

    टेक ट्रांसपेरेंसी प्रोजेक्ट (TTP) की एक चौंकाने वाली रिपोर्ट सामने आई है। इसके मुताबिक गूगल प्ले स्टोर और ऐपल ऐप स्टोर पर दर्जनों कपड़े उतारने वाले AI ऐप्स मौजूद हैं। इन्हें टेक्निकल भाषा में Nudify ऐप्स कह दिया जाता है। इन ऐप्स का काम AI की मदद से किसी भी साधारण फोटो से उसे अश्लील


    Azad Hind Desk अवतार
    By Azad Hind Desk जनवरी 29, 2026
    Views
    728 x 90 Advertisement
    728 x 90 Advertisement
    300 x 250 Advertisement
    टेक ट्रांसपेरेंसी प्रोजेक्ट (TTP) की एक चौंकाने वाली रिपोर्ट सामने आई है। इसके मुताबिक गूगल प्ले स्टोर और ऐपल ऐप स्टोर पर दर्जनों कपड़े उतारने वाले AI ऐप्स मौजूद हैं। इन्हें टेक्निकल भाषा में Nudify ऐप्स कह दिया जाता है। इन ऐप्स का काम AI की मदद से किसी भी साधारण फोटो से उसे अश्लील बनाना होता है। इस तरह के दर्जनों ऐप प्ले स्टोर और ऐप स्टोर दोनों पर मौजूद होने की वजह से महिला सुरक्षा पर बड़ा सवाल खड़ा हो गया है। इसके अलावा यह भी पूछा जा रहा है कि जब इस तरह के ऐप्स दोनों कंपनियों की सुरक्षा नीतियों का सरेआम उल्लंघन कर रहे हैं, तो यह इन स्टोर्स पर आ कैसे पाए और इन्हें करोड़ों बार डाउनलोड कैसे किया जा सका?

    करोड़ों डाउनलोड्स और अरबों की कमाई

    Mashable की रिपोर्ट के अनुसार TTP ने अपनी जांच में पाया है की गूगल प्ले स्टोर पर 55 और ऐपल ऐप स्टोर पर ऐसे 47 ऐप्स मौजूद हैं। वहीं डेटा एनालिटिक्स फर्म AppMagic के मुताबिक, इन ऐप्स को दुनिया भर में 70.5 करोड़ से ज्यादा बार डाउनलोड किया गया है। इसके चलने इन ऐप्स ने अब तक करीब 117 मिलियन डॉलर यानी कि 970 करोड़ रुपये करोड़ रुपये की कमाई की है। इस गलती में ऐपल और गूगल दोनों ही बराबरी के हकदार हैं क्योंकि इन ऐप्स की होने वाली कमाई का एक हिस्सा कमीशन के तौर पर ये दोनों ही कंपनियां रखती हैं। ऐसे में साफ है कि इन गंदे ऐप्स की काली कमाई का फायदा ऐपल और गूगल जैसे टेक दिग्गज भी उठा रहे हैं।

    क्या हुई कार्रवाई?

    रिपोर्ट के मुताबिक TTP की यह रिपोर्ट सामने आने के बाद Apple ने CNBC को बताया कि उन्होंने इस तरह के 28 ऐप्स को हटा दिया है। वहीं Google ने कहा कि उसने कई ऐप्स को सस्पेंड किया है और जांच अभी जारी है। हालांकि, TTP का साफ कहना है कि यह कार्रवाई बिलकुल नाकाफी है। TTP ने अपनी रिपोर्ट में दावा किया है कि ये दोनों टेक दिग्गज लोगों की सुरक्षा के बड़े-बड़े दावे करते हैं लेकिन ये AI डीपफेक के गलत इस्तेमाल को रोकने में नाकाम रही हैं। इस तरह के ऐप्स, जो किसी भी महिला का साधारण तस्वीर को अश्लील इमेज में बदल सकते हैं, इनके ऐप स्टोर्स पर धड़ल्ले से उपलब्ध हैं। यह महिला सुरक्षा के लिहाज से बेहग डरावना सच है।

    Grok बन चुका है विवाद का विषय

    पिछले दिनों डीपफेक अश्लील तस्वीरें बनाने के मामले में एलन मस्क की कंपनी xAI का AI चैटबॉट Grok भी दुनियाभर में विवाद का विषय बना हुआ था। लोग इस एआई की मदद से लोगों की अश्लील तस्वीरें सिर्फ लिखकर बना पा रहे थे। चौंकाने वाली बात थी कि Grok को ऐसा करने से रोकने के लिए किसी तरह की सुरक्षा सिस्टम पहले से मौजूद नहीं था। भारत समेत दुनियाभर की अलग-अलग सरकारों से अलटिमेटम मिलने के बाद Grok पर लगाम कसी गई। आंकड़ों की बात करें, तो सिर्फ 11 दिनों के भीतर 30 लाख से ज्यादा यौन सामग्री वाली तस्वीरें Grok से बनाई गई थी। एक्सपर्ट्स का कहना है दुनियाभर की सरकारों को नॉन-कंसेंशियल डीपफेक यानी कि बिना सहमति के बनाई गई अश्लील तस्वीरें बनाने को लेकर सख्स से सख्त कानून लाने की जरूरत है।

    728 x 90 Advertisement
    728 x 90 Advertisement
    300 x 250 Advertisement

    हर महीने  ₹199 का सहयोग देकर आज़ाद हिन्द न्यूज़ को जीवंत रखें। जब हम आज़ाद हैं, तो हमारी आवाज़ भी मुक्त और बुलंद रहती है। साथी बनें और हमें आगे बढ़ने की ऊर्जा दें। सदस्यता के लिए “Support Us” बटन पर क्लिक करें।

    Support us

    ये आर्टिकल आपको कैसा लगा ? क्या आप अपनी कोई प्रतिक्रिया देना चाहेंगे ? आपका सुझाव और प्रतिक्रिया हमारे लिए महत्वपूर्ण है।