ये AI की दुनिया है और हम बस इसमें रह रहे हैं.

इस नए AI युग का बिगुल बहुत पहले ही बज गया था. इसके आने का ऐलान भी हर जगह हो गया था. हालांकि, 2025 में ही फ़ैक्ट-चेकिंग आउटलेट्स ने कम से कम भारत में आखिरकार ग़लत जानकारी के सबसे नए ‘स्कूल’ (AI से बने कंटेंट और डीपफ़ेक) का सीधा सामना किया.

जैसे-जैसे जेनरेटिव AI (Gen AI) टूल्स, खासकर बड़े लैंग्वेज मॉडल (LLM) जो इंसानों जैसा टेक्स्ट, कोड, और इमेज/ऑडियो/वीडियो बनाने के लिए डिज़ाइन किए गए हैं, आम लोगों के लिए ज़्यादा सुलभ होते जा रहे हैं. AI से बना कंटेंट अब ‘खास’ नहीं रह गया है. अनगिनत जानकारी के इस दौर में AI ग़लत जानकारी फैलाने के सबसे महत्वपूर्ण टूल्स में से एक के रूप में सामने आया है. फ़ैक्ट-चेकर्स के लिए ये एक नई चुनौती है.

2025 में ऑल्ट न्यूज़ ने 39 AI-जेनरेटेड वीडियोज़ या तस्वीरों का फ़ैक्ट-चेक किया था. उनमें से 10 मामलों में राजनीतिक पार्टियां, राजनेता या मीडिया ऐसे कंटेंट को असली बताकर सक्रिय रूप से फैला रहे थे. इन सारी चहलपहल के बावजूद, 2024 में केवल सात AI-जेनरेटेड इमेज या वीडियोज़ सामने आए थे जो भारतीय संदर्भ में इतने महत्वपूर्ण थे कि ऑल्ट न्यूज़ को उनका फ़ैक्ट-चेक करना पड़ा. तो, इसके अलगे साल, ऐसे फ़ैक्ट-चेक्स में 457% की चौंकाने वाली बढ़ोतरी देखी गई.

जो इन्फ्लुएंसर, ऑथेंटिसिटी से ज़्यादा विज़िबिलिटी और एंगेजमेंट को प्राथमिकता देते हैं, उनके हाथों में जेनरेटिव AI एक जादुई छड़ी है. शाहरुख खान के साथ एक तस्वीर चाहिए लेकिन उनसे मिलने का मौका नहीं मिला? ChatGPT ये सपना सच कर सकता है. बचपन के किसी हीरो के साथ फोटो चाहिए जिसकी मौत हो चुकी है? ‘नैनो बनाना प्रो’ आपके लिए ये कर देगा. कल एक पेपर जमा करना है जिसे आपने अभी तक शुरू भी नहीं किया है? चिंता न करें, परप्लेक्सिटी आपके साथ है.

लेकिन इसका एक दूसरा पहलू भी है और ये काफी साफ़ है.

मशहूर डॉक्यूमेंट्री, ‘द एसेंट ऑफ़ मैन’ में जैकब ब्रोनोव्स्की ने इंसानियत को याद दिलाया था कि टेक्नोलॉजी का इस्तेमाल समझदारी और नैतिक दूरदर्शिता के साथ करना चाहिए. AI का मामला भी अलग नहीं है. जैसे-जैसे ये ज़्यादा से ज़्यादा आम होता जा रहा है, इसके बिना समझदारी और नैतिक दूरदर्शिता के इस्तेमाल होने की संभावनाएं बढ़ती जा रही हैं. इसका नतीजा 2025 में सबके सामने था.

AI वीडियो का इस्तेमाल सांप्रदायिक नैरेटिव को बढ़ावा देने के लिए किया गया

पिछले साल AI के ग़लत इस्तेमाल का सबसे बड़ा उदाहरण ये था कि BJP असम के सोशल मीडिया हैंडल ने मुसलमानों को निशाना बनाते हुए सांप्रदायिक प्रॉपगेंडा फ़ैलाया.

उदाहरण के लिए, 15 सितंबर को बीजेपी असम के X अकाउंट ने एक AI-जेनरेटेड वीडियो शेयर किया जिसमें “BJP के बिना असम” की एक झलक दिखाई गई थी. ये वीडियो कांग्रेस और उसके नेता गौरव गोगोई को निशाना बनाने के लिए था जिसमें AI फ़ुटेज में मुस्लिम “घुसपैठियों” को राज्य में घुसते और सरकारी ज़मीन पर कब्ज़ा करते हुए दिखाया गया था; टोपी, दाढ़ी और लुंगी पहने हुए आदमी सड़क किनारे बीफ़ काट रहे थे, जबकि मुस्लिम पुरुष और बुर्का पहनी महिलाएं राज्य के चाय बागानों और गुवाहाटी एयरपोर्ट, थीम पार्क, चिड़ियाघर, स्टेडियम और शहर जैसी सार्वजनिक जगहों पर भीड़ लगाए हुई थीं.

31 सेकंड का ये ‘विज्ञापन’ इस चेतावनी के साथ ख़त्म हुआ कि BJP के बिना, असम में 90% मुस्लिम आबादी होगी. इसमें कहा गया, “अपना वोट ध्यान से चुनें.” कैप्शन में लिखा था, “हम पाईजान के इस सपने को सच नहीं होने दे सकते.”

कई तरफ से कड़ी आलोचना और FIR दर्ज़ होने के बाद, असम BJP ने आखिरकार वीडियो डिलीट कर दिया, लेकिन तब तक उसे करीब 5 मिलियन व्यूज़ मिले थे. इस बारे में ऑल्ट न्यूज़ की 13 अक्टूबर को पब्लिश हुई डिटेल्ड रिपोर्ट यहां पढ़िए.

दिसंबर 2025 में BJP बंगाल और BJP दिल्ली ने भी ऐसा ही किया. राज्य में चल रही SIR प्रक्रिया का बहाना बनाकर, उन्होंने AI-जनरेटेड वीडियो शेयर किए जो खुलेआम सांप्रदायिक थे. एक वीडियो में मशहूर बंगाली काल्पनिक किरदार, गोपी और बाघा को आने वाले समय के कोलकाता में दिखाया गया जिसमें सभी साइनबोर्ड उर्दू में लिखे थे और सड़कों पर सिर्फ़ मुस्लिम समुदाय के लोग चल रहे थे. दूसरे वीडियो में AI-जनरेटेड क्लिप में मुसलमानों की तुलना कीड़ों से की गई जिसमें उन्हें मच्छर भगाने वाली कॉइल से भगाते हुए दिखाया गया.

This slideshow requires JavaScript.

यहां हमारी रिपोर्ट है कि कैसे SIR के बारे में लोगों को जागरूक करने की आड़ में पार्टी के सोशल मीडिया हैंडल ने खुलेआम सांप्रदायिक स्टीरियोटाइपिंग, डर फ़ैलाने और इस्लामोफ़ोबिया का सहारा लिया.

हालांकि, इनमें से कई वीडियोज़ काल्पनिक थे. सितंबर में एक ज़्यादा मुश्किल करनेवाला मामला सामने आया जब राहुल गांधी की एक महिला के साथ काले चश्मे पहने हुए ‘एकदम असली दिखने वाली तस्वीर’ ऑनलाइन शेयर की जाने लगी. कई X यूज़र्स ने दावा किया कि वो महिला उनकी पार्टनर थी. हमारी जांच में वायरल तस्वीर में कई गड़बड़ियां मिलीं. ऐसा लगा कि ये फ़ोटो 2000 के दशक की शुरुआत की एक तस्वीर पर आधारित थी जिसमें राहुल गांधी, चश्मे और काले कपड़े पहनी एक महिला के साथ बैठे हुए थे. बाद में उस महिला की पहचान वेरोनिक कार्टेली के रूप में हुई थी. उस पुरानी तस्वीर का इस्तेमाल कर हाल में एक तस्वीर AI की मदद से बनाई गई थी.

हालांकि, वायरल तस्वीर में राहुल गांधी काफी बूढ़े दिख रहे थे, लेकिन महिला नहीं – मुख्य रूप से इसलिए क्योंकि वेरोनिक की कोई दूसरी सार्वजनिक रूप से उपलब्ध तस्वीरें नहीं हैं जिससे पता चल सके कि वो उम्र के साथ कैसी दिखती होंगी. इससे दोनों तस्वीरों में काफी समानताएं दिखीं जिसमें उनके कपड़े और चश्मे भी शामिल है.

आखिरी पुष्टि तब हुई जब हम उसी रेफरेंस तस्वीर का इस्तेमाल करके खुद एक वैसी ही तस्वीर बनाने में कामयाब रहे जिससे ये साबित हुआ कि वायरल तस्वीर को आर्टिफ़िशियली बनाया गया था. इस मामले पर हमारी फ़ैक्ट-चेक रिपोर्ट यहां पढ़ सकते हैं.

राजनीतिक पार्टियों ने अक्सर इसी तरह की ग़लत जानकारियों का इस्तेमाल किया है. दिल्ली विधानसभा चुनावों से पहले, आम आदमी पार्टी (AAP) ने जनवरी में अपने सोशल मीडिया चैनलों पर एक वीडियो शेयर किया था जिसमें दावा किया गया था कि ये सेंट्रल विस्टा प्रोजेक्ट के हिस्से के तौर पर प्रधानमंत्री नरेंद्र मोदी का “शाही महल” या नया घर है. वीडियो में शानदार इंटीरियर, झूमर और लग्जरी चीजें दिखाई दे रही थीं और कैप्शन में ऐसा दिखाया गया था कि ये इस कथित घर की पहली झलक है. ऑल्ट न्यूज़ को लाइटिंग, इंटीरियर और चीज़ों में कई विज़ुअल्स में कई गड़बड़ियां मिलीं. इससे पता चला कि वायरल क्लिप AI से बनाई गई थी या उसमें बदलाव किया गया था. वीडियो में “सोरा” (OpenAI का एक वीडियो बनाने वाला टूल) का वॉटरमार्क भी दिख रहा था जो AI की मदद से कंटेन्ट क्रियेट करता है.

AAP के इस वीडियो पर ऑल्ट न्यूज़ की फ़ैक्ट-चेक रिपोर्ट पढ़ सकते हैं.

फिर, जुलाई में सोशल मीडिया पर एक वीडियो सर्कुलेट हुआ जिसमें दावा किया गया कि पाकिस्तान पीपल्स पार्टी (PPP) के चेयरमैन बिलावल भुट्टो जरदारी ने कहा था कि “हमारे लोग भारत की संसद में बैठे हैं.” ये क्लिप असम के मंत्री जयंत मल्लाबरुआ सहित कई भारतीय हस्तियों ने शेयर की थी और बाद में केंद्रीय मंत्री किरेन रिजिजू ने इसका ज़िक्र किया और BJP प्रवक्ता जयवीर शेरगिल ने विपक्षी नेताओं को निशाना बनाने के लिए इसे कोट किया. ऑल्ट न्यूज़ ने पाया कि वायरल वीडियो में ऑडियो के साथ छेड़छाड़ की गई थी — ये बिलावल के असली भाषण से मेल नहीं खाता था, और उनके होंठों की हरकतें क्लिप के शब्दों के साथ सिंक में नहीं थीं जिससे पता चलता है कि ये AI-जनरेटेड कंटेंट था.

हाल ही में बीजेपी के अनऑफ़िशियल IT सेल ने एक वीडियो बड़े पैमाने पर शेयर किया जिसमें कथित तौर पर एक मुस्लिम आदमी नाले के पानी से खाना बनाते हुए दिख रहा था. जितेंद्र प्रताप सिंह (@jpsin1) जैसे X यूज़र्स जो नियमित रूप से सांप्रदायिक प्रॉपगेंडा शेयर करते हैं और जिन्हें प्रधानमंत्री नरेंद्र मोदी भी फ़ॉलो करते हैं, उन्होंने इस वीडियो को खुलेआम सांप्रदायिक टिप्पणियों के साथ फैलाया. कई यूज़र्स ने इसे सच मान लिया और अपनी नफ़रत ज़ाहिर की. हालांकि, ऑल्ट न्यूज़ ने पाया कि ये वीडियो भी AI-जनरेटेड था. क्लिप में कई ऐसे फ़ैक्टर हैं जो वीडियो की सच्चाई पर शक पैदा करते हैं, लेकिन जब हम किसी बात पर विश्वास करना चाहते हैं तो हमारा कन्फर्मेशन बायस अक्सर हमें उन साफ ​​संकेतों को नज़रअंदाज़ करने पर मजबूर कर देता है.

 

मीडिया द्वारा AI-जनरेटेड कंटेंट चलाने के मामले

मेनस्ट्रीम मीडिया भी कई बार AI-जनरेटेड कंटेंट के झांसे में आ चुका है. दिसंबर में इंडिया टुडे, हिंदुस्तान टाइम्स, ABP न्यूज़, आज तक, दैनिक भास्कर, News18 और ज़ी न्यूज़ सहित कई आउटलेट्स ने एक डिजिटल रूप से बदले गए वीडियो क्लिप पर आधारित रिपोर्ट चलाई जिसमें कथित तौर पर पाकिस्तान के पूर्व प्रधानमंत्री इमरान खान की बहन अलीमा खानम को पाकिस्तान सेना प्रमुख आसिम मुनीर को “कट्टरपंथी इस्लामी” कहते हुए दिखाया गया था और आरोप लगाया गया था कि उन्होंने भारत के साथ संघर्ष करवाया जो सोशल मीडिया पर वायरल हो गया था.

हालांकि, ऑल्ट न्यूज़ की जांच में पाया गया कि वीडियो को AI-जनरेटेड ऑडियो और बदले हुए लिप-सिंकिंग के साथ डिजिटल रूप से मैनिपुलेट किया गया था. स्काई न्यूज़ पर खानम के मूल इंटरव्यू में मुनीर की विचारधारा या भारत-पाकिस्तान संघर्ष के बारे में कोई बयान शामिल नहीं था.

This slideshow requires JavaScript.

एक और मामले में एक मॉर्फ्ड फ़ोटो वायरल हुई जिसमें दिल्ली की मुख्यमंत्री रेखा गुप्ता पर अगस्त में हमला करने वाला आदमी, आम आदमी पार्टी (AAP) के विधायक गोपाल इटालिया के बगल में खड़ा दिख रहा था और इसे रिपब्लिक भारत, आज तक और पंजाब केसरी जैसे न्यूज़ आउटलेट्स ने चलाया.

ऑल्ट न्यूज़ ने पाया कि ये तस्वीर डिजिटल रूप से बदली गई थी. इटालिया की तस्वीर असल में उनके एक पुराने वीडियो का स्क्रीनग्रैब थी जिसमें आरोपी नहीं था.

This slideshow requires JavaScript.

जून में एक वीडियो क्लिप वायरल हुई थी जिसमें एक शेरनी रात में सड़क पर चलते हुए एक आदमी को सूंघ रही थी जो सड़क किनारे सो रहा था, जिससे लगा कि वो बाल-बाल हमले से बच गया. इस फ़ुटेज को रिपब्लिक और न्यूज़18 जैसे मेनस्ट्रीम न्यूज़ आउटलेट्स ने दिखाया जिन्होंने शुरू में इस घटना को भारत में असली बताया और इसे एक डरावना अनुभव बताया.

हालांकि, ऑल्ट न्यूज़ ने पाया कि ये वीडियो AI से बनाया गया था. वीडियो में कई विज़ुअल्स में गड़बड़ियां थीं, जैसे पास की दुकानों के साइन पर अजीब टेक्स्ट और शरीर का अजीब पोस्चर. रिवर्स सर्च से ये फ़ुटेज एक यूट्यूब चैनल पर भी मिला जिसमें साफ तौर पर बताया गया था कि ये कंटेंट डिजिटल रूप से बनाया गया है. ऑनलाइन आलोचना होने के बाद रिपब्लिक और न्यूज़18 दोनों ने बाद में अपने आर्टिकल अपडेट किए.

This slideshow requires JavaScript.

इसी तरह की एक घटना नवंबर में हुई जब 15-सेकंड की एक क्लिप बहुत ज़्यादा वायरल हुई जो एक CCTV फुटेज की तरह दिख रही थी. इसमें एक बाघ एक आदमी पर हमला करके उसे घसीटकर ले जा रहा था. यूज़र्स ने दावा किया कि ये महाराष्ट्र के चंद्रपुर ज़िले के ब्रह्मपुरी की घटना है. ऑल्ट न्यूज़ के व्हाट्सऐप हेल्पलाइन नंबर पर वीडियो को वेरिफ़ाई करने के लिए कई रिक्वेस्ट मिलीं.

हमारे फैक्ट चेक में पुष्टि हुई कि ये AI से बनाया गया था. फिर से, वीडियो की बारीकी से जांच करने पर कई कमियां सामने आईं, लेकिन बहुत से लोग इन कमियों को पहचान नहीं पाए या AI के अजीब आकर्षण में फंस गए.

‘ये डीपफ़ेक है!’: AI पर झूठा आरोप

AI का एक और खास इस्तेमाल तब सामने आया जब जानी-मानी हस्तियों ने इसे एक आसान कवर के तौर पर इस्तेमाल करना शुरू कर दिया. उदाहरण के लिए, जब नेशनल सिक्योरिटी एडवाइजर अजीत डोभाल की एक पुरानी क्लिप सोशल मीडिया पर वायरल हुई, जिसमें उन्हें ये कहते हुए दिखाया गया था कि पाकिस्तान की ISI ने भारत में इंटेलिजेंस के कामों के लिए मुसलमानों के मुकाबले ज़्यादा हिंदुओं को भर्ती किया था. डोभाल ने तुरंत दावा किया कि ये वीडियो डीपफ़ेक है. उन्होंने CNN-न्यूज़18 को एक्सक्लूसिव इंटरव्यू दिया, जिसे बाद में मनीकंट्रोल जैसे दूसरे आउटलेट्स ने भी चलाया.

हालांकि, ऑल्ट न्यूज़ ने उस फ़ुटेज का पता लगाया और पाया कि ये 2014 में ऑस्ट्रेलिया इंडिया इंस्टीट्यूट में डोभाल के दिए गए एक लेक्चर का है, जहां उन्होंने पूरे संदर्भ में ये बयान दिया था. उन्होंने ISI की भर्ती के ऐतिहासिक आंकड़ों पर चर्चा की थी और ये आग्रह किया था कि आतंकवाद को सांप्रदायिक नज़रिए से नहीं देखा जाना चाहिए. ये वीडियो असल में डीपफ़ेक टेक्नोलॉजी के बड़े पैमाने पर आने से पहले का है, इसलिए इसके AI-जेनरेटेड होने की संभावना बहुत कम है.

राजस्थान पुलिस भी मुश्किल में पड़ गई जब यूट्यूबर एल्विश यादव ने “राजस्थान में फ़ुल प्रोटोकॉल” नाम से एक व्लॉग पोस्ट किया. उसने दावा किया कि जयपुर में एक म्यूज़िक वीडियो शूट के दौरान राजस्थान पुलिस की गाड़ियों ने उसे एस्कॉर्ट किया और उसके काफिले की मदद की. फ़ुटेज में उसकी कार के आगे पुलिस की गाड़ियां दिख रही हैं और टोल पेमेंट से बचने जैसी हरकतें भी दिख रही हैं जिससे पुलिस की भूमिका पर सवाल उठे.

वीडियो वायरल होने के बाद, जयपुर पुलिस ने कोई भी एस्कॉर्ट देने से इनकार किया और दावा किया कि वीडियो “AI से एडिट किया गया” था और इसलिए गुमराह करने वाला था. पुलिस ने एल्विश यादव के खिलाफ एक साइबर पुलिस स्टेशन में FIR भी दर्ज की जिसमें उस पर राजस्थान पुलिस की बदनामी करने का आरोप लगाया गया. जयपुर पुलिस कमिश्नर बीजू जॉर्ज जोसेफ़ और एडिशनल कमिश्नर रामेश्वर सिंह सहित अधिकारियों ने ज़ोर देकर कहा कि कोई आधिकारिक एस्कॉर्ट नहीं दिया गया था.

ऑल्ट न्यूज़ ने पाया कि एल्विश यादव के व्लॉग में ही पुलिस की गाड़ियां दिख रही हैं और पुलिस ने अपने इनकार को साबित करने के लिए कोई सबूत नहीं दिया जिससे उनके दावों और FIR के पीछे की मंशा पर शक होता है.

AI मैनिपुलेशन के खिलाफ आपका बचाव क्या है?

जहां तक ​​ग़लत इरादों के साथ AI और डीपफ़ेक के इस्तेमाल की बात है, ये पूरी तरह साफ होता जा रहा है कि हम बहुत खतरनाक समय की ओर आगे बढ़ रहे हैं. 2026 में कुछ राज्यों के चुनाव होने वाले हैं. ऐसे में जेनरेटिव AI, अब सिर्फ एक टूल नहीं रहा; ये एक ऐसा हथियार बन गया है जो लोगों की सोच को एक तरह से बदल सकता है जिसका मुकाबला सिर्फ एक फ़ैक्ट-चेक से नहीं किया जा सकता.

जब हम दो बातों पर विचार करते हैं तो ये समस्या और भी कंप्लीकेटेड हो जाती है. पहली, टेक्नोलॉजी बहुत तेज़ी से बेहतर हो रही है. डीपफ़ेक में जो कमियां, मान लीजिए, तीन महीने पहले आम तौर पर दिखती थीं, वे अब नहीं हैं. और दूसरी बात, AI-डिटेक्शन टूल्स पूरी तरह से फूलप्रूफ़ नहीं हैं और उन्हें हमेशा बड़े फोरेंसिक और कॉन्टेक्स्टुअल सबूतों के साथ क्रॉस-चेक किया जाना चाहिए. ऑल्ट न्यूज़ में, हमारे काम ने लगातार ये दिखाया है.

तो फिर प्रॉपगेंडा का मुकाबला कैसे करें जब वो दुख और गुस्से की आड़ में छिपा हो? जब RG Kar पीड़ित की इमेज को डीपफ़ेक वीडियो में बदलकर पॉलिटिकल स्टोरीज बनाई जाती हैं, या जब AI से बनाई गई एक क्लिप एक टोपी पहने आदमी को गंदे पानी से खाना बनाते हुए दिखाता है ताकि सांप्रदायिक नफरत फैलाई जा सके, तो मकसद सच्चाई नहीं, बल्कि उकसाना होता है. जेनरेटिव AI को सच्चाई के आम होने की ज़रूरत नहीं है; उसे सिर्फ़ पूर्वाग्रह के परिचित होने की ज़रूरत है. इस मायने में ये हर प्रॉपगेंडा करने वाले की कल्पना को पूरा करता है, ठीक वही चीज़ विज़ुअल्स में दिखाता है जो वो दर्शकों से मनवाना चाहते हैं.

तो हम, एक समाज के तौर पर, इसका मुकाबला कैसे करें? इसका जवाब कुछ बहुत कम मुश्किल, लेकिन कहीं ज़्यादा ज़रूरी चीज़ में है: कॉमन सेंस, क्रिटिकल थिंकिंग और संयम. “इंटरनेट पर जो कुछ भी देखते हैं, उस पर विश्वास न करें”. इस समय शायद घिसा-पिटा लगे, लेकिन ये हमारी सबसे मज़बूत सुरक्षा है. रिवर्स इमेज सर्च और AI डिटेक्टर से परे एक इन्फॉर्मेशन इकोसिस्टम है जो तेज़ी से बदल रहा है. हम बस इतना कर सकते हैं कि सतर्क रहें जो हम देखते हैं उस पर सवाल उठाएं और सिर्फ़ इसलिए किसी चीज़ पर विश्वास करने की इच्छा को रोकें क्योंकि वो असली दिखती है. AI के ज़माने में, सतर्कता और डिजिटल साक्षरता अब ऑप्शनल नहीं हैं; वे ज़रूरी जीवन कौशल हैं.

डोनेट करें!
सत्ता को आईना दिखाने वाली पत्रकारिता का कॉरपोरेट और राजनीति, दोनों के नियंत्रण से मुक्त होना बुनियादी ज़रूरत है. और ये तभी संभव है जब जनता ऐसी पत्रकारिता का हर मोड़ पर साथ दे. फ़ेक न्यूज़ और ग़लत जानकारियों के खिलाफ़ इस लड़ाई में हमारी मदद करें. नीचे दिए गए बटन पर क्लिक कर ऑल्ट न्यूज़ को डोनेट करें.

बैंक ट्रांसफ़र / चेक / DD के माध्यम से डोनेट करने सम्बंधित जानकारी के लिए यहां क्लिक करें.

Tagged:
About the Author

Student of Economics at Presidency University. Interested in misinformation.