लोकसभा चुनाव 2024 : चुनाव में नेताओं के सामने डीपफेक बनी चुनौती

नई दिल्‍ली (New Delhi)। तकनीक का इस्तेमाल चुनावों को लेकर काफी आम सा हो गया है। सोशल मीडिया, थ्री-डी टेक्नोलॉजी (three-d technology) और वीडियो कॉन्फ्रेंसिंग (conferencing) के जरिए चुनाव प्रचार करना सियासी पार्टियों के लिए आसान हो गया है। मगर आर्टिफिशियल इंटेलिजेंस (AI) आने वाले चुनाव में भ्रामक चीजों को प्रसार के प्रति उत्तरदाई हो सकता है।

एआई की मदद से लोगों में भ्रांतियां फैल सकती हैं। इसका हालिया उदाहरण डीपफेक तकनीक है। डीपफेक की वजह से असली और नकली के बीच की फर्क करने में चुनौती पेश आ रही है, ऐसे में इसके इस्तेमाल से भारतीय चुनावों में राजनीतिक नेताओं को लेकर विवादास्पद टिप्पणियां या अपमानजनक बयान के वीडियो वीडियो और ऑडियो क्लिप की बाढ़ आ सकती है।

चुनाव में डीपफेक टेक्नोलॉजी का इस्तेमाल कर राजनेताओं के भी वीडियो बनाए जा रहे हैं जो अब इस दुनिया में नही हैं. हाल ही में DMK पार्टी के दिवंगत नेता एम करुणानिधि का वीडियो एक बड़े पर्दे पर आया है. इस वीडियो में करुणानिधि के पूरे अंदाज को कॉपी किया गया है. वीडियो में करुणानिधि को ट्रेडमार्क काला चश्मा, सफेद शर्ट और गले में पीले शॉल में दिखाया गया है.

वीडियो में करुणानिधि को 8 मिनट के भाषण के साथ दिखाया गया है. इसके साथ ही टीआर बालू की आत्मकथा लॉन्च होने पर बधाई दी गई है. करुणानिधि के वीडियो का इस्तेमाल तमिलनाडु के मुख्यमंत्री एमके स्टालिन के काबिल नेतृत्व की तारीफ करने में भी की गई है. बता दें कि करुणानिधि का साल 2018 में ही निधन हो चुका है.


राजनीतिक दलों को मिल गया नया हथियार!
चुनाव में प्रचार के लिए राजनीतिक दल लगातार रैलियां और जनसभाएं कर रहे हैं. अब उन्हें एक नया हथियार भी मिल गया है. ये है- आर्टिफिशियल इंटेलिजेंस (एआई) यानी कृत्रिम बुद्धिमत्ता. फेसबुक, इंस्टाग्राम, यूट्यूब, एक्स जैसे सोशल मीडिया प्लेटफॉर्म पर राजनीतिक दल एआई की मदद से बने फोटो और वीडियो शेयर कर रहे हैं. इनका मकसद अपनी पार्टी के उम्मीदवारों की तारीफ करना, विरोधियों का मजाक उड़ाना या वोटरों तक सीधे मैसेज पहुंचाना हो सकता है.

चुनाव में बीजेपी, कांग्रेस समेत लगभग हर राजनीतिक दल ने अपने आधिकारिक सोशल मीडिया अकाउंट पर कम से कम चार बार आर्टिफिशियल इंटेलिजेंस (AI) के जरिए बनी हुई फोटो या वीडियो शेयर की है. इन बदले हुए फोटो या वीडियो को आम बोलचाल में ‘डीपफेक’ कहा जाता है.

एआई की मदद से किसी भी नेता की हूबहू आवाज की नकल की जा सकती है, ऐसे में नेता चुनाव में वोटर्स को रिझाने के लिए वॉइस क्लोनिंग टूल का इस्तेमाल भी कर सकते हैं. अभी तक चुनाव के वक्त हमें रिकॉर्डेड मैसेज वाले फोन आते थे, जिनमें कोई नेता वोट मांगता था. ये सब जानते हैं. लेकिन अब आर्टिफिशियल इंटेलिजेंस (AI) की मदद से कॉल की शुरुआत में ही आपका सीधे नाम लेकर भी संबोधित किया जा सकता है. ये चुनाव प्रचार को और ज्यादा निजी बना सकता है.

2014 से डीपफेक का किया जा रहा है इस्तेमाल
चुनाव प्रचार में भ्रम पैदा करने वाली तकनीकों का इस्तेमाल कोई नई बात नहीं है. रिपोर्ट के अनुसार साल 2014 से डीपफेक का इस्तेमाल किया जा रहा है. 2012 में ही बीजेपी ने नरेंद्र मोदी की 3D होलोग्राम फोटो का इस्तेमाल किया था. इस तकनीक से ऐसा लगता था कि मानो नरेंद्र मोदी एक साथ कई जगहों पर प्रचार कर रहे हैं. इसी तकनीक का इस्तेमाल 2014 आम चुनाव में भी बड़े पैमाने पर किया गया था. हालांकि आजकल डीपफेक वीडियो का इस्तेमाल किया जा रहा है.

बीजेपी सांसद मनोज तिवारी पहले नेता हैं जिन्होंने डीपफेक तकनीक का इस्तेमाल किया. फरवरी 2020 में दिल्ली विधानसभा चुनाव से पहले उन्होंने मतदाताओं को हिंदी, हरियाणवी और अंग्रेजी में संबोधित किया था. ताकि तीन अलग-अलग भाषाओं के लोगों तक उनकी बात पहुंच सकें. उनका सिर्फ हिंदी वाला भाषण असली था, बाकी दो वीडियो डीपफेक थे.

एआई का इस्तेमाल करके उनकी आवाज और शब्दों को बदल दिया गया था, साथ ही उनके हाव-भाव और होठों की गति को भी बदल दिया गया था ताकि यह पहचानना लगभग नामुमकिन हो जाए कि ये असली नहीं हैं.

मतदाताओं से चुनाव की आजादी छीन लेता है डीपफेक?
30 नवंबर 2023 को तेलंगाना में विधानसभा चुनाव के लिए वोटिंग चल रही थी. मतदाता वोट डालने के लिए लाइन में खड़े थे, तभी उनके व्हाट्सअप पर एक वीडियो आता है. ये वीडियो कथित तौर पर उस वक्त के मुख्यमंत्री और भारत राष्ट्र समिति (BRS) के नेता केटी रामा राव को कांग्रेस को वोट देने की अपील करते हुए दिखा रहा था.

दरअसल, ये वीडियो डीपफेक था. मतलब ये वीडियो एआई टेक्नोलॉजी का इस्तेमाल कर बनाया गया था जिसे असली दिखाने की कोशिश की गई थी. ये इस बात का उदाहरण है कि कैसे डीपफेक चुनाव को प्रभावित कर सकता है और नागरिक किसे वोट दें ये फैसला बदला जा सकता है.

Leave a Comment