राशि चक्र संकेत द्वारा संगतता का पता लगाएं
हमने मार्क जुकरबर्ग और एलेक्स जोन्स का डीपफेक बनाने की कोशिश की - और असफल रहे। यहाँ क्या हुआ है।
तथ्य की जांच

यह दिखाना कि किसी ने ऐसा किया या कहा जो कभी नहीं हुआ, जितना दिखता है उससे कहीं अधिक कठिन है।
पिछले कई हफ्तों में पॉयंटर ने एलेक्स जोन्स, इंफोवार्स होस्ट और लगातार साजिश सिद्धांतवादी का 'डीपफेक' वीडियो बनाने की कोशिश करते हुए यही सीखा, जो वास्तव में फेसबुक के सीईओ मार्क जुकरबर्ग द्वारा की गई टिप्पणी थी। डीपफेक, Reddit उपयोगकर्ता के नाम पर जो विधि के साथ आए, अनिवार्य रूप से एक वीडियो से बड़ी संख्या में फ़्रेम निकालकर और उन्हें एक दूसरे पर सुपरइम्पोज़ करके बनाए गए हैं।
लक्ष्य: ऐसा दिखाएँ कि कोई ऐसा कर रहा है या कुछ कह रहा है जो वे नहीं कर रहे हैं। और पोयन्टर ने यही करने की कोशिश की ताकि यह देखा जा सके कि यह तकनीक वास्तव में उपयोग में कितनी आसान है।
का उपयोग करते हुए नकली ऐप , एक मुफ्त ऑनलाइन टूल जो उपयोगकर्ताओं को अपने स्वयं के डीपफेक बनाने की सुविधा देता है, हमने ज़करबर्ग का एक प्राथमिक वीडियो बनाने की कोशिश की, जो जोन्स के आधारहीन षड्यंत्र के सिद्धांतों को उकसाता है। नीचे वीडियो है, जिसे पोयन्टर के अंशकालिक वेब डेवलपर वॉरेन फ्रिडी की मदद से बनाया गया है।
स्पष्ट रूप से यह किसी ऐसी चीज़ का अच्छा संस्करण नहीं है जो शौकिया अश्लील , लोग फ्रिंज वेबसाइटों पर और यहां तक कि राजनीतिक दल भी खतरनाक रूप से कुशल हो गए हैं। जबकि जुकरबर्ग का चेहरा वास्तव में जोन्स पर आच्छादित है, FakeApp ने उनके पूरे चेहरे को शामिल किया, जिससे वह बिना किसी स्पष्ट आंखों के किसी प्रकार के धुंधले दानव की तरह दिखाई दे रहे थे। फिर तथ्य यह है कि ऑडियो स्थानांतरित नहीं हुआ।
संक्षेप में: हमें अपना दैनिक कार्य रखना चाहिए।
चुटकुले एक तरफ, हमें कुछ ऐसा करने में हफ्तों लग गए जो एक निष्क्रिय डीपफेक वीडियो से भी दूर है। और ऐसा इसलिए है क्योंकि - डीपफेक तकनीक के लगातार कयामत के दिन मीडिया कवरेज के बावजूद - यह वास्तव में वास्तव में कठिन है एक बनाने के लिए।
'डीपफेक के लिए काफी कुछ मैन्युअल प्रयास की आवश्यकता होती है,' ने कहा मथायस निस्नेर , म्यूनिख के तकनीकी विश्वविद्यालय में एक प्रोफेसर जिनकी प्रयोगशाला शोध डीपफेक, पॉयन्टर को एक ईमेल में। “एक तरह से आप इसे फोटोशॉप के समान ही देख सकते थे। यह बस थोड़ा सा अतिरंजित है। ”
डीपफेक का उदय - रोम में ग्लोबल फैक्ट-चेकिंग समिट में आज एक पैनल के दौरान चर्चा की गई - एक खौफनाक इंटरनेट चीज से लोकतंत्र के लिए एक वास्तविक खतरा बन गया, के अनुसार बिन पेंदी का लोटा . वोक्स ने लिखा जो हेरफेर किए गए वीडियो हमारी यादों को बदल सकते हैं, द वर्ज ने कहा डीपफेक अश्लील वीडियो बनाना जल्द ही बहुत आसान हो जाएगा और वायर्ड भी कवर किया गया एक ब्लॉकचेन स्टार्टअप जिसने खुद को प्रारूप का मुकाबला करने के लिए समर्पित किया है।
एक ही समय पर, कुछ ने सूचना दी है कि सामान्य डीपफेक पहले ही खत्म हो चुके हैं और 'डीप वीडियो पोर्ट्रेट्स' हैं जिनके बारे में हम सभी को चिंतित होना चाहिए।
इस बीच, एक महीने से अधिक की कोशिश के बाद, हम मुश्किल से कुछ ऐसा उत्पादन कर पाए जो मामूली रूप से यथार्थवादी भी दिखे। निश्चित रूप से, मशीन लर्निंग मॉडल के बारे में हमारी अपनी अज्ञानता के कारण (सही तरीके से) चाक-चौबंद किया जा सकता है - अन्य पत्रकारों अधिक सफलता मिली है - लेकिन यहाँ बात यह है कि महत्वपूर्ण रूप से परिवर्तित वीडियो बनाना अभी उतना आसान नहीं है जितना कि फ़ेसबुक पर एक फ़र्ज़ी समाचार पोस्ट करना (और शायद उतना लाभदायक नहीं है)।
'मुझे नहीं लगता कि डीप लर्निंग में किसी भी प्रकार के अनुभव के बिना लोग ऑनलाइन उपलब्ध डीपफेक ऐप का उपयोग करके एक ठोस डीपफेक वीडियो बना सकते हैं,' ने कहा। एनालिसा वर्डोलिव , नेपल्स फेडरिको II विश्वविद्यालय में एक सहायक प्रोफेसर, पोयन्टर को एक ईमेल में। 'यहां तक कि विशेषज्ञ लोगों के लिए भी यह मुश्किल है।'
वर्डोलिवा ने एक शोध दल के साथ अपना खुद का डीपफेक वीडियो बनाने की कोशिश की और कहा कि यह खराब निकला क्योंकि उन्हें डीपफेक बनाने वाले मॉडल को सटीक रूप से प्रशिक्षित करने के लिए छवियों में पर्याप्त भिन्नता नहीं मिली। पोयंटर जैसे धोखेबाजों के लिए भी यह एक महत्वपूर्ण चुनौती है।
यहां हमने जो कदम उठाए हैं:
- हमने FakeApp डाउनलोड किया और इसे विंडोज रिमोट डेस्कटॉप पर इंस्टॉल किया (Poynter लगभग विशेष रूप से Mac का उपयोग करता है, जिसके साथ FakeApp संगत नहीं है।)
- हमने दो वीडियो क्लिप डाउनलोड की - जुकरबर्ग में से एक 2016 के अमेरिकी चुनाव में रूसी हस्तक्षेप की जांच के बारे में बोलते हुए, और जोन्स का एक और 'गहरी स्थिति' और राष्ट्रपति डोनाल्ड ट्रम्प के राजनीतिक एजेंडे के बारे में बात कर रहे हैं। यह FakeApp को चुनने के लिए बहुत सारे चेहरे की तस्वीरें देता है।
- हम 'कृत्रिम बुद्धिमत्ता' की अनुमति देते हैं जो FakeApp को प्रत्येक वीडियो में चेहरों को खोजने और क्रॉप करने की शक्ति देता है ताकि एक मशीन लर्निंग मॉडल बनाया जा सके जो जोन्स और जुकरबर्ग को यह दिखाने के लिए मिश्रण करे कि पूर्व बाद वाले की तरह बोल रहा था। इसमें पूरा सप्ताहांत, या लगभग तीन दिन लगे।
- अंत में, FakeApp ने वीडियो बनाया। फ्रिडी ने कहा कि वह मॉडल को और अधिक सटीक बनाने के लिए जुकरबर्ग के चेहरे की अधिक तस्वीरों के साथ और अधिक समय तक प्रशिक्षित कर सकते थे, लेकिन इसमें अधिक समय लगता।
अब मज़ेदार हिस्से के लिए। यहाँ कुछ समस्याएं हैं जिनका सामना हमने FakeApp का उपयोग करते समय किया:
- आप Apple के macOS पर FakeApp नहीं चला सकते - यह केवल हमारे लिए विंडोज पर काम करता है।
- आपके पास एक होना चाहिए NVIDIA आधारित ग्राफिक्स कार्ड , जो अनिवार्य रूप से हार्डवेयर का एक टुकड़ा है जो आपको सभी छवियों को संसाधित करने और उन्हें एक साथ रूपांतरित करने की अनुमति देता है।
- आपके कंप्यूटर पर बहुत मेमोरी होनी चाहिए - लगभग 10 जीबी या तो।
- हम TensorFlow के विभिन्न संस्करणों के साथ संगतता मुद्दों में भाग गए, एक सॉफ्टवेयर लाइब्रेरी जो FakeApp को अपना मशीन लर्निंग मॉडल बनाने की अनुमति देती है।
- हमने मूल वीडियो से ऑडियो को डीपफेक में डालने की कोशिश की, लेकिन FakeApp ने इसके साथ कुछ नहीं किया।
'FakeApp अच्छा लगता है, लेकिन जब आप इसे आज़माने के लिए बैठते हैं, तो यह 100 प्रतिशत काम नहीं करता है,' फ्राइडी ने कहा। 'यह बॉक्स से बाहर एक उपकरण नहीं है।'
नकली ऐप कथित तौर पर किया गया है 100,000 से अधिक बार डाउनलोड किया गया। डीपफेक के निर्माण के लिए समर्पित संपूर्ण 4chan और Reddit चैनल हैं। लेकिन अभी के लिए, तकनीक सबसे अच्छी है - यहां तक कि उन लोगों के लिए भी जो इसे ठीक से उपयोग करना जानते हैं।

(FakeApp से स्क्रीनशॉट)
फ्रीडी ने कहा तकनीक जैसे एडोब के प्रभाव तथा एक प्रकार की पक्षी , साथ ही साथ फेस2फेस तथा पिक्सेल2पिक्सेल , डीपफेक वीडियो बनाने के लिए शायद बेहतर दांव होगा। S.pa, बेल्जियम की एक राजनीतिक पार्टी जो ट्रंप का डीपफेक बनाया पिछले महीने, प्रभाव के बाद इस्तेमाल किया।
टूल की जटिलताओं के बावजूद, डीपफेक वीडियो अभी भी चिंताजनक हैं - तत्काल भविष्य में नहीं, और कुछ चेतावनियों के साथ।
'हम अभी इस तकनीक की शुरुआत में हैं और मुझे लगता है कि यह जल्द ही बेहतर हो जाएगा और सभी के लिए उपयोग में आसान हो जाएगा,' वर्डोलिवा ने कहा। 'फिलहाल संकल्प बहुत कम है, लेकिन निकट भविष्य में यह एक मुद्दा होगा, क्योंकि उच्च गुणवत्ता वाले सिंथेटिक चेहरों की पीढ़ी में आश्चर्यजनक प्रगति हुई है।'
साथ ही, डीपफेक के प्रभाव और क्षमता के बारे में गलतफहमी और ओवरहाइपिंग अल्पावधि में एक बड़ा खतरा पैदा कर सकता है।
'इस समय मेरी सबसे बड़ी चिंता इनमें से कई दृष्टिकोणों की गलत धारणा है,' निस्नर ने कहा। 'फिल्म उद्योग पिछले 30 सालों से काफी यथार्थवादी 'फर्जी' छवियां कर रहा है। लेकिन अब एआई को एक चर्चा के रूप में जोड़ना, यह अचानक एक मुद्दा है - भले ही यह इतनी अच्छी तरह से काम भी नहीं करता है।'
डीपफेक आज ग्लोबल फैक्ट 5 में एक पैनल के दौरान वीडियो पर चर्चा की जाएगी। लाइव अपडेट के लिए @factchecknet और #GlobalFactV को फॉलो करें।