डीपफेक के हो? यो कसरी मिथ्या समाचारभन्दा कैयाैं गुणा खतरनाक हुन्छ ?

Technology Khabar १७ श्रावण २०७८, आईतवार

डीपफेक के हो? यो कसरी मिथ्या समाचारभन्दा कैयाैं गुणा खतरनाक हुन्छ ?

आजकल डीपफेक निकै चर्चाको विषय बनिरहेको छ। फेक न्यूज अर्थात् मिथ्या वा भ्रामक समाचारका बारेमा त तपाईँले सुन्नु नै भएको होला।

मिथ्या वा भ्रामक समाचारका विभिन्न रुपको कुरा गर्दा डीपफेकको नाम पनि आउँछ। आउनुहोस् डीपफेक वास्तवमै के हो र यो प्रविधि कुन हिसाबले खतरनाक बन्दै गइरहेको छ भन्ने जानाैं।

फेक न्यूज अर्थात् मिथ्या वा भ्रामक समाचारका बारेमा त तपाईँले सुन्नुभएकै होला। विशेषगरी  चुनावका बेला यस्ता जानकारी वा समाचारका बाढी नै आउँछन्।

हामीहरुको जिन्दगीमा प्रविधिको प्रयोग द्रुत गतिमा बढिरहेको छ। जसरी प्रविधिका परिणामहरु सकारात्मक साथसाथै उत्तिकै नकारात्मक वा प्रतिकूल असर पार्ने खालका हुन्छन् भन्ने बुझ्नु जरुरी हुन्छ। यसै क्रममा डीपफेक पनि आजभोलि एउटा विकराल समस्याका रुपमा हाम्रो अगाडि देखा परेको छ।

केही समयदेखि डीपफेक सामाजिक सञ्जालमा निकै चर्चामा रहँदै आएको छ। यो तरिका विशेष गरी सामाजिक सञ्जालमा प्रयोग गरेर विभिन्न भिडियो तथा समचार भाइरल बनाइने गरिन्छ।

डीपफेकसँग सम्बन्धित रिफेस एप वा यस प्रकारका अन्य एपहरु हिजोआज निकै चर्चामा रहेका छन्। यस प्रकारका एपमा यूजरले आफ्ना भिडियो तथा फोटोहरु राख्छन्।

त्यसपछि फिर यो एपले फेसियल फिचरहरुलाई विश्लेषण गरेर सेलिब्रिटी भिडियोको अनुहारसँग उक्त अनुहार स्वाप गरिदिन्छ। यो पनि डीपफेकको एउटा उदाहरण हो।

तर प्रविधिको जमानामा यसलाई साह्रै खतरनाक पनि मानिएको छ। यसको दुरुपयोग मिथ्या समाचारभन्दा कैयो गुणा हानिकारक हुन सक्छ।

अश्लील र याैन भिडियोमा यसको धेरै प्रयोग हुने गरेको छ। अमेरिकामा डीपफेक प्रयोग गरेर बाराक ओबामादेखि टम क्रुजसम्मका भाइरल भिडियोहरु बनाइएका छन्।

आर्टिफिशियल इन्टेलिजेन्समा आधारित डीप फेक

डीप फेक मिथ्या समाचारको निकै ठूलो, विकसित तथा खतरनाक रूप हो। यो दुष्प्रचार वा अफवाहलाई अझ द्रुत गतिमा फैलाउने नयाँ साधनका रुपमा विकसित हुँदै आएको छ।

सामान्य मिथ्या समाचारलाई सही हो वा होइन भनेर विभिन्न तरिकाले परीक्षण गर्न सकिन्छ भने डीपफेकलाई पहिचान गर्न भने सामान्य यूजरका लागि निकै मुश्किल हुन्छ।

डीप फेक ‘डीप लर्निंग’ तथा ‘फेक’ को सम्मिश्रण हो जसमा आर्टिफिशियल इन्टेलिजेन्सको प्रयोग गरेर चित्र, अडियो वा भिडियोजस्ता कुनै पनि मिडिया फाइलको नक्कली कपी तैयार गरिन्छ। यस्तो सामग्री वास्तविक फाइलजस्तै देखिन्छ र सुनिन्छ पनि।

यसले कसरी काम गर्छ?

आर्टिफिशियल इन्टेलिजेन्सको प्रयोग गरेर कुनै पनि व्यक्तिले बोलेका शब्दहरु, शारीरिक हाउभाउ वा  अभिव्यक्ति अन्य व्यक्तिको फोटो वा भिडियोमा मिलाउन सकिन्छ।

Generative Adversarial Networks (GAN) को प्रयोग गरेर यस्ता सामग्रीलाई अझ ‘विश्वसनीय’ बनाइन्छ। अधिकांश स्थितिमा यो देखाइएको सामग्री सक्कली हो कि नक्कली हो भन्ने छुट्याउन सकिँदैन। सफ्टवेयर डेभलपमेन्ट ओपन सोर्स कम्युनिटी GitHub मा धेरै मात्रामा यस्ता सफ्टवेयर पाइन्छन् जसमार्फत डीपफेक निर्माण गर्न सकिन्छ।

चलचित्रमा पनि डीपफेकको प्रयोग

डीपफेक थुप्रै समयदेखि चलचित्रमा पनि प्रयोग गरिँदै आएको छ। उदाहरणका लागि फ़ास्ट एन्ड फ्यूरियका अभिनेता पल वाकरको मृत्युपछि उनको चलचित्रमा पल वाकरको भाईलाई खेलाइयो।

तर डीपफेकमार्फत् उनको अनुहार र आवाज ठ्याक्कै पल वाकरको जस्तै बनाइयो। यसअघ पनि थुप्रै पटक विभिन्न फिल्ममा डीपफेकको प्रयोग हुँदै आएको छ। विशेषगरी हलिउड फिल्ममा यसको धेरै प्रयोग गरिन्छ।

डीप फेकको बेफाइदा

कुनै पनि प्रविधिको गलत प्रयोग विनाशकारी सावित हुन सक्छ। डीपफेक तथा गलत समाचार पनि यसको एउटा उदाहरण हो। यसबाट कसैको व्यक्तिगत तथा राजनतिक, सामाजिक र आर्थिक जीवन बर्बाद गरिदिन सकिन्छ।

यसको प्रयोग थुप्रै क्षेत्रमा खतरनाक सावित हुन सक्छ। विशेष गरी चुनावहरुका बेला यसको दुरुपयोग हुन सक्ने आशैका गरिन्छ। यसको माधमबाट जो कोहीलाई बदनाम वा मानमर्दन गराउन सकिन्छ जुन आफैंमा गलत व्यवहार हो।

यो पनि हेर्नुस्-

एक लाख भन्दा बढी महिलाहरूको डीपफेक इमेजहरू मेसेजिङ्ग एप टेलिग्राममा शेयर

TK Viber

प्रकाशित: १७ श्रावण २०७८, आईतवार

Loading...