डीपफेक को विनियमित करने के लिए एक कदम उठाएं

Take a Step to Regulate Deepfakes

वर्तमान में, डीपफेक के दुर्भावनापूर्ण उपयोग से निपटने के लिए भारतीय कानून में कुछ प्रावधान हैं

प्रसंग:

  • उपयुक्त नियमों की कमी व्यक्तियों, व्यवसायों और यहां तक कि गैर-राज्य संस्थाओं के लिए आर्टिफिशियल इंटेलिजेंस (एआई) के दुरुपयोग के लिए दरवाजे खोलती है, जैसा कि डीपफेक के मामले में देखा गया है – आर्टिफिशियल इंटेलिजेंस का एक अनुप्रयोग।
  • यह लेख दर्शाता है कि स्व/नियमन न करना कभी-कभी घातक कैसे हो सकता है, और डीपफेक के रूप में इसके दुरुपयोग से बचने के लिए भारत में एआई को विनियमित करने की आवश्यकता है।

डीपफेक क्या है?

  • डीपफेक वीडियो, फोटो या समाचार उत्पन्न करने के लिए आर्टिफिशियल इंटेलिजेंस में “डीप लर्निंग तकनीक” का उपयोग करता है जो वास्तविक लगता है लेकिन वास्तव में नकली है।
  • इन तकनीकों का उपयोग चेहरों को संश्लेषित करने, चेहरे के भावों को बदलने, आवाजों को संश्लेषित करने और समाचार उत्पन्न करने के लिए किया जा सकता है।
  • फिल्मों में विशेष प्रभाव पैदा करने के लिए भी इस तकनीक का उपयोग किया जाता है। हालाँकि, हाल ही में इस तकनीक का अपराधियों द्वारा गलत सूचना बनाने के लिए व्यापक रूप से उपयोग किया जा रहा है।
  • उदाहरण के लिए, मार्च 2022 में, यूक्रेनी राष्ट्रपति वलोडिमिर ज़ेलेंस्की ने खुलासा किया कि सोशल मीडिया पर पोस्ट किया गया एक वीडियो जिसमें वह यूक्रेनी सैनिकों को रूसी सेना के सामने आत्मसमर्पण करने का निर्देश देते दिखाई दे रहे थे, वास्तव में एक डीपफेक था।

डीपफेक कैसे काम करता है?

  • डीपफेक तकनीक एक “डीप लर्निंग तकनीक” पर निर्भर करती है जिसे ऑटो-एनकोडर कहा जाता है, जो एक प्रकार का आर्टिफिशियल न्यूरल नेटवर्क (एएनएन) है जिसमें एक एनकोडर और एक डिकोडर होता है।
  • इनपुट डेटा को पहले एन्कोडेड प्रतिनिधित्व में विघटित किया जाता है, फिर इन एन्कोडेड प्रस्तुतियों को नई छवियों में पुनर्निर्मित किया जाता है जो इनपुट छवियों की तरह होती हैं।
  • डीपफेक सॉफ्टवेयर कई ऑटो-एनकोडर को मिलाकर काम करता है, एक असली चेहरे के लिए और दूसरा नए चेहरे के लिए

डीपफेक से जुड़ी समस्याएं:

  • गलत सूचना और प्रचार फैलाना: डीपफेक तथ्य और कल्पना के बीच अंतर करने की जनता की क्षमता को गंभीर रूप से प्रभावित करता है।
  • किसी को आपत्तिजनक और शर्मनाक स्थिति में चित्रित कर सकता है: उदाहरण के लिए, मशहूर हस्तियों की डीपफेक अश्लील सामग्री न केवल निजता के आक्रमण के बराबर है, बल्कि उत्पीड़न के लिए भी है।
  • यह वित्तीय धोखाधड़ी के लिए उपयोग किया जाता है: स्कैमर्स ने हाल ही में यूके की एक ऊर्जा कंपनी के सीईओ को धोखा देने के लिए एआई-संचालित सॉफ्टवेयर का इस्तेमाल किया, यह सोचकर कि वह फोन पर जर्मन मूल कंपनी के सीईओ के साथ बात कर रहा था।
    • नतीजतन, सीईओ ने एक बड़ी राशि (€2,20,000) को स्थानांतरित कर दिया, जिसे वह एक आपूर्तिकर्ता समझता था।
  • ‘लायर्स डिविडेंड’: यह इस विचार को संदर्भित करता है कि व्यक्ति कुछ सामग्री की प्रामाणिकता को नकार कर डीपफेक तकनीक की बढ़ती जागरूकता और प्रसार का लाभ उठा सकते हैं।

डीपफेक भारत को कैसे नुकसान पहुंचा सकता है?

डीपफेक अमित्र पड़ोसियों और गैर-राज्य संस्थाओं द्वारा नियोजित किया जा सकता है, और कुछ मामलों में घातक हो सकता है जैसे:

  • चुनाव के परिणाम को प्रभावित करने के लिए।
  • जासूसी गतिविधियों को अंजाम देना। छेड़छाड़ किए गए वीडियो का इस्तेमाल सरकार और रक्षा अधिकारियों को राज्य के रहस्य प्रकट करने के लिए ब्लैकमेल करने के लिए किया जा सकता है।
  • भड़काऊ सामग्री का उत्पादन करने के लिए।
    • उदाहरण के लिए, संघर्ष वाले क्षेत्रों में सशस्त्र बलों या पुलिस को ‘अपराध’ करते हुए दिखाने वाले वीडियो।
    • इसका इस्तेमाल आबादी को कट्टरपंथी बनाने, आतंकवादियों की भर्ती करने या हिंसा भड़काने के लिए किया जा सकता है।

भारत में आर्टिफिशियल इंटेलिजेंस से संबंधित कानूनी ढांचा:

  • वर्तमान में, भारतीय दंड संहिता (मानहानि) और सूचना प्रौद्योगिकी अधिनियम, 2000 (यौन रूप से स्पष्ट सामग्री को दंडित करने) के तहत बहुत कम प्रावधान डीपफेक के दुर्भावनापूर्ण उपयोग से निपटने के लिए संभावित रूप से लागू किए जा सकते हैं।
  • जनप्रतिनिधित्व अधिनियम, 1951 में चुनाव अवधि के दौरान उम्मीदवारों या राजनीतिक दलों के बारे में झूठी या भ्रामक जानकारी के निर्माण या वितरण पर रोक लगाने वाले प्रावधान शामिल हैं।
  • भारत के चुनाव आयोग ने ऐसे नियम निर्धारित किए हैं जिनके लिए पंजीकृत राजनीतिक दलों और उम्मीदवारों को इलेक्ट्रॉनिक मीडिया पर सभी राजनीतिक विज्ञापनों के लिए पूर्व-अनुमोदन प्राप्त करने की आवश्यकता होती है
  • उपरोक्त सभी एआई एल्गोरिदम के कारण उत्पन्न होने वाले विभिन्न मुद्दों को पर्याप्त रूप से संबोधित करने के लिए अपर्याप्त हैं, जैसे कि डीपफेक सामग्री द्वारा उत्पन्न संभावित खतरे।

क्या किया जाने की जरूरत है?

  • अलग कानून: भारत सरकार को डीपफेक के अवैध उपयोग और आर्टिफिशियल इंटेलिजेंस के व्यापक विषय को विनियमित करने के लिए अलग कानून पेश करना चाहिए। प्रस्तावित डिजिटल इंडिया बिल भी इस मुद्दे का समाधान कर सकता है।
  • ऐसे कानून की मुख्य विशेषताएं:
    • आर्टिफिशियल इंटेलिजेंस में इनोवेशन को बाधित नहीं करना चाहिए
    • यह स्वीकार करना चाहिए कि डीपफेक तकनीक का इस्तेमाल आपराधिक कृत्यों के लिए किया जा सकता है
    • डीपफेक के उपयोग को संबोधित करने के लिए प्रावधान प्रदान करना चाहिए

दूसरे क्या कर रहे हैं?

  • ताइवान: यह चिंता बढ़ती जा रही है कि चीन जनता की राय को प्रभावित करने और चुनाव परिणामों में हेरफेर करने के लिए गलत सूचना फैला रहा है।
    • इसने हाल ही में डीपफेक वीडियो या छवियों को साझा करने को दंडित करने के लिए चुनाव कानूनों में संशोधन को मंजूरी दी है।
  • चीन: यह उन कुछ देशों में से एक है जिसने राष्ट्रीय सुरक्षा या अर्थव्यवस्था के लिए हानिकारक माने जाने वाले डीपफेक के उपयोग पर रोक लगाने वाले नियम लागू किए हैं।
    • ये नियम उन कंटेंट क्रिएटर्स पर लागू होते हैं जो चेहरे और आवाज के डेटा में बदलाव करते हैं और जनवरी, 2023 में लागू हुए।

आगे का रास्ता:

  • गलत सूचनाओं और डीपफेक से निपटने के लिए मीडिया साक्षरता कार्यक्रमों के माध्यम से उपभोक्ता जागरूकता सबसे प्रभावी रणनीति है।
  • हानिकारक डीपफेक के निर्माण और प्रसार को हतोत्साहित करने के लिए प्रौद्योगिकी उद्योग, नागरिक समाज और सरकार के बीच एक संवाद।
  • डीपफेक, प्रामाणिक सामग्री का पता लगाने के लिए सरल और सुलभ तकनीकी समाधान।

निष्कर्ष:

  • नई तकनीकों और उनके द्वारा उत्पन्न मुद्दों और चुनौतियों का समाधान करने के लिए कानूनों के अधिनियमन के बीच अक्सर एक अंतराल होता है।
  • नतीजतन, हम हमेशा स्व-नियमन नीतियों पर भरोसा नहीं कर सकते हैं और इस ‘इन्फोडेमिक’ के समाधान का हिस्सा बनने की जिम्मेदारी लेनी चाहिए।
Source: The Hindu (14-01-2023)

About Author: बिबेक देबरॉय, आदित्य सिन्हा