डीप फेक वीडियो जारी होने पर ले सकते हैं कानूनी मदद      Publish Date : 27/11/2023

                                                      डीप फेक वीडियो जारी होने पर ले सकते हैं कानूनी मदद

                                                                                                                                                  डॉ0 आर. एस. सेंगर एवं मुकेश शर्मा

                                                      

अगर आप डीप फेक पीड़ित है तो भारत में पर्याप्त कानूनी प्रावधान है, जो आपको राहत दिला सकते हैं, हालांकि वित्तीय अपराध के मामलों में रकम बरामद करना मुश्किल होता है।

पीड़ित को सबसे पहले इस बात की चिंता होती है कि ऐसे फर्जी कंटेंट कैसे हटाया जाए, जो समाज में उसकी साख या प्रतिष्ठा को नुकसान पहुंचा सकता है। इन्फॉरमेशन टेक्नोलॉजी इंटरमीडिएट गाइडलाइंस एंड डिजिटल मीडिया एथिक्स कोड रूल्स 2021 की मदद से नग्न या अश्लील कंटेंट 24 घंटे में हटाया जा सकता है।

नियमों के तहत प्लेटफार्म के लिए यह जरूरी है कि वह ऐसे अश्लील या नियमों का उल्लंघन करने वाले कंटेंट को निरोधक उपाय के तौर पर अपलोड किए जाने पर रोक लगाए।

आईटी एक्ट और भारतीय दंड संहिता 1861 में इस तरह के अपराधिक कृत से शामिल अपराधियों के विरुद्ध मुकदमा चलाने के लिए कई प्रावधान उपलब्ध है।

आईटी एक्ट के क्षेत्र 67 और 67 ए के तहत असलील या कामुकता व्यक्त करने वाले कंटेंट को प्रकाशित या प्रसारित करना एक दंडनीय अपराध है। अगर यह कंटेंट बच्चों से संबंधित हैं तो क्षेत्र 67इ या पोस्को एक्ट के प्रावधान लागू किया जा सकते हैं।

                                                             

डीप फेक कंटेट व्यक्ति के यूनिक फीचर्स का इस्तेमाल करके बनाए जाते हैं और ऐसा करना आईटी एक्ट के क्षेत्र 66 सी के तहत अपराध है। जब डीप फेक कंटेट का इस्तेमाल आपसे ऑनलाइन चैट करने के लिए किया जाता है, ऐसे मामलों में आईटी के एक्ट सेक्शन 66 लागू किया जा सकता है।

  • डीप फेक कंटेट इलेक्ट्रॉनिक रिकॉर्ड की जालसाजी की श्रेणी में आता है, इसलिए आईपीसी का क्षेत्र 463 से 471 लागू किया जा सकता है।
  • डीप फेक कंटेट का इस्तेमाल करते हुए चुनाव से जुड़े अपराधों के लिए  रिप्रेजेंटेशन ऑफ़ पीपल्स एक्ट 1951 के प्रावधानों को लागू किया जा सकता है।
  • महिलाओं के खिलाफ अपराध में आईपीसी के कई प्रावधानों को लागू किया जा सकता है। जैसे महिला की शालीनता भंग करने के मामले में आईपीसी का क्षेत्र 509 लागू किया जा सकता है।

डीप फेक वीडियो तकनीक से विश्व को हुआ है काफी नुकसान

                                                                           

  • साइबर सुरक्षा पेशवारों ने 2022 में अपने संस्थानों में डीप फेक कंटेट हम लोगों ने इसका लगभग 66 प्रतिशत सामना किया है।
  • शोधकर्ताओं के अनुसार लगभग 90 प्रतिशत ऑनलाइन कंटेंट सिंथेटिक तरीके से तैयार किया जा सकते हैं। वर्ष 2026 तक इसका प्रतिशत और भी बढ़ सकता है।
  • वर्ष 2019 और 2020 के बीच डीप फेक ऑनलाइन कंटेंट की संख्या वैश्विक स्तर पर लगभग 900 प्रतिशत तक बढ़ी है।
  • डीप फेक तकनीक द्वारा धोखाधड़ी से दुनिया भर की कंपनियों को वर्ष 2022 में 4.8 लाख डॉलर का नुकसान हुआ है।

डीप फेक के रूप में विश्व के सामने अब एक नया खतरा उभरकर सामने आ रहा है। इंटरनेट की मदद से, इंटरनेट मीडिया प्लेटफॉर्म पर आवाज या तस्वीर आदि को लेकर फर्जी वीडियो या ऑडियो तैयार किए जा रहे है।

यह भारत जैसे विविधता वाले समाज के लिए अधिक हानिकारक है। देश के प्रधानमंत्री नरेंद्र मोदी ने भी हाल ही में इस पर गहरी चिंता जताई है। इसके बाद से ही इंटरनेट मीडिया प्लेटफॉर्म ने इसे रोकने की दिशा में काम करना शुरू कर दिया है। जबकि एआई टूल से लैस कई प्लेटफार्म पहले ही इस दिशा में पहले से ही काम कर रहे हैं। सरकार अगले कुछ दिनों में इसके नियमन के लिए कार्य योजना का मसौदा जारी करने जा रही है। इसके तहत जिला वीडियो अपलोड करने वाले व्यक्ति और प्लेटफार्म दोनों पर जुर्माना लगाया जा सकता है।

                                                                         

ऐसे में यह पड़ताल अहम मुद्दा है कि क्या डीप फेक कंटेट के खतरे से निपटने के लिए वीडियो अपलोड करने वाले व्यक्ति और प्लेटफार्म दोनों पर जुर्माना लगाया जाना, एक प्रभावी कदम होगा और देश के लोकतंत्र के लिए डीप फेक किस तरह से खतरा बन सकता है इस पर अहम कदम उठाए जाएंगे।

अपराधिक हथियार बनता जा रहा है डीप फेक तकनीक

                                                                               

तकनीक प्रगति के इस युग में हम डीप फेक कंटेट प्रौद्योगिकी और एआई अर्थात आर्टिफिशियल इंटेलिजेंस के कारण अपराधों के बढ़ने के साथ अभूतपूर्व चुनौतियों का सामना कर रहे हैं। एक तरफ इसका उपयोग सिनेमा, स्वास्थ्य सेवा और उद्योग आदि क्षेत्रों में आधुनिक तकनीकी विकास के लिए किया जा रहा है, तो दूसरी ओर कुछ लोगों ने डीप फेक कंटेट प्रौद्योगिकी और एआई को आपराधिक गतिविधियों के लिए एक हथियार बना लिया है, जो कि एक बहुत ही चिंताजनक पहलू है।

मशहूर और प्रभावी हास्य के मार्फत फंड वीडियो और फर्जी कंटेंट का प्रसार सार्वजनिक विश्वास साइबर सुरक्षा और सामाजिक स्थिरता के लिए खतरा बन चुका है। हम अभिनेता, अभिनेत्री और नेताओं के कई गलत कंटेंट और फर्जी वीडियो पहले से ही देख चुके हैं। अक्सर आर्टिफिशियल इंटेलिजेंस का इस्तेमाल करके बनाए गए वीडियो और ऑडियोज का उस व्यक्ति से कोई लेना-देना नहीं होता, जिसे बदनाम करने के लिए यह बनाया जाता है।

सेक्सटारशन आर्टिफिशियल इंटेलिजेंस से जुड़े अपराध का एक और खतरनाक पहलू है जो मौद्रिक लाभ या अनुदेशकों के लिए पीड़ितों से जबरन वसूली करने के लिए छेड़छाड़ की गई तस्वीरों या वीडियो का लाभ उठाता है। इस कार्य में, किसी व्यक्ति के चेहरे पर सुपर इंपोज करके कृत्रिम तस्वीर बनाने के लिए विशेष एल्गोरिदम का इस्तेमाल करते हैं। इसमें पीड़ितों को उनका वीडियो सार्वजनिक करने की धमकी देकर प्रतिपूर्ती मांगी जाती है।

वीडियो से लगाने वाले मनोवैज्ञानिक आघात और अनैतिक सामाजिक प्रभाव इस अपराध की गंभीरता को कहीं अधिक बढ़ा देते हैं। अतः इसके लिए तुरंत और प्रभावी जवाबी उपायों की आवश्यकता होती है। ऐसे कई उदाहरण हमारे पास है जहां लोगों ने आत्महत्या तक की है। वॉयस क्लोनिंग अर्थात आवाज की क्लोनिंग, एक ऐसी तकनीक है जो स्पष्टता के साथ किसी व्यक्ति की आवाज की नकल करने में सक्षम है। यह धोखाधड़ी को अंजाम देने या गलत सूचना फैलाने के लिए एक शक्तिशाली उपकरण के रूप में प्रयोग किया जा रहा है।

शिकायत निवारण तंत्र करना होगा विकसित

                                                                   

भारत सरकार के आईटी मंत्री मंत्री ने इंटरनेट मीडिया कंपनियों के साथ बैठक करके डीप फेक कंटेट से निपटने के लिए नए नियमों का मसौदा तैयार करने की बात कही है। नए नियम बनाने और उन्हें लागू करने में समय लगेगा। इसलिए आईपीसी और आईटी एक्ट के वर्तमान कानूनी प्रावधानों को शक्ति से लागू करके इस मर्ज को रोकने की बहुत ही शीघ्र आवश्यकता है। हालांकि नियमों का पालन करने के लिए सरकार ने इंटरनेट मीडिया कंपनियों को एक सप्ताह का समय दिया है।

संघ विचारक की और गोविंदाचार्य की याचिका पर 10 वर्ष पहले दिल्ली हाई कोर्ट ने इंटरनेट मीडिया और इंटरमीडिएट कंपनियों को भारत में प्रभावी शिकायत निवारण तंत्र बनाने के लिए आदेश दिया था। विदेशी इंटरनेट कंपनियों ने अदालत के उस फैसले को पूरी तरह से लागू नहीं किया है। डिफेक्ट के कैंसर को खत्म करने के लिए इन छह बातों पर अमल करने की बहुत ही आवश्यकता है।

  • 2 साल पहले लागू किए गए आईटी नियमों के अनुसार इंटरनेट मीडिया कंपनियां आपत्तिजनक कंटेंट हटाने की मासिक रिपोर्ट भारत में दे रही है। व्हाट्सएप ने 6.02 करोड़, फेसबुक ने 54.5 करोड़ और इंस्टाग्राम ने 8.5 करोड़ आपत्तिजनक पोस्ट और खातों के खिलाफ कार्रवाई भी की है। आर्टिफिशियल इंटेलिजेंस यानी एआई की मदद से आपत्तिजनक कंटेंट हटाने की कार्रवाई भी की जा रही है। इसलिए एआई के माध्यम से ही टेक कंपनियों को डीप फेक कंटेट से जुड़े वीडियो ऑडियो और फुटेज तुरंत हटाने की जिम्मेदारी आगे आकर लेनी चाहिए।
  • डीप फेक से जुड़े कंटेंट को विदेशों में अपलोड करने पर भारतीय कानून के तहत कार्रवाई करना मुश्किल है, लेकिन भारत में इनके प्रसारण को इसके माध्यम से रोका जा सकता है। इसके लिए इंटरनेट मीडिया कंपनियों को बोगस और फर्जी खातों पर प्रभावी रोक लगाने होगी। कंपनी अगर इस जिम्मेदारी को पूरी करने में सफल रही, तो क्षेत्र 79 के तहत दी गई सेफ हर्बल की कानूनी सुरक्षा को खत्म करने का विचार करना होगा।
  • देश में साइबर अपराध रक्तबीज की तरह बढ़ रहे हैं। टेक कंपनियों से परामर्श के साथ डीप फेक कंटेट जैसी चुनौतियों के प्रभावी समाधान के लिए राज्यों की पुलिस के साथ सहयोग और समन्वय जरूरी है इसको और अधिक मजबूती प्रदान करने की जरूरत है।
  • भारत में गूगल और एप्पल के प्लेटफॉर्म्स में डीप फेक कंटेट से जुड़े वीडियो के निर्माण के लिए टूल्स और एप्स उपलब्ध है। लोन से जुड़े एप्स की विक्राल्टा को रोकने के लिए आरबीआई ने गूगल और एप्पल की जवाब देगी तय की है। ठीक इसी तरह से डीप फेक कंटेट से जुड़ी कंपनियों और एप्स का भारत के कानून के हिसाब से पंजीकरण और नियमन होना चाहिए और नियमों का पालन शक्ति से कराया जाना चाहिए।
  • अदालती आदेश के बावजूद पुलिस और खुफिया एजेंसियों को साइबर अपराध से जुड़ी जानकारी और साक्षी के लिए यूरोप और अमेरिका के मुख्यालय से निवेदन करना पड़ता है। आईटी नियमों में नामांकित अधिकारी की नियुक्ति का प्रावधान है। इसके विवरण का खुलासा हो जाए तो साइबर अपराधियों की तेज जांच होने के साथ ही टेक कंपनियों की साइबर लाल फीता शाही भी खत्म हो जाएगी। शिकायत पर वीडियो हटाने के लिए 24 घंटे या 36 घंटे की समय सीमा पर कानूनी स्पष्ट जरूरी है।

                                                                       

देश में प्रभावशाली हास्य के साथ ही आम लोगों की साइबर शिकायतों का समाधान होना चाहिए इसके लिए इंटरनेट मीडिया कंपनियों के शिकायत अधिकारी का नाम ईमेल आईडी और टोल फ्री नंबर आदि सभी जरूरी दस्तावेजों को सार्वजनिक किया जाना चाहिए। आपत्तिजनक कंटेंट हटाने के लिए विदेशी कंपनियां, पुलिस फिर या कोर्ट के आदेश की मांग करती है, जो कि अपने आप में गलत है। विवाद होने की दशा में ही अदालत के आदेश की मांग की जानी चाहिए।

यदि इन बातों पर ध्यान दिया जाए तो निश्चित रूप से आने वाले वर्षों में आर्टिफिशियल इंटेलिजेंस का उपयोग करके जो डीप फेक वीडियो बनाया जा रहे हैं उन पर अंकुश लगाया जा सकेगा-

डीप फेक तकनीकी का दुरुपयोग

वर्तमान में डीप फेक दुनिया भर के लिए गंभीर समस्या बनकर सामने आ रहा है। आर्टिफिशियल इंटेलिजेंस तकनीकी जिस तेजी से आगे बढ़ रही है उतनी ही तेजी से डीप फेक दुनिया में फैल रहा है। डीप फेक वह तकनीक है जिसमें वास्तविक वीडियो में दूसरे के चेहरे को फिट करके फेक वीडियो बनाया जाता है जो देखने में असली लगता है। इसे आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी यानी की एआई की मदद से तैयार किया जाता है। गत दिनों देश के प्रधानमंत्री का भी एक ऐसा वीडियो सोशल मीडिया पर बहुत वायरल हुआ, जिसमें उनको गरबा करते हुए दिखाया गया है।

यह वीडियो भी पूरी तरह से इसी तकनीक से तैयार किया गया था। इस प्रकार डीप फेक की गंभीरता का अंदाजा इस बात से लगाया जा सकता है कि प्रधानमंत्री ने इसे गंभीर संकट पैदा करने वाला बताते हुए इस पर चिंता व्यक्त की, क्योंकि विविधता से भरे देश भारत में आमजन की भावनाओं को आहत करने के लिए सामाजिक तत्वों के द्वारा भविष्य में दीप फेक को एक दूध के रूप में इस्तेमाल किया जा सकता है।

.भारत ही नहीं दुनिया के कई देश डीप फेक का शिकार हो रहे हैं और संकट का सामना कर रहे हैं खासकर तौर पर बड़े नेता व जानी-मानी शखशियत इसके शिकार हो रही है। इस संकट से निपटने के लिए भारत सरकार ने सख्त कदम उठाने के निर्देश जारी कर दिए हैं, क्योंकि डीप फेक अफवाह अशांति एवं नागरिकों की प्रतिष्ठा को ठेस पहुंचाने का एक बड़ा जरिया बन रही है।

अतः डिफेक्ट तकनीक को नियंत्रित करने के लिए आमजन को भी समझदारी एवं सूझबूझ से काम लेते हुए तत्वों की जांच करने के बाद ही किसी भी चीज पर भरोसा करना चाहिए।   

लेखकः प्रोफेसर आर. एस. सेंगर, निदेशक प्रशिक्षण, सेवायोजन एवं विभागाध्यक्ष प्लांट बायोटेक्नोलॉजी संभाग, सरदार वल्लभभाई पटेल कृषि एवं प्रौद्योगिकी विश्वविद्यालय मेरठ।