डीपफेक और भ्रामक सूचना पर सरकार सख्त, चुनाव बाद आएंगे नियम

एआई का इस्तेमाल कर किसी व्यक्ति को वीडियो में गलत ढंग से पेश करने को डीपफेक कहा जाता है

  • Updated Date - March 9, 2024, 01:53 IST
डीपफेक और भ्रामक सूचना पर सरकार सख्त, चुनाव बाद आएंगे नियम

केंद्रीय इलेक्ट्रॉनिक्स एवं सूचना प्रौद्योगिकी मंत्री अश्विनी वैष्णव ने कहा है कि सरकार ने डिजिटल मंचों से समाज और लोकतंत्र को नुकसान पहुंचाने वाली भ्रामक सूचनाओं पर लगाम लगाने के लिए तकनीकी एवं व्यावसायिक प्रक्रिया समाधान मुहैया कराने को कहा है. वैष्णव ने कहा कि लोकसभा चुनाव संपन्न होने के बाद डीपफेक और गलत सूचना के खिलाफ एक सुविचारित कानूनी ढांचे को अंतिम रूप दिया जाएगा. कृत्रिम बुद्धिमत्ता (एआई) का इस्तेमाल कर किसी व्यक्ति को वीडियो में गलत ढंग से पेश करने को डीपफेक कहा जाता है.

भारत में चुनाव का मौसम नजदीक आने के साथ डिजिटल मंचों ने चुनावी सत्यनिष्ठा सुनिश्चित करने की कोशिशें बढ़ा दी हैं. इस दौरान सरकार ने भी सलाह और संदेशों के माध्यम से सोशल मीडिया एवं अन्य मंचों पर प्रसारित होने वाले डीपफेक और गलत सूचनाओं के प्रति अपने कठोर रुख को दर्शाया है. वैष्णव ने कहा, ‘हमारे जैसे जीवंत और विविधतापूर्ण लोकतंत्र में गलत सूचना वास्तव में बहुत हानिकारक हो सकती है. भ्रामक सूचना समाज, लोकतंत्र, चुनावी प्रक्रिया के लिए हानिकारक हो सकती है और यह हमारे भविष्य एवं समाज के सद्भाव को बड़े पैमाने पर प्रभावित कर सकती है.

उन्होंने इसे गंभीर मुद्दा बताते हुए कहा कि हम डिजिटल मंचों के साथ चर्चा के दौरान बहुत स्पष्ट रहे हैं. हालांकि मंचों ने कई कदम उठाए हैं और वे लगातार कदम उठा रहे हैं. चुनाव खत्म होने के तुरंत बाद हम निश्चित रूप से बेहद सुविचारित कानूनी ढांचा खड़ा करेंगे. वैष्णव ने इस मुद्दे को प्रस्तावित डिजिटल इंडिया अधिनियम में ही समाहित किए जाने के बारे में पूछे जाने पर कहा, ‘या तो उसके हिस्से के रूप में या डीपफेक और भ्रामक सूचना पर एक अलग कानून के बारे में भी सोचा जा सकता है.

पिछले हफ्ते, सरकार ने सोशल मीडिया एवं अन्य डिजिटल मंचों के लिए परीक्षण के दौर से गुजर रहे एआई मॉडल को चिह्नित करने और गैरकानूनी सामग्री पर रोक लगाने के लिए एक सलाह जारी की थी. इसके कुछ दिन पहले ही गूगल के एआई टूल जेमिनी ने प्रधानमंत्री नरेन्द्र मोदी के बारे में आपत्तिजनक प्रतिक्रिया दी थी.

Published - March 9, 2024, 01:53 IST