trendingNow12867651
Hindi News >>टेक
Advertisement

Deepfake को लेकर सरकार को सताया इस बात का डर, बनने जा रहे हैं सख्त कानून

डीपफेक का इस्तेमाल दुनियाभर में काफी बढ़ता जा रहा है. इस AI टूल का इस्तेमाल सिर्फ अच्छी चीजें सीखने के लिए ही नहीं, बल्कि गलत कामों के लिए भी किया जा रहा है. जिस पर अब सरकार की सख्ती देखने को मिल रही है.

Deepfake को लेकर सरकार को सताया इस बात का डर, बनने जा रहे हैं सख्त कानून
Bhawna Sahni|Updated: Aug 04, 2025, 11:33 PM IST
Share

AI यानी आर्टिफिशियल इंटेलिजेंस ने कई कामों को आसान बना दिया है. जैसे इस टूल से अगर कोई सवाल पूछा जाए तो उसका एक ऐसा जवाब मिलता है जिससे हम संतुष्ट हो सकते हैं. ऐसे हम हर AI  टूल एक-दूसरे से आगे निकलने की होड़ में लगा हुआ है. इस बीच डीपफेक (Deepfake) ने दुनियाभर के लोगों को अपनी ओर काफी आकर्षित किया है. इसके जरिए किसी भी शख्स की आवाज और एक्सप्रेशन्स के साथ पूरा वीडियो तैयार किया जा सकता है, जिसे देखकर पहचाना ही नहीं जा सकता कि यह असली या नकली.

Deepfake का हो सकता है ऐसा इस्तेमाल
Deepfake का इस्तेमाल ऐसे में कई बार गलत ढंग से भी किया जा सकता है, जैसे किसी नेता के चेहरे का इस्तेमाल कर उस पर ऐसी आवाज लगा देना जो उन्होंने कभी कहीं ही न हो. ऐसे में यह बहुत खतरनाक साबित हो सकता है. ऐसे में डेनमार्क की सरकार ने अब महसूस किया है कि डीपफेक ने सिर्फ समाज के लिए, बल्कि यह लोकतंत्र, सुरक्षा और शिक्षा के लिहाज से भी खतरनाक साबित हो सकता है. ऐसे में सरकार ने डीपफेक पर कंट्रोल लगाने की प्रक्रिया में नए कानून बनाने का विचार किया है, जिसे लेकर तैयारी भी शुरू हो चुकी है.

डेनमार्क सरकार हुई सख्त
डेनमार्क सरकार का मानना है कि डीपफेक के इस फीचर के एक एक गलत इस्तेमाल की वजह से बड़ी मुश्किल खड़ी हो सकती है. ऐसे में अगर बिना किसी की अनुमति के या उसकी छवि बिगाड़ने के लिए कोई डीपफेक वीडियो बनाया जाता है यह दंडनीय होगा. ऐसे में सख्त कार्रवाई की जाएगी. इसके अलावा सोशल मीडिया प्लेटफॉर्म्स को इस तरह के कंटेंट हटाने की जिम्मेदारी दी जाएगी.

कैसे खतरा बन सकता है Deepfake

1. चुनाव के दौरान नेताओं के फर्जी वीडियो बनाकर लोगों को गुमराह किया जा सकता है.
2. किसी का फेक अश्लील वीडियो बनाकर उसे ब्लैक करने में इस्तेमाल हो सकता है.
3. कोई भी खबर गलत ढंग से पेश कर दंगे कराए जा सकते हैं.

लोग इस तरह रहें सावधान

1. अगर कोई भी वीडियो या ऑडियो आप सुनते हैं तो इसे तुरंत शेयर करने से पहले फैक्ट चेक करें.
2. हर वीडियो और ऑडियो का सोर्स जरूर चेक करें. अगर यह किसी अधिकृत न्यूज एजेंसी से नहीं आया तो बिल्कुल भरोसा न करें.
3. अगर आपको कोई भी वीडियो फेक होने का शक होता है तो इसे Google Reverse Image Search या InVID पर जांच सकते हैं.
4. संदिग्ध कंटेंट को लेकर सोशल मीडिया प्लेटफॉर्म पर रिपोर्ट कर दें.

Apple ने भारत में बढ़ाई iPhone 17 Pro की कीमतें! सामने आई रिपोर्ट ने तोड़ा दिल...

Read More
{}{}