“ਇਸਦਾ ਸਭ ਤੋਂ ਮਾਰੂ ਪ੍ਰਭਾਵ ਔਰਤਾਂ ਅਤੇ ਨੌਜਵਾਨ ਲੜਕੀਆਂ ’ਤੇ ਪੈਂਦਾ ਹੈਜੋ ਗੰਭੀਰ ...”
(6 ਮਾਰਚ 2026)
ਅਜੋਕੇ ਦੌਰ ਵਿੱਚ ਜਿੱਥੇ ਆਰਟੀਫੀਸ਼ਲ ਇੰਟੈਲੀਜੈਂਸ ਨੇ ਵਿਗਿਆਨ ਅਤੇ ਸਿੱਖਿਆ ਦੇ ਖੇਤਰ ਵਿੱਚ ਕ੍ਰਾਂਤੀਕਾਰੀ ਤਬਦੀਲੀਆਂ ਲਿਆਂਦੀਆਂ ਹਨ, ਉੱਥੇ ਹੀ ਇਸਦੀ ਦੁਰਵਰਤੋਂ ਨੇ ‘ਡੀਪਫੇਕ ਪੋਰਨੋਗ੍ਰਾਫੀ’ ਵਰਗਾ ਘਿਨਾਉਣਾ ਰੂਪ ਧਾਰਨ ਕਰ ਲਿਆ ਹੈ। ਇਹ ਤਕਨੀਕੀ ਚੁਣੌਤੀ ਨਾ ਸਿਰਫ ਨਿੱਜਤਾ ਦਾ ਘਾਣ ਕਰਦੀ ਹੈ, ਸਗੋਂ ਪੀੜਿਤ ਨੂੰ ਮਾਨਸਿਕ ਅਤੇ ਸਮਾਜਿਕ ਤੌਰ ’ਤੇ ਵੀ ਤਬਾਹ ਕਰ ਦਿੰਦੀ ਹੈ। ਅਕਸਰ ‘ਬਦਲਾ ਲੈਣ ਦੀ ਪੋਰਨੋਗ੍ਰਾਫੀ’ ਵਜੋਂ ਵਰਤੀ ਜਾਣ ਵਾਲੀ ਇਹ ਵਿਧੀ ਔਰਤਾਂ ਦੇ ਅਕਸ ਨੂੰ ਖਰਾਬ ਕਰਨ ਅਤੇ ਉਨ੍ਹਾਂ ਨੂੰ ਬਲੈਕਮੇਲ ਕਰਨ ਦਾ ਹਥਿਆਰ ਬਣ ਚੁੱਕੀ ਹੈ। ਦਿੱਲੀ, ਮੁੰਬਈ ਅਤੇ ਬੈਂਗਲੁਰੂ ਵਰਗੇ ਮਹਾਂਨਗਰਾਂ ਵਿੱਚ ਸਾਈਬਰ ਪੁਲਿਸ ਨੇ ਅਜਿਹੇ ਕਈ ਗਰੋਹਾਂ ਦਾ ਪਰਦਾਫਾਸ਼ ਕੀਤਾ ਹੈ ਜਿਹੜੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਤੋਂ ਤਸਵੀਰਾਂ ਚੋਰੀ ਕਰਕੇ ਉਨ੍ਹਾਂ ਨੂੰ ਅਸ਼ਲੀਲ ਵੀਡੀਓਜ਼ ਵਿੱਚ ਬਦਲ ਦਿੰਦੇ ਹਨ। ਇਹ ਵਰਤਾਰਾ ਅੱਜ ਦੇ ਡਿਜਿਟਲ ਯੁਗ ਵਿੱਚ ਆਮ ਨਾਗਰਿਕਾਂ ਦੀ ਸੁਰੱਖਿਆ ਲਈ ਇੱਕ ਵੱਡਾ ਖ਼ਤਰਾ ਬਣ ਕੇ ਉੱਭਰਿਆ ਹੈ।
‘ਡੀਪਫੇਕ’ ਸ਼ਬਦ ਦਰਅਸਲ ‘ਡੀਪ ਲਰਨਿੰਗ’ ਅਤੇ ‘ਫੇਕ’ (ਨਕਲੀ) ਦੇ ਸੁਮੇਲ ਤੋਂ ਬਣਿਆ ਹੈ। ਇਹ ਇੱਕ ਅਜਿਹੀ ਆਧੁਨਿਕ ਤਕਨੀਕ ਹੈ ਜਿਸ ਵਿੱਚ ਏ.ਆਈ. ਐਲਗੋਰਿਦਮ ਦੀ ਮਦਦ ਨਾਲ ਇੱਕ ਵਿਅਕਤੀ ਦੇ ਚਿਹਰੇ ਨੂੰ ਕਿਸੇ ਦੂਜੇ ਵਿਅਕਤੀ ਦੇ ਸਰੀਰ ’ਤੇ ਇੰਨੀ ਮੁਹਾਰਤ ਨਾਲ ਜੜ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ ਕਿ ਅਸਲੀ ਅਤੇ ਨਕਲੀ ਵਿੱਚ ਫਰਕ ਕਰਨਾ ਲਗਭਗ ਅਸੰਭਵ ਹੋ ਜਾਂਦਾ ਹੈ। ਜਦੋਂ ਇਸਦੀ ਵਰਤੋਂ ਪੀੜਿਤ ਦੀ ਸਹਿਮਤੀ ਤੋਂ ਬਿਨਾਂ ਅਸ਼ਲੀਲ ਸਮੱਗਰੀ ਬਣਾਉਣ ਲਈ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਤਾਂ ਇਸ ਨੂੰ ‘ਨਾਨ-ਕਨਸੈਂਸੂਅਲ ਡੀਪਫੇਕ ਪੋਰਨੋਗ੍ਰਾਫੀ’ ਕਿਹਾ ਜਾਂਦਾ ਹੈ। ਸੋਸ਼ਲ ਮੀਡੀਆ ਤੋਂ ਲਈ ਗਈ ਇੱਕ ਸਧਾਰਨ ਤਸਵੀਰ ਅਪਰਾਧਿਕ ਮਾਨਸਿਕਤਾ ਵਾਲੇ ਲੋਕਾਂ ਲਈ ਕਿਸੇ ਦੀ ਨਿੱਜਤਾ ’ਤੇ ਹਮਲਾ ਕਰਨ ਦਾ ਜ਼ਰੀਆ ਬਣ ਜਾਂਦੀ ਹੈ। ਇਸਦਾ ਸਭ ਤੋਂ ਮਾਰੂ ਪ੍ਰਭਾਵ ਔਰਤਾਂ ਅਤੇ ਨੌਜਵਾਨ ਲੜਕੀਆਂ ’ਤੇ ਪੈਂਦਾ ਹੈ ਜੋ ਗੰਭੀਰ ਮਾਨਸਿਕ ਤਣਾਅ, ਚਿੰਤਾ ਅਤੇ ਡਿਪ੍ਰੈਸ਼ਨ ਦਾ ਸ਼ਿਕਾਰ ਹੋ ਜਾਂਦੀਆਂ ਹਨ। ਭਾਵੇਂ ਵੀਡੀਓ ਤਕਨੀਕੀ ਤੌਰ ’ਤੇ ਨਕਲੀ ਹੁੰਦੀ ਹੈ, ਪਰ ਇਸ ਨਾਲ ਸਮਾਜਿਕ ਸਾਖ ਨੂੰ ਪਹੁੰਚਣ ਵਾਲਾ ਨੁਕਸਾਨ ਬਹੁਤ ਡੂੰਘਾ ਅਤੇ ਅਸਲੀ ਹੁੰਦਾ ਹੈ, ਜੋ ਕਈ ਵਾਰ ਪੀੜਿਤ ਨੂੰ ਆਤਮ-ਹੱਤਿਆ ਵਰਗੇ ਖ਼ਤਰਨਾਕ ਕਦਮ ਚੁੱਕਣ ਲਈ ਮਜਬੂਰ ਕਰ ਦਿੰਦਾ ਹੈ।
ਸਾਈਬਰ ਮਾਹਿਰ ਕਹਿੰਦੇ ਹਨ ਕਿ ਡੀਪਫੇਕ ਵੀਡੀਓ ਅਤੇ ਫੋਟੋ ਨੂੰ ਫੇਸ਼ੀਅਲ ਐਜ, ਹੇਅਰਲਾਈਨਜ਼, ਆਈਏ, ਆਈਗਲਾਸ ਬਾਰਡਰ ਦੇਖ ਕੇ ਪਛਾਣਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਵੀਡੀਓ ਪਲੇਅ ਹੋਣ ’ਤੇ ਅੱਖਾਂ ਅਤੇ ਬੁੱਲ੍ਹਾਂ ਦੀ ਮੂਵਮੈਂਟ ਤੋਂ ਡੀਪਫੇਕ ਵੀਡੀਓ ਨੂੰ ਪਛਾਣਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਇਸ ਤਰੀਕੇ ਨਾਲ ਬਣਾਏ ਗਏ ਵੀਡੀਓ ਅਤੇ ਫੋਟੋ ਵਿੱਚ ਹੱਥਾਂ ਅਤੇ ਪੈਰਾਂ ਦੀ ਲੰਬਾਈ ਬਰਾਬਰ ਨਹੀਂ ਹੁੰਦੀ। ਇਸ ਤਰ੍ਹਾਂ ਅਜਿਹੇ ਵੀਡੀਓਜ਼ ਨੂੰ ਪਛਾਣਿਆ ਜਾ ਸਕਦਾ ਹੈ।
ਡੀਪਫੇਕ ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋਂ ਅੱਜ ਦੇ ਡਿਜਿਟਲ ਯੁਗ ਵਿੱਚ ਇੱਕ ਗੰਭੀਰ ਨੈਤਿਕ ਅਤੇ ਸੁਰੱਖਿਆ ਚੁਣੌਤੀ ਬਣ ਕੇ ਉੱਭਰੀ ਹੈ। ਸਾਲ 2023 ਵਿੱਚ ਅਦਾਕਾਰਾ ਰਸ਼ਮਿਕਾ ਮੰਦਾਨਾ ਦੀ ਇੱਕ ਹੇਰ-ਫੇਰ ਕੀਤੀ ਵੀਡੀਓ ਵਾਇਰਲ ਹੋਈ, ਜਿਸ ਵਿੱਚ ਏ.ਆਈ. ਰਾਹੀਂ ਬ੍ਰਿਟਿਸ਼-ਭਾਰਤੀ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਔਰਤ ਜ਼ਾਰਾ ਪਟੇਲ ਦੇ ਸਰੀਰ ’ਤੇ ਰਸ਼ਮਿਕਾ ਦਾ ਚਿਹਰਾ ਲਾਇਆ ਗਿਆ ਸੀ। ਇਸ ਘਟਨਾ ਦੀ ਗੰਭੀਰਤਾ ਨੂੰ ਦੇਖਦਿਆਂ ਭਾਰਤ ਸਰਕਾਰ ਨੇ ਡੀਪਫੇਕ ਵਿਰੁੱਧ ਤੁਰੰਤ ਸਖ਼ਤ ਐਡਵਾਈਜ਼ਰੀ ਜਾਰੀ ਕੀਤੀ। ਇਸੇ ਤਰ੍ਹਾਂ ਸਪੇਨ ਵਿੱਚ ਲਗਭਗ 20 ਨਾਬਾਲਗ ਸਕੂਲੀ ਲੜਕੀਆਂ ਦੀਆਂ ਇੰਸਟਾਗ੍ਰਾਮ ਤਸਵੀਰਾਂ ਨੂੰ ਉਨ੍ਹਾਂ ਦੇ ਹੀ ਜਮਾਤੀਆਂ ਵੱਲੋਂ ਏ.ਆਈ. ਐਪਸ ਰਾਹੀਂ ਅਸ਼ਲੀਲ ਸਮੱਗਰੀ ਵਿੱਚ ਬਦਲ ਕੇ ਇੰਟਰਨੈੱਟ ’ਤੇ ਫੈਲਾ ਦਿੱਤਾ ਗਿਆ, ਜੋ ਬੱਚਿਆਂ ਦੀ ਮਾਨਸਿਕ ਸਿਹਤ ਅਤੇ ਸੁਰੱਖਿਆ ਲਈ ਇੱਕ ਵੱਡੇ ਖ਼ਤਰੇ ਦਾ ਸੰਕੇਤ ਹੈ।
ਕੇਵਲ ਨਿੱਜਤਾ ਹੀ ਨਹੀਂ, ਸਗੋਂ ਇਹ ਤਕਨੀਕ ਵਿੱਤੀ ਧੋਖਾਧੜੀ ਲਈ ਵੀ ਇੱਕ ਘਾਤਕ ਹਥਿਆਰ ਸਾਬਤ ਹੋ ਰਹੀ ਹੈ। ਸਾਲ 2024 ਵਿੱਚ ਹਾਂਗਕਾਂਗ ਦੀ ਇੱਕ ਮਲਟੀਨੈਸ਼ਨਲ ਕੰਪਨੀ ਨੂੰ 25 ਮਿਲੀਅਨ ਡਾਲਰ ਦਾ ਨੁਕਸਾਨ ਝੱਲਣਾ ਪਿਆ, ਜਦੋਂ ਅਪਰਾਧੀਆਂ ਨੇ ਚੀਫ ਫਾਈਨਾਂਸ਼ੀਅਲ ਆਫਿਸਰ ਅਤੇ ਹੋਰ ਅਧਿਕਾਰੀਆਂ ਦੇ ਡੀਪਫੇਕ ਚਿਹਰਿਆਂ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਇੱਕ ਫਰਜ਼ੀ ਵੀਡੀਓ ਕਾਲ ਰਾਹੀਂ ਪੈਸੇ ਟ੍ਰਾਂਸਫਰ ਕਰਵਾ ਲਏ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਅਮਰੀਕੀ ਗਾਇਕਾ ਟੇਲਰ ਸਵਿਫਟ ਦੀਆਂ ਏ.ਆਈ. ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀਆਂ ਅਪਮਾਨਜਨਕ ਤਸਵੀਰਾਂ ਦਾ ‘X’ ’ਤੇ ਕਰੋੜਾਂ ਵਾਰ ਦੇਖਿਆ ਜਾਣਾ ਇਹ ਦਰਸਾਉਂਦਾ ਹੈ ਕਿ ਡੀਪਫੇਕ ਕਿਵੇਂ ਵਿਸ਼ਵ ਪੱਧਰ ’ਤੇ ਕਿਸੇ ਦੀ ਸਾਖ ਨੂੰ ਪਲ ਭਰ ਵਿੱਚ ਮਿੱਟੀ ਵਿੱਚ ਮਿਲਾ ਸਕਦਾ ਹੈ। ਇਹ ਸਾਰੀਆਂ ਉਦਾਹਰਨਾਂ ਸਪਸ਼ਟ ਕਰਦੀਆਂ ਹਨ ਕਿ ਏ.ਆਈ. ਦੀ ਤਾਕਤ ਜੇਕਰ ਗਲਤ ਹੱਥਾਂ ਵਿੱਚ ਚਲੀ ਜਾਵੇ ਤਾਂ ਇਹ ਸਮਾਜਿਕ ਅਤੇ ਆਰਥਿਕ ਤਬਾਹੀ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦੀ ਹੈ।
ਸਾਲ 2024-2025 ਦੀਆਂ ਭਾਰਤੀ ਰਾਜ ਵਿਧਾਨ ਸਭਾ ਚੋਣਾਂ ਦੌਰਾਨ ਡੀਪਫੇਕ ਤਕਨੀਕ ਦਾ ਇੱਕ ਬਹੁਤ ਹੀ ਚਿੰਤਾਜਨਕ ਰੂਪ ਸਾਹਮਣੇ ਆਇਆ ਸੀ। ਸਿਆਸੀ ਪ੍ਰਚਾਰ ਲਈ ਅਮਿਤ ਸ਼ਾਹ ਅਤੇ ਰਣਵੀਰ ਸਿੰਘ ਵਰਗੀਆਂ ਪ੍ਰਮੁੱਖ ਹਸਤੀਆਂ ਦੇ ‘ਵਾਇਸ ਕਲੋਨ’ (ਆਵਾਜ਼ ਦੀ ਨਕਲ) ਅਤੇ ‘ਲਿਪ-ਸਿੰਕ’ ਡੀਪਫੇਕ ਵੀਡੀਓਜ਼ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਵੋਟਰਾਂ ਦੇ ਮਨਾਂ ਵਿੱਚ ਭੰਬਲਭੂਸਾ ਪੈਦਾ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕੀਤੀ ਗਈ। ਚੋਣਾਂ ਵਰਗੇ ਸੰਵੇਦਨਸ਼ੀਲ ਸਮੇਂ ਵਿੱਚ ਕਿਸੇ ਵੱਡੇ ਆਗੂ ਦੀ ਫਰਜ਼ੀ ਵੀਡੀਓ ਜਾਰੀ ਕਰਨਾ ਨਾ ਸਿਰਫ ਰਾਜਨੀਤਿਕ ਹੇਰਾਫੇਰੀ ਹੈ, ਸਗੋਂ ਇਹ ਜਨਤਕ ਰਾਏ ਨੂੰ ਗਲਤ ਤਰੀਕੇ ਨਾਲ ਪ੍ਰਭਾਵਿਤ ਕਰਨ ਦਾ ਇੱਕ ਖ਼ਤਰਨਾਕ ਹਥਿਆਰ ਵੀ ਹੈ। ਇਸ ਤੋਂ ਵੀ ਗੰਭੀਰ ਖ਼ਤਰਾ ਉਦੋਂ ਪੈਦਾ ਹੁੰਦਾ ਹੈ ਜਦੋਂ ਕਿਸੇ ਵਿਸ਼ੇਸ਼ ਧਰਮ ਜਾਂ ਜਾਤ ਵਿਰੁੱਧ ਭੜਕਾਊ ਬਿਆਨਾਂ ਵਾਲੀਆਂ ਫਰਜ਼ੀ ਵੀਡੀਓਜ਼ ਤਿਆਰ ਕੀਤੀਆਂ ਜਾਂਦੀਆਂ ਹਨ। ਅਜਿਹੀ ਸਮੱਗਰੀ ਸਮਾਜ ਵਿੱਚ ਅਸ਼ਾਂਤੀ ਫੈਲਾਉਣ ਅਤੇ ਦੰਗੇ ਭੜਕਾਉਣ ਦੀ ਸਮਰੱਥਾ ਰੱਖਦੀ ਹੈ, ਜੋ ਸਿੱਧੇ ਤੌਰ ’ਤੇ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਅਤੇ ਲੋਕਤੰਤਰੀ ਢਾਂਚੇ ’ਤੇ ਇੱਕ ਵੱਡਾ ਹਮਲਾ ਹੈ। ਅੱਜ ਦੇ ਡਿਜਿਟਲ ਯੁਗ ਵਿੱਚ ਸੂਚਨਾ ਦੀ ਸਚਾਈ ਦੀ ਪੁਸ਼ਟੀ ਕੀਤੇ ਬਿਨਾਂ ਉਸ ’ਤੇ ਵਿਸ਼ਵਾਸ ਕਰਨਾ ਲੋਕਤੰਤਰ ਦੀ ਨੀਂਹ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰ ਸਕਦਾ ਹੈ।
ਡੀਪਫੇਕ ਦੇ ਵਧਦੇ ਖ਼ਤਰੇ ਨੂੰ ਦੇਖਦਿਆਂ ਭਾਰਤ ਸਰਕਾਰ ਨੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਕੰਪਨੀਆਂ ਲਈ ਸਖ਼ਤ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ ਜਾਰੀ ਕੀਤੇ ਹਨ, ਜਿਨ੍ਹਾਂ ਤਹਿਤ ਕਿਸੇ ਵੀ ਸ਼ਿਕਾਇਤ ’ਤੇ ਕਾਰਵਾਈ ਕਰਦਿਆਂ 24 ਤੋਂ 36 ਘੰਟਿਆਂ ਦੇ ਅੰਦਰ ਅਜਿਹੀ ਇਤਰਾਜ਼ਯੋਗ ਸਮੱਗਰੀ ਨੂੰ ਹਟਾਉਣਾ ਲਾਜ਼ਮੀ ਹੈ। ਭਾਰਤੀ ਕਾਨੂੰਨ ਇਸ ਸਬੰਧੀ ਬਹੁਤ ਸਖ਼ਤ ਹੈ; ਆਈ.ਟੀ. ਐਕਟ ਦੀ ਧਾਰਾ 66E ਨਿੱਜਤਾ ਦੀ ਉਲੰਘਣਾ ਵਿਰੁੱਧ ਸੁਰੱਖਿਆ ਪ੍ਰਦਾਨ ਕਰਦੀ ਹੈ, ਜਦਕਿ ਧਾਰਾ 67 ਅਤੇ 67A ਅਧੀਨ ਅਸ਼ਲੀਲ ਸਮੱਗਰੀ ਬਣਾਉਣ ਜਾਂ ਪ੍ਰਸਾਰਿਤ ਕਰਨ ’ਤੇ 5 ਤੋਂ 7 ਸਾਲ ਤਕ ਦੀ ਕੈਦ ਅਤੇ ਭਾਰੀ ਜੁਰਮਾਨੇ ਦਾ ਪ੍ਰਬੰਧ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ ਭਾਰਤ ਵਿੱਚ ‘ਰਾਈਟ ਟੂ ਬੀ ਫੌਰਗੌਟਨ’ ਦੇ ਅਧਿਕਾਰ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਅਦਾਲਤ ਰਾਹੀਂ ਆਪਣੀ ਨਿੱਜੀ ਜਾਣਕਾਰੀ ਜਾਂ ਇਤਰਾਜ਼ਯੋਗ ਸਮੱਗਰੀ ਨੂੰ ਇੰਟਰਨੈੱਟ ਤੋਂ ਹਮੇਸ਼ਾ ਲਈ ਹਟਵਾਇਆ ਜਾ ਸਕਦਾ ਹੈ। ਤਕਨਾਲੋਜੀ ਦਾ ਮੂਲ ਮਕਸਦ ਮਨੁੱਖੀ ਜੀਵਨ ਨੂੰ ਸੁਖਾਲਾ ਬਣਾਉਣਾ ਸੀ, ਪਰ ਡੀਪਫੇਕ ਪੋਰਨੋਗ੍ਰਾਫੀ ਵਰਗੇ ਰੁਝਾਨਾਂ ਨੇ ਇਸ ਨੂੰ ਇੱਕ ਕਿਸਮ ਦੇ ‘ਮਾਨਸਿਕ ਅੱਤਵਾਦ’ ਵਿੱਚ ਬਦਲ ਦਿੱਤਾ ਹੈ। ਅਜੋਕੇ ਸਮੇਂ ਵਿੱਚ ਸਿਰਫ ਤਕਨੀਕੀ ਤੌਰ ’ਤੇ ਸਾਵਧਾਨ ਹੋਣਾ ਹੀ ਕਾਫ਼ੀ ਨਹੀਂ, ਸਗੋਂ ਕਾਨੂੰਨੀ ਤੌਰ ’ਤੇ ਮਜ਼ਬੂਤ ਹੋਣਾ ਵੀ ਜ਼ਰੂਰੀ ਹੈ। ਜੇਕਰ ਕੋਈ ਵਿਅਕਤੀ ਅਜਿਹੇ ਅਪਰਾਧ ਦਾ ਸ਼ਿਕਾਰ ਹੁੰਦਾ ਹੈ ਤਾਂ ਉਸ ਨੂੰ ਬਿਨਾਂ ਕਿਸੇ ਡਰ ਦੇ ਤੁਰੰਤ ਭਾਰਤ ਸਰਕਾਰ ਦੇ ਸਾਈਬਰ ਕ੍ਰਾਈਮ ਪੋਰਟਲ (www.cybercrime.gov.in) ’ਤੇ ਸ਼ਿਕਾਇਤ ਦਰਜ ਕਰਵਾਉਣੀ ਚਾਹੀਦੀ ਹੈ ਅਤੇ ਸਬੰਧਤ ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮ ਨੂੰ ਰਿਪੋਰਟ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ। ਸਾਡੀ ਜਾਗਰੂਕਤਾ ਹੀ ਇਸ ਡਿਜਿਟਲ ਖ਼ਤਰੇ ਵਿਰੁੱਧ ਸਾਡਾ ਸਭ ਤੋਂ ਵੱਡਾ ਹਥਿਆਰ ਹੈ।
ਡੀਪਫੇਕ ਪੋਰਨੋਗ੍ਰਾਫੀ ਅਸਲ ਵਿੱਚ ਤਕਨਾਲੋਜੀ ਦੇ ਵਿਕਾਸ ਦਾ ਉਹ ਕਾਲਾ ਪੱਖ ਹੈ, ਜੋ ਮਨੁੱਖੀ ਮਾਨਸਿਕਤਾ ਦੀ ਗਿਰਾਵਟ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ। ਸਾਨੂੰ ਇਹ ਗੱਲ ਗੰਭੀਰਤਾ ਨਾਲ ਸਮਝਣੀ ਪਵੇਗੀ ਕਿ ਇਸ ਚੁਣੌਤੀ ਨਾਲ ਨਜਿੱਠਣ ਲਈ ਸਿਰਫ ਸਖ਼ਤ ਕਾਨੂੰਨ ਜਾਂ ਪੁਲਿਸ ਦੀ ਕਾਰਵਾਈ ਹੀ ਕਾਫ਼ੀ ਨਹੀਂ ਹੈ, ਸਗੋਂ ਸਮਾਜਿਕ ਜਾਗਰੂਕਤਾ ਅਤੇ ‘ਡਿਜੀਟਲ ਨੈਤਿਕਤਾ’ ਦੀ ਵੀ ਮੁੱਖ ਲੋੜ ਹੈ। ਕਿਸੇ ਦੀ ਡਿਜਿਟਲ ਇੱਜ਼ਤ ਨਾਲ ਖਿਲਵਾੜ ਕਰਨਾ ਕੇਵਲ ਇੱਕ ਤਕਨੀਕੀ ਹੇਰਾਫੇਰੀ ਨਹੀਂ, ਸਗੋਂ ਇੱਕ ਗੰਭੀਰ ਮਨੁੱਖੀ ਅਪਰਾਧ ਹੈ ਜੋ ਪੀੜਿਤ ਦੀ ਆਤਮਾ ਨੂੰ ਛਲਣੀ ਕਰ ਦਿੰਦਾ ਹੈ। ਏ.ਆਈ. ਵਰਗੀ ਸ਼ਕਤੀਸ਼ਾਲੀ ਤਕਨੀਕ ਨੂੰ ਨਫਰਤ ਜਾਂ ਬਦਲੇ ਦੇ ਹਥਿਆਰ ਵਜੋਂ ਵਰਤਣ ਦੀ ਬਜਾਏ ਸਾਨੂੰ ਇਸਦੀ ਵਰਤੋਂ ਸਮਾਜਿਕ ਭਲਾਈ ਲਈ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ। ਇੱਕ ਜ਼ਿੰਮੇਵਾਰ ਸਮਾਜ ਵਜੋਂ ਸਾਡਾ ਫਰਜ਼ ਬਣਦਾ ਹੈ ਕਿ ਅਸੀਂ ਅਜਿਹੀ ਕਿਸੇ ਵੀ ਸਮੱਗਰੀ ਨੂੰ ਅੱਗੇ ਵਧਾਉਣ ਦੀ ਬਜਾਏ ਉਸਦਾ ਵਿਰੋਧ ਕਰੀਏ ਅਤੇ ਡਿਜਿਟਲ ਦੁਨੀਆ ਵਿੱਚ ਵੀ ਉਹੀ ਮਰਯਾਦਾ ਅਤੇ ਸਤਿਕਾਰ ਬਣਾਈ ਰੱਖੀਏ ਜੋ ਅਸੀਂ ਅਸਲ ਜ਼ਿੰਦਗੀ ਵਿੱਚ ਰੱਖਦੇ ਹਾਂ।
* * * * *
ਨੋਟ: ਹਰ ਲੇਖਕ ‘ਸਰੋਕਾਰ’ ਨੂੰ ਭੇਜੀ ਗਈ ਰਚਨਾ ਦੀ ਕਾਪੀ ਆਪਣੇ ਕੋਲ ਸੰਭਾਲਕੇ ਰੱਖੇ।
ਪਾਠਕਾਂ ਨਾਲ ਆਪਣੇ ਵਿਚਾਰ ਸਾਂਝੇ ਕਰਨ ਲਈ ਸਰੋਕਾਰ ਨਾਲ ਸੰਪਰਕ ਕਰੋ: (