“ਭਾਰਤ ਵਰਗੇ ਦੇਸ਼ ਵਿੱਚ ਇਹ ਹੋਰ ਵੀ ਖਤਰਨਾਕ ਸਾਬਤ ਹੋ ਸਕਦੀ ਹੈ। ਦੇਸ਼ ਦੇ ...”
(8 ਜਨਵਰੀ 2025)
ਰੋਜ਼ ਰੋਜ਼ ਟੀਵੀ, ਮੋਬਾਇਲ ’ਤੇ ਚੱਲਦਾ ਪ੍ਰਚਾਰ ਕਈ ਵਾਰ ਫ਼ਿਕਰ ਵਿੱਚ ਪਾ ਦਿੰਦਾ ਹੈ ਕਿ ਤੁਹਾਡੀ ਨੌਕਰੀ ਚਲੀ ਜਾਵੇਗੀ, ਤੁਸੀਂ ਆਪਣੇ ਆਪ ਨੂੰ ਅੱਪਡੇਟ ਕਰੋ, ਤੁਸੀਂ ਇਹ ਸਿੱਖੋ, ਤੁਸੀਂ ਉਹ ਸਿੱਖੋ। ਪਹਿਲਾਂ ਇਹ ਕਿਹਾ ਜਾਂਦਾ ਸੀ ਕਿ ਘੱਟ ਗਿਆਨ ਹੋਣਾ ਖਤਰਨਾਕ ਹੈ। ਹੁਣ ਇਵੇਂ ਲਗਦਾ ਹੈ ਕਿ ਜ਼ਿਆਦਾ ਗਿਆਨ ਹੋਣਾ ਵੀ ਮਨੁੱਖ ਲਈ ਖਤਰਨਾਕ ਹੋ ਜਾਣਾ ਹੈ। ਪਿਛਲੇ ਦੋ ਦਹਾਕਿਆਂ ਵਿੱਚ ਤਕਨਾਲੋਜੀ ਅਤੇ ਮਸ਼ੀਨੀਕਰਨ ਨੇ ਸਮਾਜਿਕ ਢਾਂਚਾ ਹੀ ਬਦਲ ਦਿੱਤਾ ਹੈ, ਜਿਸ ਨਾਲ ਕੰਮ ਕਰਨੇ ਭਾਵੇਂ ਸੌਖੇ ਹੋ ਗਏ ਹਨ ਪਰ ਬੇਰੁਜ਼ਗਾਰੀ ਵੀ ਵਧ ਗਈ ਹੈ। ਘਰ ਦੀ ਨਿੱਕੀ ਚੀਜ਼ ਤੋਂ ਲੈ ਕੇ ਵੱਡੀ ਸਹੂਲਤ ਤਕ ਪੈਦਾ ਹੋ ਗਈ ਹੈ। ਪਰ ਭਾਰਤ ਵਰਗੇ ਵੱਡੇ ਮੁਲਕ ਵਿੱਚ ਜਿੱਥੇ ਵੱਡੀ ਪੱਧਰ ’ਤੇ ਲੋਕ ਧਰਮ, ਅਣਪੜ੍ਹਤਾ ਤੇ ਗਰੀਬੀ ਦੇ ਸ਼ਿਕਾਰ ਹਨ, ਉੱਥੇ ਇਹ ਵਿਕਾਸ ਅਤੇ ਤਕਨੀਕ ਦੇ ਮਾਡਲ ਫਿੱਟ ਨਹੀਂ ਬੈਠ ਰਹੇ। ਇਸ ਤਕਨੀਕ ਵਿੱਚ ਜੋ ਸਭ ਤੋਂ ਵੱਧ ਰੌਲ਼ਾ ਪੈ ਰਿਹਾ ਹੈ, ਉਹ ਹੈ ਆਰਟੀਫਿਸ਼ਲ ਇੰਟੈਲੀਜੈਂਸ, ਮਤਲਬ ਏ ਆਈ, ਜਿਸ ਨੇ ਥੋੜ੍ਹੇ ਸਮੇਂ ਵਿੱਚ ਮੀਡੀਆ ਵਿੱਚ ਹੋਰ ਵਣਜ ਵਪਾਰ ਦੇ ਕੰਮਾਂ ਵਿੱਚ ਤੇਜ਼ੀ ਲਿਆਂਦੀ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ ਮੌਸਮ, ਔਫਿਸ ਵਰਕ, ਸੁਰੱਖਿਆ ਵਿੱਚ ਇਸਦੀ ਵਰਤੋਂ ਹੋਣ ਲੱਗ ਪਈ ਹੈ। ਪਰ ਜੇ ਜਾਣਕਾਰਾਂ ਦੀ ਸੁਣੀਏ ਤਾਂ ਉਹ ਇਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਇਹ ਬਾਂਦਰ ਦੇ ਹੱਥ ਤੀਲਾਂ ਦੀ ਡੱਬੀ ਦੇਣ ਵਾਲਾ ਕਾਰਜ ਹੈ। ਮਨੁੱਖ ਆਪ ਹੀ ਬਾਰੂਦ ’ਤੇ ਬੈਠਣ ਦੀ ਤਿਆਰੀ ਕਰ ਰਿਹਾ ਹੈ। ਜੇਕਰ ਵਿਗਿਆਨ ਦੀ ਇਸ ਇਕਾਈ ਦੀ ਸਹੀ ਵਰਤੋਂ ਕੀਤੀ ਜਾਵੇ ਤਾਂ ਇਹ ਮਨੁੱਖ ਦੀਆਂ ਸਾਰੀਆਂ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਦੂਰ ਕਰ ਸਕਦੀ ਹੈ। ਜੇਕਰ ਇਸ ਨੂੰ ਬਿਨਾਂ ਕੰਟਰੋਲ ਦੇ ਵਰਤਿਆ ਜਾਵੇ ਤਾਂ ਇਹ ਤਬਾਹੀ ਦਾ ਕਾਰਨ ਵੀ ਬਣ ਸਕਦੀ ਹੈ।
ਇਸਦੇ ਨਾਲ ਹੀ ਜਿਵੇਂ ਕਿ ਆਰਟੀਫਿਸ਼ਲ ਇੰਟੈਲੀਜੈਂਸ (ਏ.ਆਈ) ਦੀ ਅੰਨ੍ਹੇਵਾਹ ਵਰਤੋਂ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ, ਇਹ ਮਨੁੱਖੀ ਸਭਿਅਤਾ ਲਈ ਮਾਰੂ ਸਿੱਧ ਹੋ ਸਕਦੀ ਹੈ। ਇਸਦੀ ਪੁਸ਼ਟੀ ਜੰਫਰੀ ਹਿੰਟਨ ਨੇ ਕੀਤੀ ਹੈ। ਇਸਦੇ ਖ਼ਤਰੇ ਬਾਰੇ ਨੋਬਲ ਪੁਰਸਕਾਰ ਜੇਤੂ ਅਤੇ ਏਆਈ ਦੇ ਪਿਤਾਮਾ ਜੰਫਰੀ ਹਿੰਟਨ ਨੇ ਖਤਰਨਾਕ ਚਿਤਾਵਨੀ ਦਿੱਤੀ ਹੈ। ਉਨ੍ਹਾਂ ਇਸ ਗੱਲ ਨੂੰ ਜ਼ੋਰ ਦੇ ਕੇ ਕਿਹਾ ਹੈ ਕਿ ਆਉਂਦੇ ਤੀਹ ਤੋਂ ਪੈਂਤੀ ਸਾਲਾਂ ਤਕ ਏਆਈ 10 ਤੋਂ 20 ਫੀਸਦੀ ਮਨੁੱਖਤਾ ਦਾ ਖਾਤਮਾ ਕਰ ਸਕਦੀ ਹੈ। ਹਿੰਟਨ ਨੇ ਪਹਿਲਾਂ ਇਹ ਸੰਭਾਵਨਾ ਦਸ ਪ੍ਰਤੀਸ਼ਤ ਕਹੀ ਸੀ ਪਰ ਜਿਸ ਤਰੀਕੇ ਨਾਲ ਵਰਤੋਂ ਵਧ ਰਹੀ ਹੈ, ਉਸ ਨਾਲ ਇਹ ਸੰਭਵ ਹੈ।
ਹਿੰਟਨ ਨੇ ਏਆਈ ਦੇ ਖਤਰਿਆਂ ਬਾਰੇ ਖੁੱਲ੍ਹ ਕੇ ਗੱਲ ਕਰਨ ਲਈ ਗੂਗਲ ਛੱਡ ਦਿੱਤਾ ਸੀ। 1947 ਵਿੱਚ ਲੰਡਨ ਵਿੱਚ ਪੈਦਾ ਹੋਏ ਹਿੰਟਨ ਨੇ ਮਨੁੱਖੀ ਜੀਵਨ ਲਈ ਇਸ ਨੂੰ ਮਾਰੂ ਦੱਸਿਆ ਹੈ। ਜੇਕਰ ਇਸਦੇ ਮੋਟੇ ਜਿਹੇ ਖ਼ਤਰਿਆਂ ਦੀ ਗੱਲ ਕਰੀਏ ਤਾਂ ਉਹ ਇਹ ਹੋ ਸਕਦੇ ਹਨ ਕਿ ਸਭ ਤੋਂ ਪਹਿਲਾਂ ਬੇਰੁਜ਼ਗਾਰੀ ਦੇ ਵਿੱਚ ਵਾਧਾ ਹੈ। ਅਸੀਂ ਬਹੁਤ ਸਾਰੇ ਪਾਸੇ ਦੇਖਦੇ ਹਾਂ ਇਸ ਨਾਲ ਕਈ ਬੰਦਿਆਂ ਦਾ ਕੰਮ ਇੱਕ ਬੰਦਾ ਕਰ ਸਕਦਾ ਹੈ। ਫਿਲਮੀ, ਬੈਂਕਿੰਗ ਤੇ ਸਿੱਖਿਆ ਦੇ ਖੇਤਰ ਵਿੱਚ ਬੇਰੁਜ਼ਗਾਰੀ ਵਧ ਰਹੀ ਹੈ। ਇਸ ਨਾਲ ਨਕਲੀ ਡੈਟਾ ਤਿਆਰ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ ਜਿਸ ਨਾਲ ਇੱਕ ਪਾਸੜ ਧਾਰਮਿਕ, ਸਮਾਜਿਕ ਅੰਕੜੇ ਤਿਆਰ ਕੀਤੇ ਜਾ ਸਕਦੇ ਹਨ। ਇਸਦੇ ਕਾਰਨ ਸਮਾਜ ਵਿੱਚ ਦੰਗੇ ਫ਼ਸਾਦ ਅਰਾਜਕਤਾ ਫੈਲ ਸਕਦੀ ਹੈ। ਭਾਰਤ ਵਰਗੇ ਦੇਸ਼ ਵਿੱਚ ਇਹ ਹੋਰ ਵੀ ਖਤਰਨਾਕ ਸਾਬਤ ਹੋ ਸਕਦੀ ਹੈ। ਦੇਸ਼ ਦੇ ਸੁਰੱਖਿਆ ਸਿਸਟਮ ਨੂੰ ਆਰਟੀਫਿਸ਼ਲ ਇੰਟੈਲੀਜੈਂਸ ਨਾਲ ਹੈਕ ਕਰਨ ਦਾ ਖ਼ਤਰਾ ਵਧ ਸਕਦਾ ਹੈ। ਦੁਸ਼ਮਣ ਦੇਸ਼ ਦੂਜੇ ਦੇਸ਼ਾਂ ਨੂੰ ਨੁਕਸਾਨ ਪਹੁੰਚਾ ਸਕਦੇ ਹਨ। ਕਈ ਵਾਰ ਏਆਈ ਅਜਿਹੇ ਸਿੱਟੇ ਜਾਰੀ ਕਰ ਦਿੰਦੇ ਨੇ ਕਿ ਉਹ ਸਮਝਣ ਵਿੱਚ ਮੁਸ਼ਕਿਲ ਸਾਬਤ ਹੋ ਸਕਦੇ ਹਨ। ਉਹਨਾਂ ਨੂੰ ਸਮਝਣਾ ਔਖਾ ਹੋ ਜਾਂਦਾ ਹੈ। ਏਆਈ ਸਵੈ-ਚਾਲਿਤ ਹਥਿਆਰ, ਵਾਇਰਸ ਮਨੁੱਖੀ ਸਭਿਅਤਾ ਲਈ ਖਤਰਨਾਕ ਰੂਪ ਧਾਰਨ ਕਰ ਸਕਦੇ ਹਨ। ਇੱਕ ਦੂਜੇ ਦੇਸ਼ ਨੂੰ ਪਛਾੜਣ ਦੀ ਦੌੜ ਲੱਗ ਸਕਦੀ ਹੈ। ਭਾਰਤ ਵਰਗੇ ਦੇਸ਼ ਵਿੱਚ ਪਹਿਲਾਂ ਹੀ ਲੋਕਾਂ ਨਾਲ ਠੱਗੀਆਂ ਵੱਜ ਰਹੀਆਂ ਹਨ। ਇਸ ਨਾਲ ਇਹ ਖ਼ਤਰਾ ਹੋਰ ਵਧ ਸਕਦਾ ਹੈ। ਇੱਥੋਂ ਦੇ ਅਣਪੜ੍ਹ ਲੋਕਾਂ ਨੂੰ ਕੁਝ ਦਿਖਾ ਗਲਤ-ਮਲਤ ਕੇ ਮੁਸੀਬਤ ਖੜ੍ਹੀ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ।
ਹਿੰਟਨ ਨੇ ਏਆਈ ਨੂੰ ਕੰਟਰੋਲ ਕਰਨ ਦੀ ਜ਼ਰੂਰਤ ’ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ। ਹਿੰਟਨ ਦੀ ਗੱਲਬਾਤ ਨੂੰ ਅੱਖੋਂ ਪਰੋਖੇ ਨਹੀਂ ਕੀਤਾ ਜਾ ਸਕਦਾ। ਏਆਈ ਦੇ ਵਿਕਾਸ ਦੀ ਗਤੀ ਉਮੀਦ ਨਾਲੋਂ ਬਹੁਤ ਤੇਜ਼ ਹੈ। ਮੁਨਾਫੇ ਲਈ ਚਲਾਈਆਂ ਜਾਂਦੀਆਂ ਵੱਡੀਆਂ ਕੰਪਨੀਆਂ ’ਤੇ ਨਿਰਭਰ ਕਰਨਾ ਏਆਈ ਦੇ ਸੁਰੱਖਿਅਤ ਵਿਕਾਸ ਨੂੰ ਯਕੀਨੀ ਨਹੀਂ ਬਣਾਉਂਦਾ। ਵੱਖ-ਵੱਖ ਦੇਸ਼ਾਂ ਦੀਆਂ ਸਰਕਾਰਾਂ ਨੂੰ ਏਆਈ ਦੀ ਸੁਰੱਖਿਅਤ ਵਰਤੋਂ ਸੰਬੰਧੀ ਕਾਨੂੰਨ ਬਣਾਉਣੇ ਚਾਹੀਦੇ ਹਨ। ਇਸਦੇ ਖਤਰੇ ਨਾਲ ਨਜਿੱਠਣ ਲਈ ਸਰਕਾਰ ਵੱਡੀਆਂ ਕੰਪਨੀਆਂ ਨੂੰ ਕਹੇ ਕਿ ਇਸਦੀ ਸੁਰੱਖਿਆ ਸੰਬੰਧੀ ਖੋਜਾਂ ਕਰੇ। ਸਰਕਾਰਾਂ ਨੂੰ ਪਹਿਲਾਂ ਹੀ ਏ.ਆਈ ’ਤੇ ਕਾਬੂ ਪਾਉਣਾ ਚਾਹੀਦਾ ਹੈ।
ਬਾਅਦ ਵਿੱਚ ‘ਅਬ ਪਛਤਾਏ ਕਿਆ ਹੋਏ, ਜਬ ਚਿੜੀਆ ਚੁਗ ਗਈ ਖੇਤ’ ਵਾਲੀ ਗੱਲ ਨਾ ਵਾਪਰ ਜਾਵੇ। ਏਆਈ ਨੂੰ ਮਨੁੱਖਤਾ ਦੀ ਭਲਾਈ ਲਈ ਵਰਤਿਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ। ਇਹ ਕਿਹਾ ਜਾਂਦਾ ਹੈ, “ਕੋਈ ਜਿੰਨਾ ਜ਼ਿਆਦਾ ਬੁੱਧੀਮਾਨ ਹੋਣ ਦਾ ਦਿਖਾਵਾ ਕਰਦਾ ਹੈ, ਉਹ ਉੰਨਾ ਹੀ ਘੱਟ ਬੁੱਧੀਮਾਨ ਹੁੰਦਾ ਹੈ।” ਖ਼ਤਰਾ ਇਹ ਹੈ ਕਿ ਚਲਾਕ ਲੋਕ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਲਈ ਏਆਈ ਦੀ ਦੁਰਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹਨ। ਹਿੰਟਨ ਦੇ ਵਿਚਾਰਾਂ ਨਾਲ ਸਹਿਮਤ ਹੋਣਾ ਪਵੇਗਾ ਕਿ ਭਵਿੱਖ ਵਿੱਚ ਏਆਈ ਤਕਨਾਲੋਜੀ ਇਨਸਾਨਾਂ ਨਾਲੋਂ ਜ਼ਿਆਦਾ ਤੇਜ਼ ਹੋ ਸਕਦੀ ਹੈ। ਜੇਕਰ ਇਹ ਹੋ ਗਿਆ ਤਾਂ ਮਨੁੱਖ ਇਸਦੇ ਹੇਠ ਦੱਬ ਕੇ ਰਹਿ ਜਾਵੇਗਾ। ਇਸ ਤਰ੍ਹਾਂ ਹੋਣਾ ਬਹੁਤ ਹੀ ਖਤਰਨਾਕ ਹੋਵੇਗਾ। ਟਾਈਮ ਰਹਿੰਦੇ ਇਸਦੀ ਵਰਤੋਂ ਦੀ ਹੱਦ, ਤਰੱਕੀ ਦੀ ਹੱਦ, ਖੇਤਰ ਦਾ ਦਾਇਰਾ ਸੀਮਤ ਕਰਨਾ ਹੋਵੇਗਾ। ਇਕੱਲੇ ਕਾਨੂੰਨ ਬਣਾਉਣ ਦੀ ਲੋੜ ਨਹੀਂ, ਉਹਨਾਂ ਨੂੰ ਲਾਗੂ ਕਰਨ ਦੀ ਹੁਣ ਤੋਂ ਹੀ ਲੋੜ ਹੈ। ਇਹ ਮਨੁੱਖ ਲਈ ਹੋਵੇ ਨਾ ਕਿ ਮਨੁੱਖ ਇਸ ਲਈ।
* * * * *
ਨੋਟ: ਹਰ ਲੇਖਕ ਸਰੋਕਾਰ ਨੂੰ ਭੇਜੀ ਗਈ ਰਚਨਾ ਦੀ ਕਾਪੀ ਆਪਣੇ ਕੋਲ ਸੰਭਾਲ ਕੇ ਰੱਖੇ।
(5599)
ਰਚਨਾਵਾਂ ਸਬੰਧੀ ਆਪਣੇ ਵਿਚਾਰ ਸਾਂਝੇ ਕਰੋ: (This email address is being protected from spambots. You need JavaScript enabled to view it.)