ਸਭ ਤਰ੍ਹਾਂ ਦੇ ਲੋਕਾਂ ਨੂੰ ਨਿਸ਼ਾਨਾ ਬਣਾਉਣ ਵਾਲੇ ਡੀਪਫੇਕ ਵੀਡੀਓ ਦੇ ਉਭਾਰ ਨੇ ਖਤਰੇ ਦੀ ਘੰਟੀ ਵਜਾ ਦਿੱਤੀ ਹੈ, ਜਿਸ ਨਾਲ ਵਿਆਪਕ ਪੱਧਰ ’ਤੇ ਚਿੰਤਾ ਪੈਦਾ ਹੋ ਗਈ ਹੈ ਅਤੇ ਡੀਪਫੇਕ ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋਂ ਨੂੰ ਰੋਕਣ ਦੀ ਤੁਰੰਤ ਲੋੜ ਹੈ। ਸੰਯੁਕਤ ਰਾਜ ਅਮਰੀਕਾ ਦੀ ਸੈਨੇਟ ਨੇ ਦੋ-ਪਾਰਟੀ ਕਾਨੂੰਨ ਪੇਸ਼ ਕੀਤਾ ਹੈ ਜਿਸ ਨੂੰ ਡਿਸਰਪਟ ਐਕਸਪਲਿਸਿਟ ਫੋਰਜਡ ਇਮੇਜਿਜ਼ ਐਂਡ ਨਾਨ-ਕੰਸੈਂਸੂਅਲ ਐਡਿਟਸ (ਡਿਫਿਅੰਸ) ਐਕਟ ਕਿਹਾ ਜਾਂਦਾ ਹੈ। ਇਹ ਕਾਨੂੰਨ ਵਿਅਕਤੀ ਦੀ ਸਹਿਮਤੀ ਬਿਨਾਂ ਨਕਲੀ ਬੁੱਧੀਮਾਨੀ (ਏ. ਆਈ.) ਦੁਆਰਾ ਬਣਾਈ ਗਈ ਗੈਰ-ਸਹਿਮਤੀ ਵਾਲੀ, ਕਾਮੁਕ ਅਕਸਾਂ ਅਤੇ ਵੀਡੀਓ ਨੂੰ ਸਾਂਝਾ ਕਰਨਾ ਗੈਰ-ਕਾਨੂੰਨੀ ਬਣਾ ਦੇਵੇਗਾ।
ਇਸੇ ਤਰ੍ਹਾਂ, ਯੂਰਪੀ ਸੰਘ ਦੇ ਪ੍ਰਸਤਾਵਿਤ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (ਏ. ਆਈ.) ਕਾਨੂੰਨ ਦਾ ਮੰਤਵ ਡੀਪਫੇਕ ਨੂੰ ਸੰਬੋਧਿਤ ਕਰਨ ਲਈ ਸਖਤ ਨਿਯਮ ਪ੍ਰਦਾਨ ਕਰਨਾ ਹੈ। ਜਿਵੇਂ-ਜਿਵੇਂ ਇਹ ਤਕਨੀਕ ਜਨਤਾ ਲਈ ਵੱਧ ਮੁਹੱਈਆ ਹੁੰਦੀ ਜਾ ਰਹੀ ਹੈ, ਵੱਡੀ ਗਿਣਤੀ ’ਚ ਦੇਸ਼ ਡੀਪਫੇਕ ਦੀ ਦੁਬਿਧਾ ਨਾਲ ਜੂਝ ਰਹੇ ਹਨ ਅਤੇ ਇਸ ਮੁੱਦੇ ਨਾਲ ਕਿਵੇਂ ਨਜਿੱਠਿਆ ਜਾਵੇ।
ਦੂਰ-ਦੁਰਾਡੇ ਦੇ ਦੱਖਣਪੰਥੀ ਐਲਾ ਬੁਸ਼ ਅਤੇ ਜੈਕਬ ਵੇਅਰ ਵੱਲੋਂ ਡੀਪਫੇਕ ਡਿਜੀਟਲ ਡਿਸੈਪਸ਼ਨ ਦੇ ਹਥਿਆਰੀਕਰਨ ਸਿਰਲੇਖ ਵਾਲੇ ਇੰਟਰਨੈਸ਼ਨਲ ਸੈਂਟਰ ਆਫ ਕਾਊਂਟਰ ਟੈਰੇਰਿਜ਼ਮ ਲਈ ਇਕ ਨੀਤੀ ਸੰਖੇਪ ’ਚ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ ‘ਡੀਪਫੇਕ’ ਸ਼ਬਦ ਡੀਪ ਲਰਨਿੰਗ ਦੀ ਧਾਰਨਾ ਤੋਂ ਲਿਆ ਗਿਆ ਹੈ, ਜੋ ਨਕਲੀ ਬੁੱਧੀਮਾਨੀ ਦਾ ਇਕ ਉਪ-ਸਮੂਹ ਹੈ-ਮਸ਼ੀਨ ਲਰਨਿੰਗ (ਏ. ਆਈ./ਐੱਮ. ਐੱਲ.)। ਡੀਪ ਲਰਨਿੰਗ ਐਲਗੋਰਿਦਮ ਡੂੰਘੇ ਤੰਤਰਿਕਾ ਨੈੱਟਵਰਕ ਨਾਲ ਬਣੇ ਹੁੰਦੇ ਹਨ, ਜੋ ਮਨੁੱਖੀ ਦਿਮਾਗ ਨੂੰ ਇਸ ਤਰ੍ਹਾਂ ਅਪਣਾਉਂਦੇ ਹਨ ਜੋ ਏ. ਆਈ. ਨੂੰ ਵੱਡੀ ਮਾਤਰਾ ’ਚ ਡਾਟਾ ਤੋਂ ‘ਸਿੱਖਣ’ ’ਚ ਸਮਰੱਥ ਬਣਾਉਂਦਾ ਹੈ।
ਪਾਠ ਅਤੇ ਅਕਸਾਂ ਵਰਗੇ ਗੈਰ-ਸੰਚਾਰਿਤ ਡਾਟਾ ਨੂੰ ਕਾਰਵਾਈ ’ਚ ਲਿਆਉਣ ਦੀ ਸਮਰੱਥਾ ਕਾਰਨ ਡੀਪ ਲਰਨਿੰਗ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਤੋਂ ਵੱਖਰੀ ਹੈ, ਜੋ ਇਸ ਨੂੰ ਡੀਪਫੇਕ ਵੀਡੀਓ, ਆਡੀਓ, ਚਿੱਤਰ ਜਾਂ ਟੈਕਸਟ ਬਣਾਉਣ ਲਈ ਆਦਰਸ਼ ਬਣਾਉਂਦੀ ਹੈ। ਡੀਪਫੇਕ ਇਕ ਵਿਸ਼ਿਸ਼ਟ ਡੀਪ ਲਰਨਿੰਗ ਐਲਗੋਰਿਦਮ ਦੀ ਵਰਤੋਂ ਕਰ ਕੇ ਬਣਾਏ ਜਾਂਦੇ ਹਨ ਜਿਸ ਨੂੰ ਜੈਨਰੇਟਿਵ ਐਡਵਰਸੈਰੀਅਲ ਨੈੱਟਵਰਕ (ਜੀ. ਏ. ਐੱਨ.) ਕਿਹਾ ਜਾਂਦਾ ਹੈ।
ਜਿਸ ਨੂੰ ਪਹਿਲੀ ਵਾਰ 2014 ’ਚ ਸੋਧਕਰਤਾ ਇਆਨ ਗੁਡਫੈਲੋ ਵੱਲੋਂ ਵਿਕਸਿਤ ਕੀਤਾ ਗਿਆ ਸੀ। ਇਸ ’ਚ 2 ਤੰਤ੍ਰਿਕਾ ਨੈੱਟਵਰਕ ਸ਼ਾਮਲ ਹਨ-ਇਕ ਜੈਨਰੇਟਰ ਐਲਗੋਰਿਦਮ ਅਤੇ ਇਕ ਭੇਦਕ ਐਲਗੋਰਿਦਮ। ਜੈਨਰੇਟਰ ਐਲਗੋਰਿਦਮ ਇਕ ਨਕਲੀ ਅਕਸ (ਜਾਂ ਮੀਡੀਆ ਦਾ ਹੋਰ ਰੂਪ) ਬਣਾਉਂਦਾ ਹੈ ਅਤੇ ਵਿਵੇਚਕ ਮੀਡੀਆ ਦੀ ਪ੍ਰਮਾਣਿਕਤਾ ਦਾ ਮੁਲਾਂਕਣ ਕਰਦਾ ਹੈ। ਸਥਿਰ ਸਥਿਤੀ ਤੱਕ ਪਹੁੰਚਣ ਤੱਕ ਕਾਰਵਾਈ ਘੰਟਿਆਂ ਜਾਂ ਦਿਨਾਂ ਤੱਕ ਦੁਹਰਾਈ ਜਾਂਦੀ ਹੈ, ਜਿਸ ’ਚ ਨਾ ਤਾਂ ਜੈਨਰੇਟਰ ਅਤੇ ਨਾ ਹੀ ਵਿਵੇਚਕ ਆਪਣੇ ਪ੍ਰਦਰਸ਼ਨ ’ਚ ਸੁਧਾਰ ਕਰ ਸਕਦੇ ਹਨ।
ਦੂਜੇ ਸ਼ਬਦਾਂ ’ਚ ਡੀਪਫੇਕ ਇਕ ਤਰ੍ਹਾਂ ਦਾ ਸਿੰਥੈਟਿਕ ਮੀਡੀਆ ਹੈ ਜਿਸ ’ਚ ਡੀਪ-ਜੈਨਰੇਟਿਵ ਤਰੀਕਿਆਂ ਰਾਹੀਂ ਕਿਸੇ ਦੇ ਚਿਹਰੇ ਦੀ ਬਣਾਵਟ ’ਚ ਹੇਰ-ਫੇਰ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਹਾਲਾਂਕਿ ਕਿਸੇ ਦੇ ਚਿਹਰੇ ਜਾਂ ਆਵਾਜ਼ ਦੀ ਨਕਲ ਕਰਨ ਦੀ ਤਕਨੀਕ ਨਵੀਂ ਨਹੀਂ ਹੈ ਪਰ ਡੀਪਫੇਕ ਬਾਰੇ ਜੋ ਕ੍ਰਾਂਤੀਕਾਰੀ ਹੈ ਉਹ ਜੈਨਰੇਟਿਵ ਐਡਵਰਸੈਰੀਅਲ ਨੈੱਟਵਰਕਸ (ਜੀ. ਏ. ਐੱਨ.) ’ਤੇ ਨਿਰਭਰਤਾ ਹੈ।
ਪਹਿਲਾ ਏ. ਆਈ. ਮਾਡਲ, ਜਾਲਸਾਜ਼, ਦਿੱਤੇ ਗਏ ਨਮੂਨੇ ਦੇ ਆਧਾਰ ’ਤੇ ਕਿਸੇ ਦੇ ਚਿਹਰੇ ਨਾਲ ਛੇੜਛਾੜ ਕਰਨ ’ਚ ਮਦਦ ਕਰਦਾ ਹੈ। ਦੂਜਾ ਏ. ਆਈ. ਮਾਡਲ, ਜਾਸੂਸ, ਜਾਲਸਾਜ਼ ਦੀ ਰਚਨਾ ਦੀ ਜਾਂਚ ਕਰਦਾ ਹੈ ਅਤੇ ਫੇਸ ਟ੍ਰੇਨਿੰਗ ਡਾਟਾ ਦੇ ਆਧਾਰ ’ਤੇ ਇਸ ਦੇ ਨਕਲੀ ਹੋਣ ਦੇ ਸਾਰੇ ਕਾਰਨਾਂ ਦੀ ਪਛਾਣ ਕਰਦਾ ਹੈ।
ਇਸ ਪਿੱਛੋਂ ਜਾਲਸਾਜ਼ ਜਾਸੂਸ ਵੱਲੋਂ ਮੁਹੱਈਆ ਕਰਵਾਏ ਗਏ ਇਨਪੁਟ ਦੇ ਆਧਾਰ ’ਤੇ ਸੁਧਾਰ ਕਰਦਾ ਹੈ। ਸੁਧਾਰ ਦੀ ਇਹ ਪ੍ਰਕਿਰਿਆ ਉਦੋਂ ਤੱਕ ਜਾਰੀ ਰਹਿੰਦੀ ਹੈ ਜਦੋਂ ਤੱਕ ਜਾਸੂਸ ਅਸਲ ਅਕਸ ਅਤੇ ਪੈਦਾ ਅਕਸ ਦਰਮਿਆਨ ਕੋਈ ਫਰਕ ਲੱਭਣ ’ਚ ਅਸਮਰੱਥ ਨਹੀਂ ਹੋ ਜਾਂਦਾ।
ਕਿਸੇ ਵੀ ਤਕਨੀਕ ਵਾਂਗ ਡੀਪਫੇਕ ਦੀ ਵੀ ਸਕਾਰਾਤਮਕ ਅਤੇ ਨਕਾਰਾਤਮਕ ਦੋਵੇਂ ਤਰ੍ਹਾਂ ਵਰਤੋਂ ਹੈ। ਫਿਲਮ ਨਿਰਮਾਤਾ ਵੱਡੇ ਪੈਮਾਨੇ ’ਤੇ ਇਸ ਤਕਨੀਕ ਦੀ ਵਰਤੋਂ ਫਿਲਮਾਂ ਦਾ ਅਨੁਵਾਦ ਕਰਨ, ਅਦਾਕਾਰਾਂ ਦੀ ਉਮਰ ਘੱਟ ਕਰਨ, ਫਿਲਮ ਨਿਰਮਾਣ ਨੂੰ ਰਫਤਾਰ ਦੇਣ ਅਤੇ ਇਸ ਦੀ ਲਾਗਤ ਘੱਟ ਕਰਨ ’ਚ ਮਦਦ ਕਰਨ ਲਈ ਕਰ ਰਹੇ ਹਨ।
ਸਿੱਖਿਆ ਦੇ ਖੇਤਰ ’ਚ, ਡੀਪਫੇਕ ਬਹੁਤ ਜ਼ਿਆਦਾ ਨਵੇਂ ਪਾਠ ਬਣਾਉਣ ’ਚ ਮਦਦ ਕਰ ਸਕਦਾ ਹੈ ਜੋ ਸਿੱਖਣ ਦੇ ਰਵਾਇਤੀ ਰੂਪ ਦੀ ਤੁਲਨਾ ’ਚ ਕਿਤੇ ਵੱਧ ਦਿਲਖਿੱਚਵਾਂ ਹੈ। ਇਸ ਦੀ ਵਰਤੋਂ ਇਤਿਹਾਸਕ ਪਲਾਂ ਨੂੰ ਫਿਰ ਤੋਂ ਪੇਸ਼ ਕਰਨ ਲਈ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ। ਮਨੁੱਖੀ ਸਰੀਰ ਰਚਨਾ ਵਿਗਿਆਨ ਨੂੰ ਸਮਝਣ ਅਤੇ ਵਾਸਤੂਕਲਾ ’ਚ ਸਹਾਇਤਾ ਕਰਨ ’ਚ ਵੀ ਸਹਾਇਤਾ ਕਰ ਸਕਦਾ ਹੈ।
ਇਸ ਦੀ ਵਰਤੋਂ ਮੈਡੀਕਲ ਸੋਧਕਰਤਿਆਂ ਵੱਲੋਂ ਅਸਲ ਰੋਗੀਆਂ ਦੇ ਬਿਨਾਂ ਬੀਮਾਰੀਆਂ ਦੇ ਇਲਾਜ ਦੇ ਨਵੇਂ ਤਰੀਕੇ ਵਿਕਸਿਤ ਕਰਨ ਲਈ ਵੀ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ। ਡੀਪਫੇਕ ਦੇ ਕਈ ਲਾਭ ਹਨ।
ਦੂਜੇ ਪਾਸੇ, ਵਿੱਤੀ ਘਪਲੇ, ਗਲਤ ਸੂਚਨਾ ਫੈਲਾਉਣ ਅਤੇ ਸੈਕਸ ਤੌਰ ’ਤੇ ਸਪੱਸ਼ਟ ਵੀਡੀਓ ਸਾਂਝੀ ਕਰਨ ਵਰਗੇ ਅਪਰਾਧ ਕਰਨ ਲਈ ਡੀਪਫੇਕ ਦੀ ਵੱਡੇ ਪੈਮਾਨੇ ’ਤੇ ਵਰਤੋਂ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ। ਅਜਿਹੀਆਂ ਰਿਪੋਰਟਾਂ ਆਈਆਂ ਹਨ ਕਿ ਪਿਛਲੀਆਂ ਵਿਧਾਨ ਸਭਾ ਚੋਣਾਂ ’ਚ ਵਿਰੋਧੀਆਂ ਨੂੰ ਬਦਨਾਮ ਕਰਨ ਲਈ ਡੀਪਫੇਕ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਗਈ ਸੀ ਤੇ ਜੇ ਕੋਈ ਕਦਮ ਨਹੀਂ ਉਠਾਇਆ ਗਿਆ ਤਾਂ 2024 ਦੀਆਂ ਆਮ ਚੋਣਾਂ ਦੌਰਾਨ ਇਹ ਵੱਡੇ ਪੱਧਰ ’ਤੇ ਹੋ ਸਕਦੀ ਹੈ।
ਇਹ ਲੇਖਕ ਖੁਦ ਉਨ੍ਹਾਂ ਦੀ ਆਵਾਜ਼ ਦਾ ਅਨੁਸਰਨ ਕਰਨ ਵਾਲੇ ਇਕ ਡੂੰਘੇ ਨਕਲੀ ਵੀਡੀਓ ਦਾ ਸ਼ਿਕਾਰ ਸੀ ਜਿਸ ਨੂੰ 2019 ਦੀਆਂ ਸੰਸਦੀ ਚੋਣਾਂ ’ਚ ਵੋਟਿੰਗ ਤੋਂ ਇਕ ਦਿਨ ਪਹਿਲਾਂ ਬੁਰੀ ਭਾਵਨਾ ਨਾਲ ਪ੍ਰਸਾਰਿਤ ਕੀਤਾ ਿਗਆ ਸੀ। ਚੰਗੇ ਭਾਗਾਂ ਨੂੰ ਇਹ ਪ੍ਰਤੀਰੂਪ ਇੰਨਾ ਕੱਚਾ ਅਤੇ ਸਿਖਾਂਦਰੂ ਸੀ ਕਿ ਇਸ ਨੂੰ ਫੜ ਲਿਆ ਗਿਆ ਅਤੇ ਇਸ ਤੋਂ ਪਹਿਲਾਂ ਕਿ ਇਹ ਢੁੱਕਵਾਂ ਅਤੇ ਚੋਣ ਨੁਕਸਾਨ ਕਰਦਾ, ਉਜਾਗਰ ਹੋ ਗਿਆ। ਫਿਰ ਵੀ ਡੂੰਘੀ ਨਕਲ ਨੇ ਵੋਟਰਾਂ ਦੇ ਇਕ ਨਿਸ਼ਚਿਤ ਵਰਗ ਦੇ ਮਨ ’ਚ ਖਦਸ਼ੇ ਪੈਦਾ ਕਰ ਦਿੱਤੇ।
ਏ. ਆਈ. ਅਤੇ ਡੀਪਫੇਕ ਦੇ ਰੈਗੂਲੇਸ਼ਨ ਸਬੰਧੀ ਰਾਜ ਸਭਾ ’ਚ ਉਠਾਏ ਗਏ ਇਕ ਸਵਾਲ ਦੇ ਜਵਾਬ ’ਚ, ਸੂਚਨਾ ਤੇ ਪ੍ਰਸਾਰਨ ਮੰਤਰਾਲਾ ਨੇ ਕਿਹਾ ਕਿ ਇਹ ਵਰਤਮਾਨ ’ਚ ਆਈ. ਪੀ. ਸੀ. ਦੀ ਧਾਰਾ 469 (ਸ਼ਾਨ ਨੂੰ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਦੇ ਮੰਤਵ ਨਾਲ ਜਾਲਸਾਜ਼ੀ) ਅਤੇ ਸੂਚਨਾ ’ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ। ਡੀਪਫੇਕ ਦੇ ਮੁੱਦੇ ਨੂੰ ਸੰਬੋਧਨ ਕਰਨ ਲਈ ਤਕਨਾਲੋਜੀ (ਮੱਧਵਰਤੀ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ ਅਤੇ ਡਿਜੀਟਲ ਮੀਡੀਆ ਜ਼ਾਬਤਾ), ਨਿਯਮ 2021 ਬਣਾਏ ਗਏ।
ਇਹ ਨਿਯਮ ਸੋਸ਼ਲ ਮੀਡੀਆ ਵਿਚੋਲਗੀ ’ਤੇ ਪਾਬੰਦੀਸ਼ੁਦਾ ਗਲਤ ਸੂਚਨਾ, ਸਪੱਸ਼ਟ ਤੌਰ ’ਤੇ ਗਲਤ ਜਾਣਕਾਰੀ ਅਤੇ ਡੀਪਫੇਕ ਨੂੰ ਛੇਤੀ ਹਟਾਉਣ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਣ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਪਾਉਂਦੇ ਹਨ। ਬਦਕਿਸਮਤੀ ਨਾਲ, ਇਹ ਨਿਯਮ ਡੀਪਫੇਕ ਦੇ ਮੁੱਦੇ ਨੂੰ ਪ੍ਰਭਾਵੀ ਢੰਗ ਨਾਲ ਸੰਬੋਧਨ ਕਰਨ ’ਚ ਅਸਫਲ ਹਨ।
ਇਸ ਦੇ ਇਲਾਵਾ, ਇਹ ਨਿਯਮ ਬਹੁਤ ਜ਼ਿਆਦਾ ਅਸਪੱਸ਼ਟ ਅਤੇ ਆਮ ਹਨ, ਜਿਨ੍ਹਾਂ ’ਚ ਡੀਪਫੇਕ ਨੂੰ ਰੈਗੂਲੇਟ ਕਰਨ ਲਈ ਢੁੱਕਵੇਂ ਉਪਾਵਾਂ ਦੀ ਘਾਟ ਹੈ। ਇਸ ਤਰ੍ਹਾਂ, ਇਕ ਕਾਨੂੰਨੀ ਖਲਾਅ ਮੌਜੂਦ ਹੈ ਜਿਸ ਦੇ ਨਤੀਜੇ ਵਜੋਂ ਡੀਪਫੇਕ ਨੂੰ ਢੁੱਕਵੇਂ ਤੌਰ ’ਤੇ ਰੈਗੂਲੇਟ ਕਰਨ ’ਚ ਅਸਫਲਤਾ ਹੁੰਦੀ ਹੈ।
ਇਸ ਖਲਾਅ ਦੇ ਨਤੀਜੇ ਵਜੋਂ ਭਾਰਤ ’ਚ ਏ. ਆਈ. ਅਤੇ ਡੀਪਫੇਕ ਸਬੰਧੀ ਅਪਰਾਧ ’ਚ ਵਾਧਾ ਹੋਇਆ ਹੈ। ਇਸ ਦੇ ਇਲਾਵਾ ਇਕ ਰਿਪੋਰਟ ਅਨੁਸਾਰ ਭਾਰਤ ’ਚ ਡੀਪਫੇਕ ਦੀ ਗਿਣਤੀ ’ਚ 1700 ਫੀਸਦੀ ਦਾ ਵਾਧਾ ਦੇਖਿਆ ਗਿਆ ਹੈ। ਇਸ ਨਾਲ ਸਪੱਸ਼ਟ ਤੌਰ ’ਤੇ ਪਤਾ ਲੱਗਦਾ ਹੈ ਕਿ ਭਾਰਤ ਤਕਨਾਲੋਜੀ ’ਚ ਤੇਜ਼ੀ ਨਾਲ ਹੋ ਰਹੀ ਤਰੱਕੀ ਦੇ ਨਾਲ ਤਾਲਮੇਲ ਬਿਠਾਉਣ ਲਈ ਗੰਭੀਰ ਤੌਰ ’ਤੇ ਗੈਰ-ਵਿਕਸਿਤ ਅਤੇ ਤਿਆਰ ਨਹੀਂ ਹੈ।
ਅਗਲੀ ਸੰਸਦ ਨੂੰ ਇਸ ਮੁੱਦੇ ਦੇ ਹੱਲ ਲਈ ਖੁਦ ਨੋਟਿਸ ਲੈਂਦਿਆਂ ਸੰਸਦ ਦੀ ਇਕ ਸਾਂਝੀ ਕਮੇਟੀ ਦਾ ਗਠਨ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਸਾਰੀਆਂ ਸਬੰਧਤ ਧਿਰਾਂ ਨਾਲ ਢੁੱਕਵੀਂ ਸਲਾਹ ਕੀਤੀ ਜਾਵੇ।
ਮਨੀਸ਼ ਤਿਵਾੜੀ
ਸਰਕਾਰ ਦੇ ਵਾਅਦਿਆਂ ਤੋਂ ਹੁਣ ਅੱਕ ਗਏ ਲੋਕ
NEXT STORY