ਇਰਾਨ ਦੀ ਰਾਜਧਾਨੀ ਤਹਿਰਾਨ
ਵਿਗਿਆਨਿਕ ਮੋਹਸਿਨ ਫ਼ਖ਼ਰੀਜ਼ਾਦੇਹ ਦੀਆਂ ਗੱਡੀਆਂ ਦਾ ਕਾਫ਼ਲਾ ਰਾਜਧਾਨੀ ਦੇ ਬਾਹਰੀ ਇਲਾਕੇ ਵਿੱਚੋਂ ਲੰਘ ਰਿਹਾ ਸੀ।
ਉਹ ਇਰਾਨ ਦੇ ਸਭ ਤੋਂ ਸੀਨੀਅਰ ਪਰਮਾਣੂ ਵਿਗਿਆਨਿਕ ਮੰਨੇ ਜਾਂਦੇ ਸਨ ਅਤੇ ਸੁਰੱਖਿਆ ਦੇ ਸਖ਼ਤ ਪਹਿਰੇ ਵਿੱਚ ਰਹਿੰਦੇ ਸਨ।
ਕੁਝ ਦੇਰ ਬਾਅਦ ਫ਼ਖ਼ਰੀਜ਼ਾਦੇਹ ਦੀ ਗੱਡੀ 'ਤੇ ਹਮਲਾ ਹੋਇਆ। ਜ਼ਬਰਦਸਤ ਗੋਲੀ ਬਾਰੀ ਹੋਈ ਅਤੇ ਉਨ੍ਹਾਂ ਦੀ ਮੌਤ ਹੋ ਗਈ। ਇਹ ਕੋਈ ਸਧਾਰਨ ਹਮਲਾ ਨਹੀਂ ਸੀ।
ਮੌਕੇ 'ਤੇ ਮੌਜੂਦ ਰਹੇ ਇੱਕ ਸੀਨੀਅਰ ਅਧਿਕਾਰੀ ਨੇ ਦੱਸਿਆ ਕਿ ਉਥੇ ਕੋਈ ਹਮਲਾਵਰ ਨਹੀਂ ਸੀ। ਗੋਲੀਆਂ ਇੱਕ ਕਾਰ ਵਿੱਚ ਲੱਗੀ ਮਸ਼ੀਨਗੰਨ ਨਾਲ ਚਲਾਈਆਂ ਗਈਆਂ ਪਰ ਮਸ਼ੀਨਗੰਨ ਨੂੰ ਚਲਾਉਣ ਵਾਲਾ ਕੋਈ ਨਹੀਂ ਸੀ।
ਇਹ ਵੀ ਪੜ੍ਹੋ
ਈਰਾਨ ਦੇ ਇੱਕ ਹੋਰ ਅਧਿਕਾਰੀ ਨੇ ਦੱਸਿਆ ਕਿ ਮਸ਼ੀਨਗੰਨ ਨੂੰ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਜ਼ਰੀਏ ਕੰਟਰੋਲ ਕੀਤਾ ਜਾ ਰਿਹਾ ਸੀ।
'ਕੰਪਿਊਟਰ ਨਾਲ ਕਾਬੂ ਹੋਣ ਵਾਲੀ ਮਸ਼ੀਨਗੰਨ'। ਇਹ ਹੌਲੀਵੁੱਡ ਦੀ ''ਕਿਲਰ ਰੋਬੋਟ'' ਸੀਰੀਜ਼ ਵਾਲੀਆਂ ਫ਼ਿਲਮਾਂ ਤੋਂ ਪ੍ਰੇਰਿਤ ਕਹਾਣੀ ਦਾ ਹਿੱਸਾ ਲਗਦਾ ਹੈ।
ਜਿਥੇ ਇੱਕ ਅਜਿਹੀ ਮਸ਼ੀਨ ਹੈ, ਜੋ ਸੋਚ ਸਕਦੀ ਹੈ ਅਤੇ ਨਿਸ਼ਾਨਾਂ ਸਾਧ ਕੇ ਗੋਲੀ ਵੀ ਚਲਾ ਸਕਦੀ ਹੈ।
ਪਰ ਕੀ ਅਜਿਹਾ ਸੰਭਵ ਹੈ? ਜੇ ਹੈ ਤਾਂ ਇੱਕ ਹੋਰ ਸਵਾਲ ਖੜਾ ਹੁੰਦਾ ਹੈ ਕਿ ਕੀ ਆਉਣ ਵਾਲੇ ਦਿਨਾਂ ਵਿੱਚ ਜੰਗ ਵਿੱਚ ਵੀ ਸੈਨਿਕਾਂ ਦੀ ਜਗ੍ਹਾ ਹੁਣ ਰੋਬੋਟ ਆਹਮਣੇ-ਸਾਹਮਣੇ ਹੋਣਗੇ?
ਜਦੋਂ ਜੰਗ ਵਿੱਚ ਰੋਬੋਟ ਦੇ ਇਸਤੇਮਾਲ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਮਾਹਾਰਾਂ ਦੀ ਜ਼ੁਬਾਨ 'ਤੇ ਜੋ ਸ਼ਬਦ ਹੁੰਦਾ ਹੈ ਉਹ ਹੈ 'ਆਟੋਨੋਮਸ'
ਜੰਗ 'ਚ ਲੜਨਗੇ ਰੋਬੋਟ?
ਅਮਰੀਕਾ ਦੀ ਜਾਨ ਹਾਪਿਨਸ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਸੀਨੀਅਰ ਰਿਸਰਚ ਐਨਾਲਿਸਟ ਹੈਦਰ ਰਾਫ਼ ਕਹਿੰਦੇ ਹਨ, ਅਸੀਂ ਇੱਕ ਅਜਿਹੇ ਸਿਸਟਮ ਦੀ ਗੱਲ ਕਰ ਰਹੇ ਹਾਂ, ਜਿਸ ਦੇ ਕੋਲ ਇਹ ਸਮਰੱਥਾ ਹੈ ਕਿ ਉਹ ਕਿਸੇ ਮਨੁੱਖੀ ਮਦਦ ਜਾਂ ਨਿਰਦੇਸ਼ ਦੇ ਬਿਨਾਂ ਆਪਣੇ ਟੀਚੇ ਤੈਅ ਕਰੇ ਅਤੇ ਉਨ੍ਹਾਂ ਨੂੰ ਪੂਰਾ ਕਰ ਸਕੇ।''
ਇਥੇ ਇਹ ਸਮਝਣਾ ਹੋਵੇਗਾ ਕਿ ਜਦੋਂ ਜੰਗ ਵਿੱਚ ਰੋਬੋਟ ਦੇ ਇਸਤੇਮਾਲ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਮਾਹਾਰਾਂ ਦੀ ਜ਼ੁਬਾਨ 'ਤੇ ਜੋ ਸ਼ਬਦ ਹੁੰਦਾ ਹੈ ਉਹ ਹੈ 'ਆਟੋਨੋਮਸ'। ਯਾਨੀ ਮਸ਼ੀਨ ਨੂੰ ਖ਼ੁਦ ਫ਼ੈਸਲੇ ਲੈਣ ਦੀ ਤਾਕਤ ਦੇਣਾ। ਇਸ ਨੂੰ ਲੈ ਕੇ ਬਹਿਸ ਹੁੰਦੀ ਰਹਿੰਦੀ ਹੈ।
ਇਨ੍ਹਾਂ ਹਥਿਆਰਾਂ ਦਾ ਦਾਇਰਾ ਵੀ ਕਾਫ਼ੀ ਵੱਡਾ ਹੈ। ਇਨ੍ਹਾਂ ਵਿੱਚ ਮੁੱਢਲੀ (ਪ੍ਰਾਇਮਰੀ) ਪੱਧਰ ਦੇ ਹਥਿਆਰਾਂ ਤੋਂ ਲੈ ਕੇ ਟਰਮੀਨੇਟਰ ਤੱਕ ਆਉਂਦੇ ਹਨ। ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ ਅੱਜ ਵੀ ਅਜਿਹੇ ਹਥਿਆਰ ਮੌਜੂਦ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ, ''ਸਾਡੇ ਕੋਲ ਸਮੁੰਦਰੀ ਸੁਰੰਗ, ਕਈ ਤਰ੍ਹਾਂ ਦੀਆਂ ਜ਼ਮੀਨੀ ਸੁਰੰਗਾਂ, ਸਾਈਬਰ ਤਕਨੀਕ ਅਤੇ ਸਾਈਬਰ ਹਥਿਆਰ ਹਨ ਜੋ ਆਟੋਨੋਮਸ ਹਨ। ਫ਼ਿਰ ਇਸਰਾਈਲ ਦੀ ਐਂਟੀ ਰੇਡੀਏਸ਼ਨ ਮਿਸਾਈਲ ਹੈਰੋਪ ਹੈ। ਇਹ ਕਿਹਾ ਜਾਂਦਾ ਹੈ ਕਿ ਲੌਂਚ ਕੀਤੇ ਜਾਣ ਤੋਂ ਬਾਅਦ ਇਹ ਸਿਗਨਲ ਦੇ ਆਧਾਰ 'ਤੇ ਹਮਲਾ ਕਰਨ ਬਾਰੇ ਖ਼ੁਦ ਤੈਅ ਕਰਦੀ ਹੈ। ਤੁਸੀਂ ਪੈਟੀਅਲ ਮਿਸਾਈਲ ਨੂੰ ਨਿਰਦੇਸ਼ਿਤ ਕਰਦੇ ਹੋਏ ਆਟੋਮੈਟਿਕ ਮੋਡ ਵਿੱਚ ਤਾਇਨਾਤ ਕਰ ਸਕਦੇ ਹੋ।''
''ਕਿਲਰ ਰੋਬੋਟ'' ਦੇ ਜੰਗ ਵਿੱਚ ਇਸਤੇਮਾਲ ਦੇ ਵਿਚਾਰ ਨਾਲ ਕਈ ਲੋਕਾਂ ਨੂੰ ਚਾਹੇ ਹੈਰਾਨੀ ਹੋਵੇ ਪਰ ਸੱਚ ਇਹ ਹੈ ਕਿ ਦੁਨੀਆਂ ਭਰ 'ਚ ਹੁਣ ਵੀ ਅਜਿਹੀ ਤਕਨੀਕ ਵਿਕਸਿਤ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ।
ਹੈਦਰ ਰਾਫ਼ ਕਹਿੰਦੇ ਹਨ, ''ਚੀਨ ਆਪਣੀ ਸੈਨਾ ਨੂੰ ਮਜ਼ਬੂਤ ਬਣਾਉਣਾ ਚਾਹੁੰਦਾ ਹੈ। ਉਹ ਆਪਣੀ ਜਲ ਸੈਨਾ ਲਈ ਜਹਾਜ਼ਾਂ ਅਤੇ ਪਣਡੁੱਬੀਆਂ ਨੂੰ ਸਵੈਚਾਲਕ ਬਣਾ ਰਹੇ ਹਨ।
ਇਸਰਾਈਲ ਜ਼ਮੀਨੀ ਹਥਿਆਰਾਂ ਮਸਲਨ ਟੈਂਕਾਂ ਅਤੇ ਤੋਪਾਂ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਵਿੱਚ ਲੱਗਿਆ ਹੋਇਆ ਹੈ।''
ਉਨ੍ਹਾਂ ਅੱਗੇ ਦੱਸਿਆ, '' ਰੂਸ ਵੀ ਜ਼ਮੀਨੀ ਉਪਕਰਣਾਂ 'ਤੇ ਕਾਫ਼ੀ ਰਕਮ ਖ਼ਰਚ ਕਰ ਰਿਹਾ ਹੈ। ਅਮਰੀਕਾ ਦੀ ਦਿਲਚਸਪੀ ਹਰ ਜਗ੍ਹਾ ਹੈ। ਏਅਰਫ਼ੋਰਸ, ਏਅਰਬੇਸ ਸਿਸਟਮ ਤੋਂ ਲੈ ਕੇ ਮਿਜ਼ਾਈਲ ਤੱਕ। ਯੂਕੇ ਵੀ ਆਪਣੀ ਹਵਾਈ ਸੈਨਾ ਅਤੇ ਜਲ ਸੈਨਾ ਦੀ ਸਮਰੱਥਾ ਵਧਾਉਣਾ ਚਾਹੁੰਦਾ ਹੈ।''
ਇਹ ਵੀ ਪੜ੍ਹੋ
''ਕਿਲਰ ਰੋਬੋਟ'' ਦੇ ਜੰਗ ਵਿੱਚ ਇਸਤੇਮਾਲ ਦੇ ਵਿਚਾਰ ਨਾਲ ਕਈ ਲੋਕਾਂ ਨੂੰ ਚਾਹੇ ਹੈਰਾਨੀ ਹੋਵੇ ਪਰ ਸੱਚ ਇਹ ਹੈ ਕਿ ਦੁਨੀਆਂ ਭਰ 'ਚ ਹੁਣ ਵੀ ਅਜਿਹੀ ਤਕਨੀਕ ਵਿਕਸਿਤ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ
ਮਾਹਰਾਂ ਦੀ ਚਿੰਤਾ
ਅਹਿਮ ਗੱਲ ਇਹ ਹੈ ਕਿ ਹਾਲੇ ਜੋ ਸਾਰੇ ਹਥਿਆਰ ਵਿਕਸਿਤ ਹੋ ਰਹੇ ਹਨ, ਉਨ੍ਹਾਂ ਵਿੱਚੋਂ ਸਾਰੇ ਰੋਬੋਟ ਕਿਲਰ ਨਹੀਂ ਹੋਣਗੇ। ਪਰ ਕੁਝ ਹਥਿਆਰਾਂ ਅਤੇ ਦੇਸਾਂ ਨੂੰ ਲੈ ਕੇ ਹੈਦਰ ਫ਼ਿਕਰਮੰਦ ਨਜ਼ਰ ਆਉਂਦੇ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ, ''ਪੱਛਮੀ ਦੇਸ ਜੋਖ਼ਮ ਨੂੰ ਘੱਟ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹਨ। ਉਹ ਆਪਣੇ ਸਿਸਟਮ ਨੂੰ ਭਰਪੂਰ ਟੈਸਟ ਕਰਦੇ ਹਨ ਪਰ ਰੂਸ ਜਲਦੀ ਵਿਕਸਿਤ ਕੀਤੇ ਗਏ ਉਪਕਰਣਾਂ ਨੂੰ ਜ਼ਿਆਦਾ ਟੈਸਟਿੰਗ ਕੀਤੇ ਬਿਨਾ ਹੀ ਤਾਇਨਾਤ ਕਰ ਦਿੰਦਾ ਹੈ। ਮੈਂ ਇਸੇ ਨੂੰ ਲੈ ਕੇ ਹੀ ਫ਼ਿਕਰਮੰਦ ਹਾਂ।"
ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਬਿਨਾ ਟੈਸਟ ਕੀਤੇ ਹੋਏ ਸਿਸਟਮ ਨੂੰ ਮੋਰਚੇ 'ਤੇ ਲਗਾਉਣਾ ਕਿਸੇ ਤਬਾਹੀ ਨੂੰ ਸੱਦਾ ਦੇਣ ਵਰਗਾ ਹੈ।"
ਆਕਸਫ਼ੋਰਡ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਐਸੋਸੀਏਟ ਪ੍ਰੋਫ਼ੈਸਰ ਟੌਮ ਸਿੰਪਸਨ ਨੇ ਜੰਗ ਦੇ ਪ੍ਰਭਾਵ ਨੂੰ ਸਮਝਣ ਵਿੱਚ ਕਈ ਸਾਲ ਲਗਾਏ ਹਨ। ਉਹ ਪੰਜ ਸਾਲਾਂ ਤੱਕ ਯੂਕੇ ਦੀ ਸੈਨਾ ਨਾਲ ਜੁੜੇ ਰਹੇ ਹਨ। ਤਕਨੀਕੀ ਅਤੇ ਸੁਰੱਖਿਆ ਨਾਲ ਜੁੜੇ ਸਵਾਲਾਂ ਵਿੱਚ ਉਨ੍ਹਾਂ ਦੀ ਦਿਲਚਸਪੀ ਲਗਾਤਾਰ ਬਣੀ ਹੋਈ ਹੈ
ਜੰਗ ਵਰਗੇ ਖ਼ਤਰਨਾਕ ਮੋਰਚਿਆਂ 'ਤੇ ਇਨਸਾਨਾਂ ਦੀ ਬਜਾਇ ਰੋਬੋਟ ਤਾਇਨਾਤ ਕਰਨ ਦੇ ਵਿਚਾਰ 'ਤੇ ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ''ਇਸ ਦੇ ਪੱਖ ਵਿੱਚ ਇੱਕ ਅਜਿਹ ਤਰਕ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਸਰਕਾਰਾਂ ਦੀ ਨੈਤਿਕ ਧਰਾਤਲ ਨੂੰ ਮਜ਼ਬੂਤ ਕਰ ਦਿੰਦਾ ਹੈ। ਸਰਕਾਰਾਂ ਦੀ ਇਹ ਜ਼ਿੰਮੇਵਾਰੀ ਹੈ ਕਿ ਆਪਣੇ ਸੈਨਿਕਾਂ ਦੀ ਜਾਨ ਬਚਾਉਣ ਲੀ ਉਹ ਅਜਿਹੇ ਸਿਸਟਮ ਵਿਕਸਿਤ ਕਰਨ।''
ਪਰ ਟੌਮ ਸੁਚੇਤ ਕਰਦੇ ਹਨ ਕਿ ਇਸ ਤਕਨੀਕ ਦੇ ਖ਼ਤਰੇ ਵੀ ਹਨ।
ਬੀਬੀਸੀ ਪੰਜਾਬੀ ਨੂੰ ਆਪਣੇ ਐਂਡਰਾਇਡ ਫ਼ੋਨ 'ਤੇ ਇੰਝ ਲੈ ਕੇ ਆਓ:
https://www.youtube.com/watch?v=xWw19z7Edrs
ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਬਿਨਾ ਟੈਸਟ ਕੀਤੇ ਹੋਏ ਸਿਸਟਮ ਨੂੰ ਮੋਰਚੇ 'ਤੇ ਲਗਾਉਣਾ ਕਿਸੇ ਤਬਾਹੀ ਨੂੰ ਸੱਦਾ ਦੇਣ ਵਰਗਾ ਹੈ।"
ਮਸ਼ੀਨ ਕਰ ਸਕਦੀ ਹੈ ਗ਼ਲਤੀ!
ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ, ''ਇਹ ਡਰ ਬਣਿਆ ਰਹਿੰਦਾ ਹੈ ਕਿ ਤਕਨੀਕ ਗ਼ਲਤ ਫ਼ੈਸਲੇ ਲੈ ਸਕਦੀ ਹੈ। ਇਹ ਅਜਿਹੇ ਲੋਕਾਂ ਦੀ ਜਾਨ ਲੈ ਸਕਦੀ ਹੈ, ਜਿਨ੍ਹਾਂ ਦੀ ਜਾਨ ਨਹੀਂ ਜਾਣੀ ਚਾਹੀਦੀ। ਇਸ ਬਾਰੇ ਵਿੱਚ ਜ਼ਿਕਰ ਕਰਨਾ ਸਹੀ ਵੀ ਹੈ। ਜੇ ਸੈਨਿਕ ਇੱਕ ਇਨਸਾਨ ਹੋਵੇ ਤਾਂ ਆਪਣੇ ਨਿਸ਼ਾਨੇ ਅਤੇ ਮਸੂਮ ਲੋਕਾਂ ਦਰਮਿਆਨ ਫ਼ਰਕ ਕਰਨ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਉਸਦੀ ਹੁੰਦੀ ਹੈ। ਪਰ ਇੱਕ ਮਸ਼ੀਨ ਹਮੇਸ਼ਾਂ ਕਾਮਯਾਬੀ ਦੇ ਨਲਾ ਅਜਿਹਾ ਅੰਦਰ ਨਹੀਂ ਕਰ ਸਕੇਗੀ।''
ਉਹ ਅੱਗੇ ਕਹਿੰਦੇ ਹਨ, '' ਹੁਣ ਸਵਾਲ ਹੈ ਕਿ ਇਸ ਨੂੰ ਲੈ ਕੇ ਕਿੰਨਾ ਖ਼ਤਰਾ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਕੁਝ ਲੋਕ ਕਹਿਣਗੇ ਕਿ ਜੋਖ਼ਮ ਦੀ ਗੁੰਜਾਇਸ਼ ਨਾ ਦੇ ਬਰਾਬਰ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ। ਮੈਂ ਇਸ ਵਿਚਾਰ ਨਾਲ ਸਹਿਮਤ ਨਹੀਂ ਹਾਂ। ਮੇਰੀ ਰਾਇ ਵਿੱਚ ਤਕਨੀਕ ਨੂੰ ਉਸੇ ਸਮੇਂ ਇਸਤੇਮਾਲ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਜਦੋਂ ਉਸ ਦੇ ਇਸਤੇਮਾਲ ਨਾਲ ਜੰਗ ਵਿੱਚ ਹਿੱਸਾ ਨਾ ਲੈ ਰਹੇ ਨਾਗਰਿਕਾਂ ਨੂੰ ਇਨਸਾਨੀ ਸੈਨਾ ਦੇ ਮੁਕਾਬਲੇ ਘੱਟ ਖ਼ਤਰਾ ਹੋਵੇ।''
ਟੌਮ ਦੀ ਰਾਇ ਵਿੱਚ ਜੰਗ ਦੇ ਕੁਝ ਮੋਰਚੇ ਅਜਿਹੇ ਵੀ ਹਨ ਜਿੱਥੇ ਜ਼ਿਆਦਾ ਜੋਖ਼ਮ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ।
ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ''ਤੁਸੀਂ ਅਜਿਹੀ ਸਥਿਤੀ ਦੀ ਕਲਪਨਾ ਕਰੋ ਜਿੱਥੇ ਇੱਕ ਫ਼ਾਈਟਰ ਪਲੇਨ ਵਿੱਚ ਇੱਕ ਪਾਇਲਟ ਹੈ ਅਤੇ ਉਨ੍ਹਾਂ ਦੇ ਕੋਲ 20 ਜਾਂ 30 ਆਟੋਮੈਟਿਕ ਸਿਸਟਮ ਹਨ।
ਉਹ ਅਸਮਾਨ ਵਿੱਚ ਜਿਸ ਜਗ੍ਹਾ ਹੈ, ਉਥੇ ਦੁਸ਼ਮਣ ਤੋਂ ਇਲਾਵਾ ਹੋਰ ਕੋਈ ਨਹੀਂ ਹੈ। ਤੁਸੀਂ ਦੇਖੋਂਗੇ ਕਿ ਅਜਿਹੀ ਜਗ੍ਹਾ ਸਵੈਚਾਲਕ ਸਿਸਟਮ ਕਿਸ ਤਰ੍ਹਾਂ ਸਫ਼ਲਤਾ ਨਾਲ ਵਾਰ ਕਰਦਾ ਹੈ। ਇਹ ਸੁਰੱਖਿਅਤ ਵੀ ਹੈ ਕਿਉਂਕਿ ਇੱਥੇ ਕੋਈ ਸਿਵੀਲੀਅਨ ਯਾਨੀ ਆਮ ਨਾਗਰਿਕ ਨਹੀਂ ਹਨ।"
ਸਵੈਚਾਲਕ ਰੋਬੋਟ ਤਾਇਨਾਤ ਕਰਨ ਦੇ ਪੱਖ ਵਿੱਚ ਇੱਕ ਹੋਰ ਤਰਕ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਜ਼ਿਆਦਾਤਰ ਰਸਮੀ ਹੈ। ਟੌਮ ਕਹਿੰਦੇ ਹਨ ਕਿ ਜਿੰਨ ਬੋਤਲ ਵਿੱਚੋਂ ਬਾਹਰ ਆ ਚੁੱਕਿਆ ਹੈ। ਜੇ ਤੁਸੀਂ ਅਜਿਹੇ ਹਥਿਆਰ ਨਹੀਂ ਬਣਾਉਂਦੇ ਤਾਂ ਨਾ ਬਣਾਓ ਤੁਹਾਡੇ ਦੁਸ਼ਮਣ ਤਾਂ ਬਣਾਉਣਗੇ ਹੀ।
ਟੌਮ ਦੀ ਰਾਇ ਵਿੱਚ ਜੰਗ ਦੇ ਕੁਝ ਮੋਰਚੇ ਅਜਿਹੇ ਵੀ ਹਨ ਜਿੱਥੇ ਜ਼ਿਆਦਾ ਜੋਖ਼ਮ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ
ਕੀ ਹੋਵੇਗੀ ਰਣਨੀਤੀ?
ਟੌਮ ਸਿਮਪਸਨ ਕਹਿੰਦੇ ਹਨ, "ਜਦੋਂ ਅਜਿਹੇ ਹਥਿਆਰਾਂ 'ਤੇ ਪਾਬੰਦੀ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਫ਼ਿਰ ਸਵੈ ਕਾਬੂ ਦੀ ਵਕਾਲਤ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਤਾਂ ਇਹ ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ 20 ਸਾਲ ਬਾਅਦ ਕਿਸ ਤਰ੍ਹਾਂ ਦੀ ਹੋਵੇਗੀ?"
ਉਹ ਅੱਗੇ ਕਹਿੰਦੇ ਹਨ, "ਕੁਝ ਅਜਿਹੇ ਦੇਸ ਹੋਣਗੇ ਜਿਨ੍ਹਾਂ ਕੋਲ ਇਸ ਤਰ੍ਹਾਂ ਦੀ ਸਵੈਚਾਲਕ ਪ੍ਰਣਾਲੀ ਹੋਵੇਗੀ ਅਤੇ ਸਾਡੀ ਸੈਨਾ ਕੋਲ ਬਚਾਅ ਲਈ ਅਜਿਹੀ ਸਮਰੱਥਾ ਨਹੀਂ ਹੋਵੇਗੀ। ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਉਸ ਸਥਿਤੀ ਵਿੱਚ ਲੋਕ ਸਰਕਾਰਾਂ ਨੂੰ ਕਹਿਣਗੇ ਕਿ ਸਵੈਕਾਬੂ ਦਾ ਫ਼ੈਸਲਾ ਗ਼ਲਤ ਸੀ। ਸਰਕਾਰ ਦਾ ਪਹਿਲਾ ਫ਼ਰਜ਼ ਦੇਸ ਨੂੰ ਸੁਰੱਖਿਅਤ ਕਰਨ ਦਾ ਹੈ। ਜੋ ਜ਼ਿੰਮੇਵਾਰ ਸਰਕਾਰਾਂ ਹਨ ਉਹ 'ਨੋ ਫ਼ਸਟ ਯੂਜ਼ ਪਾਲਿਸੀ' ਯਾਨੀ ਅਜਿਹੇ ਹਥਿਆਰਾਂ ਦਾ ਪਹਿਲਾਂ ਇਸਤੇਮਾਲ ਨਾ ਕਰਨ ਦੀ ਨੀਤੀ ਅਪਣਾ ਸਕਦੀਆਂ ਹਨ।"
ਇਹ ਉਹ ਹੀ ਰਣਨੀਤੀ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਵੀਹਵੀਂ ਸਦੀ ਦੀ ਪਰਮਾਣੂ ਹਥਿਆਰਾਂ ਦੀ ਹੋੜ ਯਾਦ ਦਵਾ ਸਕਦੀ ਹੈ।
ਪਰ ਇੱਕ ਹੋਰ ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਂਦਾ ਹੈ ਕਿ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਨੂੰ ਅਜਿਹਾ ਹੀ ਹਥਿਆਰ ਬਣਾਉਣ ਦੀ ਲੋੜ ਕਿਉਂ ਹੈ?
ਇਸ ਸਵਾਲ ਦੇ ਜਵਾਬ ਵਿੱਚ ਟੌਮ ਕਹਿੰਦੇ ਹਨ, "ਚਲੋ ਇੱਕ ਅਜਿਹੇ ਸਿਸਟਮ ਦੀ ਗੱਲ ਕਰਦੇ ਹਾਂ ਜਿਸ ਵਿੱਚ ਨੈਨੋ ਜਾਂ ਫ਼ਿਰ ਮਾਈਕਰੋ ਤਕਨੀਕ ਦਾ ਇਸਤੇਮਾਲ ਹੋਇਆ ਹੈ ਅਤੇ ਉਸ ਦੇ ਜ਼ਰੀਏ ਇੱਕ ਇਲਾਕੇ ਵਿੱਚ 20 ਤੋਂ 50 ਹਜ਼ਾਰ ਤੱਕ ਉਪਕਰਣ ਤਾਇਨਾਤ ਹਨ। ਇਸ ਸਥਿਤੀ ਵਿੱਚ ਅਜਿਹਾ ਕੋਈ ਤਰੀਕਾ ਨਹੀਂ ਹੈ ਕਿ ਕੋਈ ਇਨਸਾਨ ਯਾਂ ਫ਼ਿਰ ਇਨਸਾਨਾਂ ਦਾ ਦਸਤਾ ਉਸਦਾ ਮੁਕਾਬਲਾ ਕਰ ਸਕੇ।"
ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਉਸ ਦੇ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਡੇ ਕੋਲ ਚਾਹੇ ਇਕਦਮ ਉਸ ਤਰ੍ਹਾਂ ਦਾ ਸਿਸਟਮ ਨਾ ਹੋਵੇ ਪਰ ਤੁਹਾਨੂੰ ਕਿਸੇ ਤਰ੍ਹਾਂ ਦੇ ਆਟੋਮੈਟਿਕ ਸਿਸਟਮ ਦੀ ਲੋੜ ਹੋਵੇਗੀ।"
ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਂਦਾ ਹੈ ਕਿ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਨੂੰ ਅਜਿਹਾ ਹੀ ਹਥਿਆਰ ਬਣਾਉਣ ਦੀ ਲੋੜ ਕਿਉਂ ਹੈ?
ਪਾਬੰਦੀ ਦੀ ਮੰਗ
ਟੌਮ ਕਹਿੰਦੇ ਹਨ ਕਿ ਅਜਿਹੇ ਸਿਸਟਮ ਜ਼ਰੀਏ ਹੀ ਸਾਹਮਣੇ ਮੋਜੂਦ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਪਰ ਸਾਫ਼ਟਵੇਅਰ ਇੰਜੀਨੀਅਰ ਲੌਰਾ ਨੋਲੈਨ ਵੱਖਰੀ ਰਾਇ ਰੱਖਦੇ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਕੁਝ ਲੋਕ ਅਜਿਹਾ ਸੋਚਦੇ ਹਨ ਕਿ ਭਵਿੱਖ ਵਿੱਚ ਜੰਗ ਰੋਬੋਟਾਂ ਦਰਮਿਆਨ ਹੋਵੇਗੀ। ਰੋਬੋਟ ਸੈਨਿਕ ਲੜਨਗੇ ਤਾਂ ਅਜਿਹੀ ਜੰਗ ਵਿੱਚ ਖ਼ੂਨ ਨਹੀਂ ਵਹੇਗਾ। ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਇਹ ਇੱਕ ਆਦਰਸ਼ਵਾਦੀ ਕਲਪਨਾ ਹੈ। ਅਸੀਂ ਜ਼ਿਆਦਾਤਰ ਮੌਕਿਆਂ 'ਤੇ ਅਜਿਹੀ ਸਥਿਤੀ ਦੇਖਾਂਗੇ ਕਿ ਇੰਨਾਂ ਮਸ਼ੀਨਾਂ ਨੂੰ ਇਨਸਾਨਾਂ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤਾਇਨਾਤ ਕੀਤਾ ਗਿਆ ਹੈ ਇਹ ਕਾਫ਼ੀ ਦਰਦਨਾਕ ਸਥਿਤੀ ਹੋਵੇਗੀ।"
ਲੌਰਾ ਨੋਲੈਨ ਟੇਕ ਕੰਪਨੀ 'ਗੂਗਲ' ਨਾਲ ਕੰਮ ਕਰਦੇ ਸਨ। ਸਾਲ 2017 ਵਿੱਚ ਉਨ੍ਹਾਂ ਨੂੰ ਅਮਰੀਕੀ ਸੁਰੱਖਿਆ ਵਿਭਾਗ ਦੇ ਨਾਲ ਇੱਕ ਪ੍ਰੋਜੈਕਟ 'ਤੇ ਕੰਮ ਕਰਨ ਲਈ ਕਿਹਾ ਗਿਆ।
ਇਸ ਪ੍ਰੋਜੈਕਟ ਵਿੱਚ ਡਰੋਨ ਨਾਲ ਲਏ ਗਏ ਵੀਡੀਓ ਫ਼ੁਟੇਜ਼ ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰਨ ਵਾਲੇ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸਿਸਟਮ ਵਿਕਸਿਤ ਕਰਨੇ ਸਨ। ਇਹ ਹਥਿਆਰ ਵਿਕਸਿਤ ਕਰਨ ਦਾ ਪ੍ਰੋਜੈਕਟ ਨਹੀਂ ਸੀ।
ਪਰ ਲੌਰਾ ਇਸ ਨੂੰ ਲੈ ਕਿ ਫ਼ਿਕਰਮੰਦ ਸਨ। ਉਨ੍ਹਾਂ ਨੂੰ ਲੱਗਦਾ ਸੀ ਕਿ ਉਹ ਇੱਕ ਅਜਿਹੀ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਤਕਨੀਕ ਦਾ ਹਿੱਸਾ ਹਨ ਜਿਸਦਾ ਰਸਤਾ ਕਿਤੇ ਨਾ ਕਿਤੇ ਜੰਗ ਵੱਲ ਜਾਂਦਾ ਹੈ।
ਉਨ੍ਹਾਂ ਨੇ ਇਸਦੇ ਵਿਰੋਧ ਵਿੱਚ ਅਸਤੀਫ਼ਾ ਦੇ ਦਿੱਤਾ। ਇਸ ਦੇ ਬਾਅਦ ਉਹ ''ਕਿਲਰ ਰੋਬੇਟ'' ਨੂੰ ਰੋਕਣ ਲਈ ਇੱਕ ਮੁਹਿੰਮ ਵਿੱਚ ਲੱਗ ਗਏ।
ਉਨ੍ਹਾਂ ਦੀ ਰਾਇ ਵਿੱਚ ਅਜਿਹੇ ਹਥਿਆਰਾਂ ਦੇ ਮੂਲ ਵਿੱਚ ਸਮੱਸਿਆ ਇਹ ਹੈ ਕਿ ਕੰਪਿਊਟਰ ਅਤੇ ਇਨਸਾਨਾਂ ਦੇ ਸੋਚਣ ਦਾ ਤਰੀਕਾ ਵੱਖਰਾ ਹੁੰਦਾ ਹੈ।
ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ, ''ਕੰਪਿਊਟਰ ਗਣਨਾ ਕਰਦੇ ਹਨ ਜਦੋਂ ਕਿ ਇਨਸਾਨ ਵਿੱਚ ਪਰਖ਼ ਕਰਕੇ ਫ਼ੈਸਲਾ ਲੈਣ ਦੀ ਖ਼ਾਸੀਅਤ ਹੁੰਦੀ ਹੈ। ਗਣਨਾ ਠੋਸ ਅੰਕੜਿਆਂ 'ਤੇ ਅਧਾਰਤ ਹੈ।ਜਦੋਂ ਕਿ ਪਰਖ਼ਕੇ ਫ਼ੈਸਲਾ ਲੈਂਦੇ ਸਮੇਂ, ਬਹੁਤ ਸਾਰੀਆਂ ਚੀਜ਼ਾਂ ਵੱਲ ਧਿਆਨ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ।''
ਉਹ ਕਹਿੰਦੇ ਹਨ, '' ਜੇ ਅਸੀਂ ਉਦਾਹਰਣ ਦੇ ਕੇ ਸਮਝਾਈਏ ਤਾਂ ਸਾਡੇ ਵਿੱਚੋਂ ਬਹੁਤੇ ਲੋਕ ਕਿਸੇ ਅਦਾਲਤ ਵਿੱਚ ਕਿਸੇ ਰੋਬੋਟ ਜੱਜ ਦੇ ਸਾਹਮਣੇ ਆਉਣਾ ਪਸੰਦ ਨਹੀਂ ਕਰਨਗੇ ਜੋ ਕਾਨੂੰਨ ਨੂੰ ਇੱਕ ਖ਼ਾਸ ਤਰੀਕੇ ਨਾਲ ਲਾਗੂ ਕਰਦਾ ਹੋਵੇ।''
ਤਕਨੀਕ ਦੀਆਂ ਸਮੱਸਿਆਵਾਂ
ਦਿੱਕਤ ਇਹ ਹੈ ਕਿ ਜੰਗ ਦੇ ਮੈਦਾਨ ਦਾ ਕੋਈ ਵੀ ਇਲਾਕਾ ਅਜਿਹਾ ਹੋਵੇ ਜਿੱਥੇ ਸਿਵੀਲਅਨਜ਼ ਦੀ ਆਬਾਦੀ ਯਾਨੀ ਆਮ ਨਾਗਰਿਕ ਹੋਵੇ, ਉਹ ਸੰਘਰਸ਼ ਦੇ ਲਿਹਾਜ਼ ਨਾਲ ਬਹੁਤ ਗੁੰਝਲਦਾਰ ਖੇਤਰ ਹੁੰਦਾ ਹੈ। ਉਥੇ ਕਾਫ਼ੀ ਮੁਸ਼ਕਲ ਫੈਸਲੇ ਲੈਣੇ ਹੁੰਦੇ ਹਨ ਜਿਨ੍ਹਾਂ ਲਈ ਸਹੀ ਪਰਖ਼ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।
ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ ਕਿ ਮਸ਼ੀਨ ਦੇ ਸਾਫ਼ਟਵੇਅਰ ਨੂੰ ਜਿੰਨਾਂ ਹਾਲਾਤ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਡਿਜ਼ਾਈਨ ਕੀਤਾ ਗਿਆ ਹੁੰਦਾ ਹੈ, ਜੇ ਉਨ੍ਹਾਂ ਤੋਂ ਅਲੱਗ ਸਥਿਤੀਆਂ ਸਾਹਮਣੇ ਆਉਂਦੀਆਂ ਹਨ ਤਾਂ ਹਾਲਾਤ ਬਹੁਤ ਹੀ ਅਨਿਸ਼ਚਿਤ ਜਿਹੇ ਹੋ ਸਕਦੇ ਹਨ।
ਜਦੋਂ ਕਿ ਇਨਸਾਨ ਪ੍ਰੀਸਿਥੀਤੀਆਂ ਦੇ ਮੁਤਬਾਕ ਖ਼ੁਦ ਨੂੰ ਢਾਲਕੇ ਫ਼ੈਸਲਾ ਲੈ ਸਕਦੇ ਹਨ। ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਬਗ਼ੈਰ ਡਰਾਈਵਰ ਦੀ ਤਕਨੀਕ ਵਿੱਚ ਅਜਿਹੀ ਹੀ ਦਿੱਕਤ ਨਜ਼ਰ ਆਉਂਦੀ ਹੈ।
ਸਾਲ 2018 ਵਿੱਚ ਅਮਰੀਕਾ ਵਿੱਚ ਊਬਰ ਦੀ ਇੱਕ ਸਵੈਚਾਲਕ ਕਾਰ ਟੈਸਟਿੰਗ ਦੌਰਾਨ ਸਾਈਕਲ 'ਤੇ ਕੋਲੋਂ ਲੰਘ ਰਹੀ ਇੱਕ ਔਰਤ ਨਾਲ ਟਕਰਾ ਗਈ ਸੀ। ਇਸ ਹਾਦਸੇ ਵਿੱਚ ਔਰਤ ਦੀ ਮੌਤ ਹੋ ਗਈ ਸੀ।
ਜਾਂਚ ਵਿੱਚ ਪਾਇਆ ਗਿਆ ਕਿ ਕਾਰ ਦਾ ਸਿਸਟਮ ਔਰਤ ਅੇਤ ਸਾਇਕਲ ਨੂੰ ਅਜਿਹੇ ਸੰਭਾਵਿਤ ਖ਼ਤਰੇ ਦੇ ਤੌਰ 'ਤੇ ਪਛਾਣ ਨਹੀਂ ਸਕਿਆ ਜਿਸ ਨਾਲ ਕਾਰ ਟਕਰਾ ਸਕਦੀ ਹੈ।
ਲੌਰਾ ਦਾ ਤਰਕ ਹੈ ਕਿ ਆਟੋਨਮਸ ਹਥਿਆਰਾਂ ਦੇ ਮਾਮਲੇ ਵਿੱਚ ਸਥਿਤੀਆਂ ਹੋਰ ਵੀ ਜ਼ਿਆਦਾ ਗੁੰਝਲਦਾਰ ਹੋ ਸਕਦੀਆਂ ਹਨ। ਕਿਉਂਕਿ ਜੰਗ ਆਪਣੇ ਆਪ ਵਿੱਚ ਇੱਕ ਗੁੰਝਲਦਾਰ ਸਥਿਤੀ ਹੁੰਦੀ ਹੈ। ਲੌਰਾ ਮੁਤਾਬਕ ਇਥੇ ਜਵਾਬਦੇਹੀ ਨਾਲ ਜੁੜਿਆ ਸਵਾਲ ਵੀ ਸਾਹਮਣੇ ਆਉਂਦਾ ਹੈ।
ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਜੇ ਆਟੋਨੋਮਸ ਹਥਿਆਰ ਨਾਲ ਅਜਿਹਾ ਕੁਝ ਹੋ ਜਾਵੇ ਜਿਸ ਨਾਲ ਯੁੱਧ ਅਪਰਾਧ ਦੀ ਸ਼੍ਰੇਣੀ ਵਿੱਚ ਰੱਖਿਆ ਜਾਵੇ ਤਾਂ ਜਵਾਬਦੇਹੀ ਕਿਸ ਦੀ ਹੋਵਗੀ? ਕੀ ਜਵਾਬਦੇਹੀ ਉਸ ਕਮਾਂਡਰ ਦੀ ਹੋਵੇਗੀ ਜਿਸ ਨੇ ਹਥਿਆਰ ਤਾਇਨਾਤ ਕਰਨ ਦਾ ਹੁਕਮ ਦਿੱਤਾ।"
ਸ਼ਾਇਦ ਨਹੀਂ ਕਿਉਂਕਿ ਟ੍ਰੇਨਿੰਗ ਦੌਰਾਨ ਹਥਿਆਰ ਨੇ ਅਜਿਹਾ ਕੁਝ ਨਾ ਕੀਤਾ ਹੋਵੇ। ਅਜਿਹਾ ਹੋਣ ਦੀ ਕਲਪਨਾ ਸ਼ਾਇਦ ਇੰਜੀਨੀਅਰਾਂ ਨੇ ਵੀ ਨਾ ਕੀਤੀ ਹੋਵੇ। ਅਜਿਹੀ ਸਥਿਤੀ ਵਿੱਚ ਇੰਜੀਨੀਅਰਾਂ ਦੀ ਜਵਾਬਦੇਹੀ ਤੈਅ ਕਰਨਾ ਵੀ ਔਖਾ ਹੋਵੇਗਾ।"
ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ ਕਿ ਉਨ੍ਹਾਂ ਦੀ ਸਮਝ ਵਿੱਚ ਇੰਨਾਂ ਹਥਿਆਰਾਂ 'ਤੇ ਹਰ ਹਾਲ ਵਿੱਚ ਪਾਬੰਦੀ ਲਗਾਈ ਜਾਣੀ ਚਾਹੀਦੀ ਹੈ।
ਫ਼ਲੈਸ਼ ਕ੍ਰੈਸ਼ ਯਾਨੀ ਅਚਾਨਕ ਤੇਜ਼ੀ ਨਾਲ ਹੋਣ ਵਾਲੀ ਗਿਰਾਵਟ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਇਨਸਾਨ ਕੋਈ ਦਖ਼ਲ ਨਹੀਂ ਦੇ ਸਕਦਾ
ਖ਼ਤਰੇ ਹੀ ਖ਼ਤਰੇ
ਉੱਧਰ, ਸੈਂਟਰ ਫ਼ਾਰ ਨਿਊ ਅਮੈਰੀਕਨ ਸਕਿਊਰਿਟੀ ਵਿੱਚ ਡਾਇਰੈਕਟਰ ਆਫ਼ ਤਕਨੀਕ ਪੌਲ ਸ਼ੌਰੀ ਅਜਿਹੀ ਤਕਨੀਕ ਨਾਲ ਜੁੜੇ ਵੱਖਰੇ ਪਰ ਗੰਭੀਰ ਸਵਾਲ ਖੜੇ ਕਰਦੇ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਵਿਕਾਸ ਦੇ ਨਾਲ ਤਕਨੀਕ ਸਾਨੂੰ ਅਜਿਹੇ ਰਾਹ 'ਤੇ ਲਾ ਜਾ ਰਹੀ ਹੈ ਜਿੱਥੇ ਜ਼ਿੰਦਗੀ ਅਤੇ ਮੌਤ ਨਾ ਜੁੜੇ ਫ਼ੈਸਲੇ ਮਸ਼ੀਨਆਂ ਦੇ ਹਵਾਲੇ ਹੋ ਜਾਣਗੇ ਅਤੇ ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਇਨਸਾਨੀਅਤ ਦੇ ਸਾਹਮਣੇ ਇਹ ਇੱਕ ਗੰਭੀਰ ਸਵਾਲ ਹੈ।"
ਪੌਲ ਪੈਂਟਾਗਨ ਵਿੱਚ ਪਾਲਿਸੀ ਐਨਾਲਿਸਟ ਰਹਿ ਚੁੱਕੇ ਹਨ। ਉਨ੍ਹਾਂ ਨੇ ਕਿਤਾਬ ਵੀ ਲਿਖੀ ਹੈ, 'ਆਰਮੀ ਆਫ਼ ਨਨ, ਆਟੋਨੋਮਸ ਵੈਪਨਸ ਐਂਡ ਦਾ ਫ਼ਿਊਚਰ ਆਫ਼ ਵਾਰ'। ਕੀ ਭਵਿੱਖ ਦੀ ਜੰਗ ਵਿੱਚ ਜ਼ਿੰਦਗੀ ਅਤੇ ਮੌਤ ਨਾਲ ਜੁੜੇ ਫ਼ੈਸਲੇ ਰੋਬੋਟ ਕਰਨਗੇ, ਇਸ ਸਵਾਲ ਦੇ ਜਵਾਬ ਵਿੱਚ ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਹਾਲੇ ਵੀ ਅਜਿਹੀਆਂ ਮਸ਼ੀਨਾਂ ਮੋਜੂਦ ਹਨ।
ਪੌਲ ਕਹਿੰਦੇ ਹਨ ਕਿ ਪਹਿਲਾਂ ਤੋਂ ਕੀਤੀ ਗਈ ਪ੍ਰੋਗਰਾਮਿੰਗ ਜ਼ਰੀਏ ਡਰੋਨ ਖ਼ੁਦ ਹੀ ਉਡਾਨ ਭਰਦੇ ਹਨ। ਉਹ ਇਹ ਵੀ ਕਹਿੰਦੇ ਹਨ ਕਿ ਰੋਬੋਟ ਦੇ ਕੋਲ ਕਦੀ ਵੀ ਇੰਨੀ ਬੌਧਿਕ ਸਮਰੱਥਾ ਨਹੀਂ ਹੋ ਸਕਦੀ ਕਿ ਉਹ ਜੰਗ ਦੇ ਨਾਲ ਜੁੜੇ ਰਣਨੀਤਿਕ ਅਤੇ ਜ਼ਮੀਨੀ ਖ਼ਤਰਿਆਂ ਨੂੰ ਸਮਝ ਸਕੇ।
ਪੌਲ ਸ਼ਾਰੀ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਹਾਲ ਹੀ ਵਿੱਚ ਕੁਝ ਸਥਿਤੀਆਂ ਸਾਹਮਣੇ ਆਈਆਂ ਹਨ। ਸੀਰੀਆ ਦੇ ਅਸਮਾਨ ਵਿੱਚ ਉਡਾਣ ਭਰਦੇ ਰੂਸ ਅਤੇ ਅਮਰੀਕਾ ਦੇ ਲੜਾਕੂ ਜਹਾਜ਼ ਜੋ ਜ਼ਮੀਨ 'ਤੇ ਅਭਿਆਸ ਕਰ ਰਹੀਆਂ ਸੈਨਿਕਾਂ ਦੀ ਮਦਦ ਕਰ ਰਹੇ ਸਨ। ਬੀਤੇ ਸਾਲ ਚੀਨ ਅਤੇ ਭਾਰਤ ਦੀਆਂ ਸੈਨਾਵਾਂ ਦਰਮਿਆਨ ਹੋਈ ਝੜਪ। ਇਸ ਤਰ੍ਹਾਂ ਦੇ ਸੈਨਿਕ ਵਿਵਾਦਾਂ ਦਰਮਿਆਨ ਜੇ ਆਟੋਨੋਮਸ ਹਥਿਆਰ ਤਾਇਨਾਤ ਹੋਣ ਤਾਂ ਵੱਡੇ ਜੋਖ਼ਮ ਦਾ ਡਰ ਰਹਿੰਦਾ ਹੈ। ਜੇ ਅਜਿਹੇ ਹਥਿਆਰ ਗ਼ਲਤ ਜਗ੍ਹਾ ਨਿਸ਼ਾਨਾ ਲਗਾਉਂਦੇ ਹਨ ਤਾਂ ਜੰਗ ਜ਼ਿਆਦਾ ਭੜਕ ਸਕਦੀ ਹੈ।"
ਪੌਲ ਇਹ ਵੀ ਕਹਿੰਦੇ ਹਨ ਕਿ ਸਕਾਟ ਮਾਰਕਿਟ ਵਿੱਚ ਸੁਪਰ ਹਿਊਮਨ ਦੀ ਰਫ਼ਤਾਰ ਵਿੱਚ ਸ਼ੇਅਰ ਖ਼ਰੀਦਨ ਅਤੇ ਵੇਚਣ ਲਈ ਕੰਪਿਊਟਰ ਦਾ ਇਸਤੇਮਾਲ ਹੁੰਦਾ ਹੈ। ਸਭ ਨੇ ਇਸਦੇ ਜੋਖ਼ਮ ਨੂੰ ਦੇਖਿਆ ਹੈ।
ਫ਼ਲੈਸ਼ ਕ੍ਰੈਸ਼ ਯਾਨੀ ਅਚਾਨਕ ਤੇਜ਼ੀ ਨਾਲ ਹੋਣ ਵਾਲੀ ਗਿਰਾਵਟ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਇਨਸਾਨ ਕੋਈ ਦਖ਼ਲ ਨਹੀਂ ਦੇ ਸਕਦਾ ਕਿਉਂਕਿ ਮਸ਼ੀਨਾਂ ਇਹ ਸਭ ਕੁਝ ਮਿਲੀਸੈਕਿੰਡ ਜਿੰਨੇ ਘੱਟ ਸਮੇਂ ਵਿੱਚ ਕਰ ਦਿੰਦੀਆਂ ਹਨ।
ਅਜਿਹਾ ਹੀ ਜੰਗ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਵੀ ਹੋ ਸਕਦਾ ਹੈ। ਪਲਕ ਝਪਕਣ ਦੀ ਦੇਰੀ ਵਿੱਚ ਦੋ ਪੱਖਾਂ ਦੀਆਂ ਮਸ਼ੀਨਾ ਦਰਮਿਆਨ ਗੋਲੀਬਾਰੀ ਦੇਖਣ ਨੂੰ ਮਿਲ ਸਕਦੀ ਹੈ। ਸਥਿਤੀਆਂ ਉਸ ਸਮੇਂ ਹੋਰ ਵੀ ਭਿਆਨਕ ਹੋ ਸਕਦੀਆਂ ਹਨ ਜਦੋਂ ਦੁਸ਼ਮਣ ਤੁਹਾਡੇ ਹਥਿਆਰਾਂ ਦਾ ਮੂੰਹ ਤੁਹਾਡੇ ਵੱਲ ਹੀ ਮੋੜ ਦੇਵੇ।
ਪੌਲ ਕਹਿੰਦੇ ਹਨ, "ਅਜਿਹਾ ਬਿਲਕੁਲ ਹੋ ਸਕਦਾ ਹੈ। ਕਿਸੇ ਵੀ ਚੀਜ਼ ਨੂੰ ਹੈਕ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਸੈਨਾ ਵੀ ਉਸੇ ਤਰ੍ਹਾਂ ਦੇ ਅਸੁਰੱਖਿਅਤ ਕੰਪਿਊਟਰਾਂ ਦਾ ਇਸਤੇਮਾਲ ਕਰਦੀ ਹੈ ਜਿਸ ਤਰ੍ਹਾਂ ਦੇ ਸਾਰੇ ਲੋਕ ਕਰਦੇ ਹਨ। ਖ਼ੁਦ ਚਲਣ ਵਾਲੀਆਂ ਕਾਰਾਂ ਹੈਕ ਕੀਤੀਆਂ ਜਾ ਚੁੱਕੀਆਂ ਹਨ।"
"ਅਸੀਂ ਇਹ ਦੇਖ ਚੁੱਕੇ ਹਾਂ ਕਿ ਹੈਕਰਸ ਦੂਰ ਬੈਠਕੇ ਵੀ ਕਾਰ ਦਾ ਸਟੇਅਰਿੰਗ ਅਤੇ ਬ੍ਰੇਕ ਕਾਬੂ ਕਰ ਸਕਦੇ ਹਨ। ਪਰ ਜੇ ਕੋਈ ਹੈਕਰ ਹਥਿਆਰਾਂ 'ਤੇ ਕਾਬੂ ਕਰ ਲੈਂਦਾ ਹੈ ਤਾਂ ਨੁਕਸਾਨ ਕਾਫ਼ੀ ਜ਼ਿਆਦਾ ਹੋ ਸਕਦਾ ਹੈ।"
ਪੌਲ ਕਹਿੰਦੇ ਹਨ ਕਿ 'ਕਿਲਰ ਰੋਬੋਟ' ਨਾਲ ਜੁੜੇ ਕੁਝ ਹੋਰ ਸਵਾਲ ਵੀ ਹਨ।
ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਮੰਨ ਲੈਂਦੇ ਹਾਂ ਕਿ ਮਸ਼ੀਨਾਂ ਸਹੀ ਜਗ੍ਹਾ ਨਿਸ਼ਾਨਾਂ ਲਗਾਉਂਦੀਆਂ ਹਾਨ ਤਾਂ ਵੀ ਜਾਨ ਦਾ ਨੁਕਸਾਨ ਹੋਵੇਗਾ ਉਸ ਲਈ ਕੋਈ ਇਨਸਾਨ ਜਵਾਬਦੇਹ ਨਹੀਂ ਹੋਵੇਗਾ।
'ਸਵਾਲ ਇਹ ਵੀ ਹੈ ਕਿ ਜੇ ਕੋਈ ਜੰਗ ਦਾ ਬੋਝ ਆਪਣੇ ਮੋਢਿਆਂ 'ਤੇ ਨਹੀਂ ਲੈਂਦਾ ਤਾਂ ਅਸੀਂ ਸਮਾਜ ਵਿੱਚ ਕੀ ਕਹਾਂਗੇ? ਅਸੀਂ ਇਨਸਾਨ ਨੂੰ ਕੀ ਜਵਾਬ ਦੇਵਾਂਗੇ?'
ਇੰਨਾਂ ਤੈਅ ਹੈ ਕਿ ਅੱਜ ਜੰਗ ਵਿੱਚ ਹਿੱਸਾ ਲੈ ਰਹੀਆਂ ਮਸ਼ੀਨਾਂ ਦੀ ਅੱਗੇ ਵੀ ਭੂਮਿਕਾ ਬਣੀ ਰਹੇਗੀ।
ਸਵੈਚਾਲਕ ਰੋਬੋਟਸ ਦੇ ਕੋਲ ਉੰਨੇ ਹੀ ਅਧਿਕਾਰ ਹੋਣਗੇ ਜਿੰਨੇ ਅਸੀਂ ਉਨ੍ਹਾਂ ਨੂੰ ਦੇਵਾਂਗੇ
ਪਰ ਕੀ ਅਸੀਂ ਤਕਨੀਕ ਦੀਆਂ ਹੱਦਾਂ ਸਮਝ ਸਕਾਂਗੇ?
ਮਸ਼ੀਨਾਂ ਨੂੰ ਫ਼ੈਸਲਾ ਲੈਣ ਦੇ ਕਿੰਨੇ ਅਧਿਕਾਰ ਦਿੱਤੇ ਜਾਣਗੇ?
ਭਵਿੱਖ ਵਿੱਚ ਕੀ ਹੋਵੇਗਾ, ਇਸ ਸਵਾਲ ਦਾ ਜਵਾਬ ਇਹੀ ਹੀ ਹੈ ਕਿ ਸਵੈਚਾਲਕ ਰੋਬੋਟਸ ਦੇ ਕੋਲ ਉੰਨੇ ਹੀ ਅਧਿਕਾਰ ਹੋਣਗੇ ਜਿੰਨੇ ਅਸੀਂ ਉਨ੍ਹਾਂ ਨੂੰ ਦੇਵਾਂਗੇ।
ਇਹ ਵੀ ਪੜ੍ਹੋ:
https://www.youtube.com/watch?v=KwIwQE_kQnA
(ਬੀਬੀਸੀ ਪੰਜਾਬੀ ਨਾਲ FACEBOOK, INSTAGRAM, TWITTERਅਤੇ YouTube 'ਤੇ ਜੁੜੋ।)
!function(s,e,n,c,r){if(r=s._ns_bbcws=s._ns_bbcws||r,s[]r]||(s[]r+"_d"]=s[]r+"_d"]||[]],s[]r]=function(){s[]r+"_d"].push(arguments)},s[]r].sources=[]]),c&&s[]r].sources.indexOf(c)<0){var t=e.createElement(n);t.async=1,t.src=c;var a=e.getElementsByTagName(n)[]0];a.parentNode.insertBefore(t,a),s[]r].sources.push(c)}}(window,document,"script","https://news.files.bbci.co.uk/ws/partner-analytics/js/fullTracker.min","s_bbcws");s_bbcws('syndSource','ISAPI');s_bbcws('orgUnit','ws');s_bbcws('platform','partner');s_bbcws('partner','jagbani');s_bbcws('producer','punjabi');s_bbcws('language','pa');s_bbcws('setStory', {'origin': 'cps','guid': 'd8e5452b-cb1a-4575-bff0-ada5f288fd68','assetType': 'STY','pageCounter': 'punjabi.international.story.56708036.page','title': 'ਕੀ ਹੁਣ ਜੰਗ ਵਿਚ ਫੌਜੀਆਂ ਦੀ ਥਾਂ ਰੋਬੋਟ ਲੜਿਆ ਕਰਨਗੇ ਲੜਾਈ','published': '2021-04-15T12:02:23Z','updated': '2021-04-15T12:02:23Z'});s_bbcws('track','pageView');

ਅਫ਼ਗਾਨਿਸਤਾਨ: ਅਮਰੀਕਾ ਹਾਰ ਗਿਆ ਜੰਗ ਤੇ ਜਿੱਤ ਸਾਡੀ ਹੋਈ - ਤਾਲੀਬਾਨ
NEXT STORY