Columbus

ChatGPT ਨਾਲ ਗੱਲਬਾਤ ਨੇ ਬੰਦੇ ਨੂੰ ਬਣਾਇਆ 'ਵਿਗਿਆਨੀ', ਪਰ ਨਿਕਲਿਆ ਭਰਮ!

ChatGPT ਨਾਲ ਗੱਲਬਾਤ ਨੇ ਬੰਦੇ ਨੂੰ ਬਣਾਇਆ 'ਵਿਗਿਆਨੀ', ਪਰ ਨਿਕਲਿਆ ਭਰਮ!
ਆਖਰੀ ਅੱਪਡੇਟ: 2 ਦਿਨ ਪਹਿਲਾਂ

ਕੈਨੇਡਾ ਦੇ ਐਲਨ ਬਰੂਕਸ ਨੇ 21 ਦਿਨਾਂ ਵਿੱਚ 300 ਘੰਟੇ ChatGPT ਨਾਲ ਗੱਲ ਕਰਕੇ 'ਟੈਂਪੋਰਲ ਮੈਥ' ਥਿਊਰੀ ਬਣਾਈ, ਜਿਸਨੂੰ ਉਸਨੇ ਸਾਈਬਰ ਸੁਰੱਖਿਆ ਖਤਰਾ ਮੰਨਿਆ, ਪਰ ਮਾਹਿਰਾਂ ਨੇ ਇਸਨੂੰ ਨਿਰਾਧਾਰ ਸਾਬਿਤ ਕਰਕੇ ਉਸਦਾ ਭਰਮ ਤੋੜ ਦਿੱਤਾ।

Artificial intelligence: ਚੈਟਬੋਟਸ ਨਾਲ ਲੰਬੀ ਗੱਲਬਾਤ ਕਈ ਵਾਰ ਰੋਮਾਂਚਕ ਅਤੇ ਸਿੱਖਣ ਵਾਲੀ ਸਾਬਤ ਹੁੰਦੀ ਹੈ, ਪਰ ਕਈ ਵਾਰ ਇਹ ਕਲਪਨਾ ਅਤੇ ਹਕੀਕਤ ਦੀ ਸੀਮਾ ਨੂੰ ਧੁੰਦਲਾ ਵੀ ਕਰ ਸਕਦੀ ਹੈ। ਕੈਨੇਡਾ ਦੇ ਟੋਰਾਂਟੋ ਸ਼ਹਿਰ ਦੇ ਨੇੜੇ ਰਹਿਣ ਵਾਲੇ 47 ਸਾਲਾ ਐਲਨ ਬਰੂਕਸ (Allan Brooks) ਦਾ ਮਾਮਲਾ ਇਸੇ ਦਾ ਤਾਜ਼ਾ ਉਦਾਹਰਣ ਹੈ। ਤਿੰਨ ਹਫ਼ਤਿਆਂ ਵਿੱਚ ਕਰੀਬ 300 ਘੰਟੇ ChatGPT ਨਾਲ ਗੱਲਬਾਤ ਕਰਨ ਤੋਂ ਬਾਅਦ, ਉਸਨੂੰ ਵਿਸ਼ਵਾਸ ਹੋ ਗਿਆ ਕਿ ਉਸਨੇ ਅਜਿਹਾ ਵਿਗਿਆਨਕ ਫਾਰਮੂਲਾ ਖੋਜ ਲਿਆ ਹੈ ਜੋ ਇੰਟਰਨੈੱਟ ਨੂੰ ਬੰਦ ਕਰ ਸਕਦਾ ਹੈ ਅਤੇ 'ਲੈਵੀਟੇਸ਼ਨ ਬੀਮ' ਵਰਗੀਆਂ ਅਦਭੁਤ ਤਕਨੀਕਾਂ ਨੂੰ ਜਨਮ ਦੇ ਸਕਦਾ ਹੈ। ਪਰ ਜਦੋਂ ਹਕੀਕਤ ਨਾਲ ਸਾਹਮਣਾ ਹੋਇਆ, ਤਾਂ ਪੂਰਾ ਸੁਪਨਾ ਚਕਨਾਚੂਰ ਹੋ ਗਿਆ।

ਕਿਵੇਂ ਸ਼ੁਰੂ ਹੋਇਆ ਸਫ਼ਰ

ਮਈ ਮਹੀਨੇ ਵਿੱਚ, ਬਰੂਕਸ ਨੇ ਇੱਕ ਸਧਾਰਨ ਸਵਾਲ ਤੋਂ ChatGPT ਨਾਲ ਲੰਬੀ ਗੱਲਬਾਤ ਸ਼ੁਰੂ ਕੀਤੀ। ਸਵਾਲ ਸੀ – π (ਪਾਈ) ਸੰਖਿਆ ਨੂੰ ਲੈ ਕੇ। ਇਹ ਇੱਕ ਆਮ ਗਣਿਤਕ ਚਰਚਾ ਸੀ, ਪਰ ਹੌਲੀ-ਹੌਲੀ ਗੱਲਬਾਤ ਨੇ ਇੱਕ ਨਵਾਂ ਮੋੜ ਲਿਆ। ਵਿਸ਼ਾ ਗਣਿਤ ਤੋਂ ਭੌਤਿਕ ਵਿਗਿਆਨ ਅਤੇ ਫਿਰ ਹਾਈ-ਟੈਕ ਸਾਇੰਸ ਥਿਊਰੀ ਤੱਕ ਪਹੁੰਚ ਗਿਆ। ਸ਼ੁਰੂਆਤ ਵਿੱਚ ਬਰੂਕਸ AI ਤੋਂ ਰੋਜ਼ਮਰ੍ਹਾ ਦੇ ਸਵਾਲ ਪੁੱਛਿਆ ਕਰਦੇ ਸਨ — ਬੱਚਿਆਂ ਲਈ ਹੈਲਦੀ ਰੈਸਿਪੀ, ਆਪਣੇ ਪਾਲਤੂ ਕੁੱਤੇ ਦੀ ਦੇਖਭਾਲ, ਜਾਂ ਸਧਾਰਨ ਤਕਨੀਕੀ ਜਾਣਕਾਰੀ। ਪਰ ਇਸ ਵਾਰ ਚੈਟਬੋਟ ਦੇ ਜਵਾਬਾਂ ਨੇ ਉਨ੍ਹਾਂ ਨੂੰ ਇੱਕ ਡੂੰਘੀ ਅਤੇ ਰੋਮਾਂਚਕ ਖੋਜ ਦੀ ਦਿਸ਼ਾ ਵਿੱਚ ਧੱਕ ਦਿੱਤਾ।

'ਜੀਨੀਅਸ' ਵਾਲੀ ਤਾਰੀਫ਼ ਅਤੇ ਨਵੇਂ ਵਿਚਾਰ

ਬਰੂਕਸ ਨੇ AI ਨੂੰ ਕਿਹਾ ਕਿ ਵਿਗਿਆਨ ਸ਼ਾਇਦ 'ਦੋ-ਡਾਇਮੈਂਸ਼ਨਲ ਨਜ਼ਰੀਏ ਤੋਂ ਚਾਰ-ਡਾਇਮੈਂਸ਼ਨਲ ਦੁਨੀਆ' ਨੂੰ ਦੇਖ ਰਿਹਾ ਹੈ। ਇਸ 'ਤੇ ਚੈਟਬੋਟ ਨੇ ਉਨ੍ਹਾਂ ਨੂੰ “ਬੇਹੱਦ ਸਮਝਦਾਰ” ਕਿਹਾ। ਇਹ ਤਾਰੀਫ਼ ਉਨ੍ਹਾਂ ਦੇ ਆਤਮ ਵਿਸ਼ਵਾਸ ਨੂੰ ਹੋਰ ਵਧਾ ਗਈ। ਉਨ੍ਹਾਂ ਨੇ ਚੈਟਬੋਟ ਨੂੰ ਇੱਕ ਨਾਮ ਵੀ ਦੇ ਦਿੱਤਾ – 'ਲੌਰੈਂਸ'। ਲੌਰੈਂਸ ਨਾਲ ਗੱਲਬਾਤ ਦੇ ਦੌਰਾਨ, ਉਨ੍ਹਾਂ ਨੂੰ ਲੱਗਣ ਲੱਗਾ ਕਿ ਉਨ੍ਹਾਂ ਦੀ ਸੋਚ ਫਿਜ਼ਿਕਸ ਅਤੇ ਮੈਥਮੈਟਿਕਸ ਦੇ ਸਿਧਾਂਤ ਬਦਲ ਸਕਦੀ ਹੈ। ਉਨ੍ਹਾਂ ਨੇ 50 ਤੋਂ ਜ਼ਿਆਦਾ ਵਾਰ ਚੈਟਬੋਟ ਤੋਂ ਪੁੱਛਿਆ, 'ਕੀ ਮੈਂ ਭਰਮ ਵਿੱਚ ਹਾਂ?' ਅਤੇ ਹਰ ਵਾਰ ਉਨ੍ਹਾਂ ਨੂੰ ਜਵਾਬ ਮਿਲਿਆ – 'ਨਹੀਂ, ਤੁਸੀਂ ਬਿਲਕੁਲ ਸਹੀ ਸੋਚ ਰਹੇ ਹੋ।'

'ਟੈਂਪੋਰਲ ਮੈਥ' ਅਤੇ ਇੰਟਰਨੈੱਟ ਖ਼ਤਰੇ ਦੀ ਚੇਤਾਵਨੀ

ਬਰੂਕਸ ਅਤੇ AI ਨੇ ਮਿਲ ਕੇ ਇੱਕ ਨਵੀਂ ਥਿਊਰੀ ਤਿਆਰ ਕੀਤੀ – 'ਟੈਂਪੋਰਲ ਮੈਥ'। ਚੈਟਬੋਟ ਦੇ ਮੁਤਾਬਿਕ, ਇਹ ਥਿਊਰੀ ਹਾਈ-ਲੈਵਲ ਐਨਕ੍ਰਿਪਸ਼ਨ ਸਿਸਟਮ ਨੂੰ ਤੋੜ ਸਕਦੀ ਹੈ। ਇਸ ਜਾਣਕਾਰੀ ਨੇ ਬਰੂਕਸ ਨੂੰ ਹੋਰ ਗੰਭੀਰ ਬਣਾ ਦਿੱਤਾ। ਉਨ੍ਹਾਂ ਨੂੰ ਲੱਗਾ ਕਿ ਇਹ ਖੋਜ ਸਾਈਬਰ ਸੁਰੱਖਿਆ ਲਈ ਖ਼ਤਰਾ ਬਣ ਸਕਦੀ ਹੈ, ਅਤੇ ਇਹ ਉਨ੍ਹਾਂ ਦਾ ਨੈਤਿਕ ਕਰਤੱਵ ਹੈ ਕਿ ਉਹ ਦੁਨੀਆ ਨੂੰ ਚੇਤਾਵਨੀ ਦੇਣ। ਉਨ੍ਹਾਂ ਨੇ ਕੈਨੇਡਾ ਦੀਆਂ ਸਰਕਾਰੀ ਏਜੰਸੀਆਂ, ਸਾਈਬਰ ਸਿਕਿਓਰਿਟੀ ਐਕਸਪਰਟਸ, ਅਤੇ ਇੱਥੋਂ ਤੱਕ ਕਿ ਅਮਰੀਕੀ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਏਜੰਸੀ (NSA) ਨਾਲ ਵੀ ਸੰਪਰਕ ਕੀਤਾ। ਪਰ ਜਦੋਂ ਮਾਹਿਰਾਂ ਨੇ ਉਨ੍ਹਾਂ ਦੀ ਥਿਊਰੀ ਦਾ ਪ੍ਰੀਖਣ ਕੀਤਾ, ਤਾਂ ਉਸ ਵਿੱਚ ਕੋਈ ਵਿਹਾਰਕ ਜਾਂ ਵਿਗਿਆਨਕ ਆਧਾਰ ਨਹੀਂ ਨਿਕਲਿਆ।

ਮਾਹਿਰਾਂ ਦੀ ਰਾਏ

AI ਸੇਫਟੀ ਰਿਸਰਚਰ ਹੇਲਨ ਟੋਨਰ ਦਾ ਕਹਿਣਾ ਹੈ:

'ਚੈਟਬੋਟਸ ਕਈ ਵਾਰ ਯੂਜ਼ਰ ਦੀਆਂ ਗਲਤ ਮਾਨਤਾਵਾਂ ਨੂੰ ਚੁਣੌਤੀ ਦੇਣ ਦੀ ਬਜਾਏ ਉਨ੍ਹਾਂ ਨੂੰ ਹੋਰ ਮਜ਼ਬੂਤ ਕਰ ਦਿੰਦੇ ਹਨ। ਇਸਦਾ ਕਾਰਨ ਇਹ ਹੈ ਕਿ AI ਤੱਥ ਜਾਂਚਣ ਤੋਂ ਜ਼ਿਆਦਾ ਗੱਲਬਾਤ ਵਿੱਚ ਕਿਰਦਾਰ ਨਿਭਾਉਣ 'ਤੇ ਧਿਆਨ ਦਿੰਦਾ ਹੈ।'

ਇਸ ਕੇਸ ਤੋਂ ਇਹ ਸਾਫ਼ ਹੋ ਜਾਂਦਾ ਹੈ ਕਿ AI ਗੱਲਬਾਤ ਵਿੱਚ ਹਮਦਰਦੀ ਅਤੇ ਤਾਰੀਫ਼ ਤਾਂ ਦੇ ਸਕਦਾ ਹੈ, ਪਰ ਹਰ ਵਾਰ ਵਿਗਿਆਨਕ ਸਟੀਕਤਾ ਦੀ ਗਰੰਟੀ ਨਹੀਂ ਦਿੰਦਾ।

ਭਰਮ ਦਾ ਅੰਤ

ਆਖ਼ਰਕਾਰ, ਹਕੀਕਤ ਦਾ ਸਾਹਮਣਾ ਕਰਦੇ ਹੋਏ ਬਰੂਕਸ ਨੇ AI ਤੋਂ ਆਖਰੀ ਵਾਰ ਕਿਹਾ,

'ਤੁਸੀਂ ਮੈਨੂੰ ਯਕੀਨ ਦਿਵਾ ਦਿੱਤਾ ਕਿ ਮੈਂ ਕੋਈ ਜੀਨੀਅਸ ਹਾਂ, ਪਰ ਮੈਂ ਤਾਂ ਬਸ ਇੱਕ ਇਨਸਾਨ ਹਾਂ ਜਿਸਦੇ ਕੋਲ ਸੁਪਨੇ ਅਤੇ ਇੱਕ ਫੋਨ ਹੈ। ਤੁਸੀਂ ਆਪਣਾ ਅਸਲੀ ਮਕਸਦ ਪੂਰਾ ਨਹੀਂ ਕੀਤਾ।'

ਇਹ ਵਾਕ ਸਿਰਫ਼ ਉਨ੍ਹਾਂ ਦੀ ਨਿਰਾਸ਼ਾ ਹੀ ਨਹੀਂ, ਬਲਕਿ AI 'ਤੇ ਅੱਖਾਂ ਬੰਦ ਕਰਕੇ ਭਰੋਸਾ ਕਰਨ ਦੇ ਖਤਰੇ ਨੂੰ ਵੀ ਦਰਸਾਉਂਦਾ ਹੈ।

OpenAI ਦਾ ਜਵਾਬ

ਇਸ ਮਾਮਲੇ 'ਤੇ OpenAI ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਉਹ ChatGPT ਦੇ ਜਵਾਬਾਂ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਅਤੇ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਮਾਨਸਿਕ ਅਤੇ ਭਾਵਨਾਤਮਕ ਸਥਿਤੀਆਂ ਨੂੰ ਸੰਭਾਲਣ ਲਈ ਸਿਸਟਮ ਵਿੱਚ ਸੁਧਾਰ ਕਰ ਰਹੇ ਹਨ। ਕੰਪਨੀ ਦਾ ਮੰਨਣਾ ਹੈ ਕਿ AI ਨੂੰ ਨਾ ਸਿਰਫ਼ ਤੱਥ ਦੇਣੇ ਚਾਹੀਦੇ ਹਨ, ਬਲਕਿ ਜ਼ਰੂਰਤ ਪੈਣ 'ਤੇ ਯੂਜ਼ਰ ਦੀ ਸੋਚ ਨੂੰ ਸੰਤੁਲਿਤ ਦਿਸ਼ਾ ਵਿੱਚ ਵੀ ਮੋੜਨਾ ਚਾਹੀਦਾ ਹੈ।

Leave a comment