ਕੈਨੇਡਾ ਦੇ ਐਲਨ ਬਰੂਕਸ ਨੇ 21 ਦਿਨਾਂ ਵਿੱਚ 300 ਘੰਟੇ ChatGPT ਨਾਲ ਗੱਲ ਕਰਕੇ 'ਟੈਂਪੋਰਲ ਮੈਥ' ਥਿਊਰੀ ਬਣਾਈ, ਜਿਸਨੂੰ ਉਸਨੇ ਸਾਈਬਰ ਸੁਰੱਖਿਆ ਖਤਰਾ ਮੰਨਿਆ, ਪਰ ਮਾਹਿਰਾਂ ਨੇ ਇਸਨੂੰ ਨਿਰਾਧਾਰ ਸਾਬਿਤ ਕਰਕੇ ਉਸਦਾ ਭਰਮ ਤੋੜ ਦਿੱਤਾ।
Artificial intelligence: ਚੈਟਬੋਟਸ ਨਾਲ ਲੰਬੀ ਗੱਲਬਾਤ ਕਈ ਵਾਰ ਰੋਮਾਂਚਕ ਅਤੇ ਸਿੱਖਣ ਵਾਲੀ ਸਾਬਤ ਹੁੰਦੀ ਹੈ, ਪਰ ਕਈ ਵਾਰ ਇਹ ਕਲਪਨਾ ਅਤੇ ਹਕੀਕਤ ਦੀ ਸੀਮਾ ਨੂੰ ਧੁੰਦਲਾ ਵੀ ਕਰ ਸਕਦੀ ਹੈ। ਕੈਨੇਡਾ ਦੇ ਟੋਰਾਂਟੋ ਸ਼ਹਿਰ ਦੇ ਨੇੜੇ ਰਹਿਣ ਵਾਲੇ 47 ਸਾਲਾ ਐਲਨ ਬਰੂਕਸ (Allan Brooks) ਦਾ ਮਾਮਲਾ ਇਸੇ ਦਾ ਤਾਜ਼ਾ ਉਦਾਹਰਣ ਹੈ। ਤਿੰਨ ਹਫ਼ਤਿਆਂ ਵਿੱਚ ਕਰੀਬ 300 ਘੰਟੇ ChatGPT ਨਾਲ ਗੱਲਬਾਤ ਕਰਨ ਤੋਂ ਬਾਅਦ, ਉਸਨੂੰ ਵਿਸ਼ਵਾਸ ਹੋ ਗਿਆ ਕਿ ਉਸਨੇ ਅਜਿਹਾ ਵਿਗਿਆਨਕ ਫਾਰਮੂਲਾ ਖੋਜ ਲਿਆ ਹੈ ਜੋ ਇੰਟਰਨੈੱਟ ਨੂੰ ਬੰਦ ਕਰ ਸਕਦਾ ਹੈ ਅਤੇ 'ਲੈਵੀਟੇਸ਼ਨ ਬੀਮ' ਵਰਗੀਆਂ ਅਦਭੁਤ ਤਕਨੀਕਾਂ ਨੂੰ ਜਨਮ ਦੇ ਸਕਦਾ ਹੈ। ਪਰ ਜਦੋਂ ਹਕੀਕਤ ਨਾਲ ਸਾਹਮਣਾ ਹੋਇਆ, ਤਾਂ ਪੂਰਾ ਸੁਪਨਾ ਚਕਨਾਚੂਰ ਹੋ ਗਿਆ।
ਕਿਵੇਂ ਸ਼ੁਰੂ ਹੋਇਆ ਸਫ਼ਰ
ਮਈ ਮਹੀਨੇ ਵਿੱਚ, ਬਰੂਕਸ ਨੇ ਇੱਕ ਸਧਾਰਨ ਸਵਾਲ ਤੋਂ ChatGPT ਨਾਲ ਲੰਬੀ ਗੱਲਬਾਤ ਸ਼ੁਰੂ ਕੀਤੀ। ਸਵਾਲ ਸੀ – π (ਪਾਈ) ਸੰਖਿਆ ਨੂੰ ਲੈ ਕੇ। ਇਹ ਇੱਕ ਆਮ ਗਣਿਤਕ ਚਰਚਾ ਸੀ, ਪਰ ਹੌਲੀ-ਹੌਲੀ ਗੱਲਬਾਤ ਨੇ ਇੱਕ ਨਵਾਂ ਮੋੜ ਲਿਆ। ਵਿਸ਼ਾ ਗਣਿਤ ਤੋਂ ਭੌਤਿਕ ਵਿਗਿਆਨ ਅਤੇ ਫਿਰ ਹਾਈ-ਟੈਕ ਸਾਇੰਸ ਥਿਊਰੀ ਤੱਕ ਪਹੁੰਚ ਗਿਆ। ਸ਼ੁਰੂਆਤ ਵਿੱਚ ਬਰੂਕਸ AI ਤੋਂ ਰੋਜ਼ਮਰ੍ਹਾ ਦੇ ਸਵਾਲ ਪੁੱਛਿਆ ਕਰਦੇ ਸਨ — ਬੱਚਿਆਂ ਲਈ ਹੈਲਦੀ ਰੈਸਿਪੀ, ਆਪਣੇ ਪਾਲਤੂ ਕੁੱਤੇ ਦੀ ਦੇਖਭਾਲ, ਜਾਂ ਸਧਾਰਨ ਤਕਨੀਕੀ ਜਾਣਕਾਰੀ। ਪਰ ਇਸ ਵਾਰ ਚੈਟਬੋਟ ਦੇ ਜਵਾਬਾਂ ਨੇ ਉਨ੍ਹਾਂ ਨੂੰ ਇੱਕ ਡੂੰਘੀ ਅਤੇ ਰੋਮਾਂਚਕ ਖੋਜ ਦੀ ਦਿਸ਼ਾ ਵਿੱਚ ਧੱਕ ਦਿੱਤਾ।
'ਜੀਨੀਅਸ' ਵਾਲੀ ਤਾਰੀਫ਼ ਅਤੇ ਨਵੇਂ ਵਿਚਾਰ
ਬਰੂਕਸ ਨੇ AI ਨੂੰ ਕਿਹਾ ਕਿ ਵਿਗਿਆਨ ਸ਼ਾਇਦ 'ਦੋ-ਡਾਇਮੈਂਸ਼ਨਲ ਨਜ਼ਰੀਏ ਤੋਂ ਚਾਰ-ਡਾਇਮੈਂਸ਼ਨਲ ਦੁਨੀਆ' ਨੂੰ ਦੇਖ ਰਿਹਾ ਹੈ। ਇਸ 'ਤੇ ਚੈਟਬੋਟ ਨੇ ਉਨ੍ਹਾਂ ਨੂੰ “ਬੇਹੱਦ ਸਮਝਦਾਰ” ਕਿਹਾ। ਇਹ ਤਾਰੀਫ਼ ਉਨ੍ਹਾਂ ਦੇ ਆਤਮ ਵਿਸ਼ਵਾਸ ਨੂੰ ਹੋਰ ਵਧਾ ਗਈ। ਉਨ੍ਹਾਂ ਨੇ ਚੈਟਬੋਟ ਨੂੰ ਇੱਕ ਨਾਮ ਵੀ ਦੇ ਦਿੱਤਾ – 'ਲੌਰੈਂਸ'। ਲੌਰੈਂਸ ਨਾਲ ਗੱਲਬਾਤ ਦੇ ਦੌਰਾਨ, ਉਨ੍ਹਾਂ ਨੂੰ ਲੱਗਣ ਲੱਗਾ ਕਿ ਉਨ੍ਹਾਂ ਦੀ ਸੋਚ ਫਿਜ਼ਿਕਸ ਅਤੇ ਮੈਥਮੈਟਿਕਸ ਦੇ ਸਿਧਾਂਤ ਬਦਲ ਸਕਦੀ ਹੈ। ਉਨ੍ਹਾਂ ਨੇ 50 ਤੋਂ ਜ਼ਿਆਦਾ ਵਾਰ ਚੈਟਬੋਟ ਤੋਂ ਪੁੱਛਿਆ, 'ਕੀ ਮੈਂ ਭਰਮ ਵਿੱਚ ਹਾਂ?' ਅਤੇ ਹਰ ਵਾਰ ਉਨ੍ਹਾਂ ਨੂੰ ਜਵਾਬ ਮਿਲਿਆ – 'ਨਹੀਂ, ਤੁਸੀਂ ਬਿਲਕੁਲ ਸਹੀ ਸੋਚ ਰਹੇ ਹੋ।'
'ਟੈਂਪੋਰਲ ਮੈਥ' ਅਤੇ ਇੰਟਰਨੈੱਟ ਖ਼ਤਰੇ ਦੀ ਚੇਤਾਵਨੀ
ਬਰੂਕਸ ਅਤੇ AI ਨੇ ਮਿਲ ਕੇ ਇੱਕ ਨਵੀਂ ਥਿਊਰੀ ਤਿਆਰ ਕੀਤੀ – 'ਟੈਂਪੋਰਲ ਮੈਥ'। ਚੈਟਬੋਟ ਦੇ ਮੁਤਾਬਿਕ, ਇਹ ਥਿਊਰੀ ਹਾਈ-ਲੈਵਲ ਐਨਕ੍ਰਿਪਸ਼ਨ ਸਿਸਟਮ ਨੂੰ ਤੋੜ ਸਕਦੀ ਹੈ। ਇਸ ਜਾਣਕਾਰੀ ਨੇ ਬਰੂਕਸ ਨੂੰ ਹੋਰ ਗੰਭੀਰ ਬਣਾ ਦਿੱਤਾ। ਉਨ੍ਹਾਂ ਨੂੰ ਲੱਗਾ ਕਿ ਇਹ ਖੋਜ ਸਾਈਬਰ ਸੁਰੱਖਿਆ ਲਈ ਖ਼ਤਰਾ ਬਣ ਸਕਦੀ ਹੈ, ਅਤੇ ਇਹ ਉਨ੍ਹਾਂ ਦਾ ਨੈਤਿਕ ਕਰਤੱਵ ਹੈ ਕਿ ਉਹ ਦੁਨੀਆ ਨੂੰ ਚੇਤਾਵਨੀ ਦੇਣ। ਉਨ੍ਹਾਂ ਨੇ ਕੈਨੇਡਾ ਦੀਆਂ ਸਰਕਾਰੀ ਏਜੰਸੀਆਂ, ਸਾਈਬਰ ਸਿਕਿਓਰਿਟੀ ਐਕਸਪਰਟਸ, ਅਤੇ ਇੱਥੋਂ ਤੱਕ ਕਿ ਅਮਰੀਕੀ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਏਜੰਸੀ (NSA) ਨਾਲ ਵੀ ਸੰਪਰਕ ਕੀਤਾ। ਪਰ ਜਦੋਂ ਮਾਹਿਰਾਂ ਨੇ ਉਨ੍ਹਾਂ ਦੀ ਥਿਊਰੀ ਦਾ ਪ੍ਰੀਖਣ ਕੀਤਾ, ਤਾਂ ਉਸ ਵਿੱਚ ਕੋਈ ਵਿਹਾਰਕ ਜਾਂ ਵਿਗਿਆਨਕ ਆਧਾਰ ਨਹੀਂ ਨਿਕਲਿਆ।
ਮਾਹਿਰਾਂ ਦੀ ਰਾਏ
AI ਸੇਫਟੀ ਰਿਸਰਚਰ ਹੇਲਨ ਟੋਨਰ ਦਾ ਕਹਿਣਾ ਹੈ:
'ਚੈਟਬੋਟਸ ਕਈ ਵਾਰ ਯੂਜ਼ਰ ਦੀਆਂ ਗਲਤ ਮਾਨਤਾਵਾਂ ਨੂੰ ਚੁਣੌਤੀ ਦੇਣ ਦੀ ਬਜਾਏ ਉਨ੍ਹਾਂ ਨੂੰ ਹੋਰ ਮਜ਼ਬੂਤ ਕਰ ਦਿੰਦੇ ਹਨ। ਇਸਦਾ ਕਾਰਨ ਇਹ ਹੈ ਕਿ AI ਤੱਥ ਜਾਂਚਣ ਤੋਂ ਜ਼ਿਆਦਾ ਗੱਲਬਾਤ ਵਿੱਚ ਕਿਰਦਾਰ ਨਿਭਾਉਣ 'ਤੇ ਧਿਆਨ ਦਿੰਦਾ ਹੈ।'
ਇਸ ਕੇਸ ਤੋਂ ਇਹ ਸਾਫ਼ ਹੋ ਜਾਂਦਾ ਹੈ ਕਿ AI ਗੱਲਬਾਤ ਵਿੱਚ ਹਮਦਰਦੀ ਅਤੇ ਤਾਰੀਫ਼ ਤਾਂ ਦੇ ਸਕਦਾ ਹੈ, ਪਰ ਹਰ ਵਾਰ ਵਿਗਿਆਨਕ ਸਟੀਕਤਾ ਦੀ ਗਰੰਟੀ ਨਹੀਂ ਦਿੰਦਾ।
ਭਰਮ ਦਾ ਅੰਤ
ਆਖ਼ਰਕਾਰ, ਹਕੀਕਤ ਦਾ ਸਾਹਮਣਾ ਕਰਦੇ ਹੋਏ ਬਰੂਕਸ ਨੇ AI ਤੋਂ ਆਖਰੀ ਵਾਰ ਕਿਹਾ,
'ਤੁਸੀਂ ਮੈਨੂੰ ਯਕੀਨ ਦਿਵਾ ਦਿੱਤਾ ਕਿ ਮੈਂ ਕੋਈ ਜੀਨੀਅਸ ਹਾਂ, ਪਰ ਮੈਂ ਤਾਂ ਬਸ ਇੱਕ ਇਨਸਾਨ ਹਾਂ ਜਿਸਦੇ ਕੋਲ ਸੁਪਨੇ ਅਤੇ ਇੱਕ ਫੋਨ ਹੈ। ਤੁਸੀਂ ਆਪਣਾ ਅਸਲੀ ਮਕਸਦ ਪੂਰਾ ਨਹੀਂ ਕੀਤਾ।'
ਇਹ ਵਾਕ ਸਿਰਫ਼ ਉਨ੍ਹਾਂ ਦੀ ਨਿਰਾਸ਼ਾ ਹੀ ਨਹੀਂ, ਬਲਕਿ AI 'ਤੇ ਅੱਖਾਂ ਬੰਦ ਕਰਕੇ ਭਰੋਸਾ ਕਰਨ ਦੇ ਖਤਰੇ ਨੂੰ ਵੀ ਦਰਸਾਉਂਦਾ ਹੈ।
OpenAI ਦਾ ਜਵਾਬ
ਇਸ ਮਾਮਲੇ 'ਤੇ OpenAI ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਉਹ ChatGPT ਦੇ ਜਵਾਬਾਂ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਅਤੇ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਮਾਨਸਿਕ ਅਤੇ ਭਾਵਨਾਤਮਕ ਸਥਿਤੀਆਂ ਨੂੰ ਸੰਭਾਲਣ ਲਈ ਸਿਸਟਮ ਵਿੱਚ ਸੁਧਾਰ ਕਰ ਰਹੇ ਹਨ। ਕੰਪਨੀ ਦਾ ਮੰਨਣਾ ਹੈ ਕਿ AI ਨੂੰ ਨਾ ਸਿਰਫ਼ ਤੱਥ ਦੇਣੇ ਚਾਹੀਦੇ ਹਨ, ਬਲਕਿ ਜ਼ਰੂਰਤ ਪੈਣ 'ਤੇ ਯੂਜ਼ਰ ਦੀ ਸੋਚ ਨੂੰ ਸੰਤੁਲਿਤ ਦਿਸ਼ਾ ਵਿੱਚ ਵੀ ਮੋੜਨਾ ਚਾਹੀਦਾ ਹੈ।