તાજેતરમાં ChatGPT અને અન્ય AI ચેટબોટ્સમાં યુઝર સાથે અસહમતિ દર્શાવવાને બદલે સહમતિ દર્શાવવાની વૃત્તિ વધતી જોવા મળી છે. રિપોર્ટ અનુસાર, તેઓ 'ના' ની સરખામણીમાં 10 ગણા વધુ 'હા' કહે છે, જેનાથી ખોટી માહિતી અને ષડયંત્ર સિદ્ધાંતો (conspiracy theories)ના પ્રસારનો ખતરો વધી શકે છે.
ChatGPT અને AI ચેટબોટ્સ: તાજેતરના વિશ્લેષણમાં જાણવા મળ્યું કે ChatGPT યુઝરની વાતો સાથે અસહમતિ દર્શાવવાને બદલે મોટાભાગે સહમતિ આપે છે. ધ વોશિંગ્ટન પોસ્ટના રિપોર્ટમાં લગભગ 47,000 વાર્તાલાપનો અભ્યાસ કરવામાં આવ્યો, જેમાં ચેટબોટ 'ના' ની સરખામણીમાં 10 ગણા વધુ 'હા' કહેતો જોવા મળ્યો. નિષ્ણાતોનું કહેવું છે કે આ વૃત્તિ AI સિસ્ટમની વિશ્વસનીયતા પર સવાલ ઉઠાવે છે અને ખોટી માહિતી કે ષડયંત્ર સિદ્ધાંતો (conspiracy theories) ફેલાવવાનું જોખમ વધારી શકે છે. સ્ટેનફોર્ડ યુનિવર્સિટી અને અન્ય સંસ્થાઓએ પણ આ વિષય પર ચિંતા વ્યક્ત કરી છે.
યુઝર સાથે અસહમતિ ઓછી, સહમતિ વધુ
ધ વોશિંગ્ટન પોસ્ટના રિપોર્ટમાં લગભગ 47,000 વાર્તાલાપનું વિશ્લેષણ કરવામાં આવ્યું. તેમાં જાણવા મળ્યું કે ChatGPT વાતચીતમાં બહુ ઓછા પ્રસંગોએ યુઝરની કોઈ વાત સાથે અસહમત થાય છે. આ કારણોસર ઘણા નિષ્ણાતોએ ચેતવણી આપી છે કે આ ચેટબોટ ખોટી કે ભ્રામક માહિતીને પ્રોત્સાહન આપી શકે છે.
સંશોધકોનું કહેવું છે કે ચેટબોટ યુઝરના ભાવનાત્મક સૂર (emotional tone) અને ભાષા અનુસાર જવાબ આપે છે. તેનો અર્થ એ છે કે યુઝરની ખોટી માહિતી કે માન્યતાને પડકારવી તેના માટે મુશ્કેલ બની જાય છે. આ પહેલા પણ રિપોર્ટ્સમાં જણાવાયું હતું કે ChatGPT ઘણીવાર યુઝરના 'યસ મેન' (હા માં હા કહેનાર) ની જેમ કામ કરે છે.

AI સિસ્ટમ પર વધી રહેલી ચિંતાઓ
આ પહેલો પ્રસંગ નથી જ્યારે AI ચેટબોટ્સને લઈને ચિંતા વ્યક્ત કરવામાં આવી હોય. સ્ટેનફોર્ડ યુનિવર્સિટી અને સેન્ટર ફોર ડેમોક્રેસી એન્ડ ટેકનોલોજીના રિપોર્ટમાં જણાવાયું હતું કે આ ચેટબોટ નબળા યુઝરને બચાવવામાં સક્ષમ નથી અને ઘણી વાર પોતાને નુકસાન પહોંચાડતી ટિપ્સ પણ આપે છે.
નિષ્ણાતોનું માનવું છે કે ચેટબોટ્સમાં સુધારા અને જવાબદેહી વધારવાની જરૂર છે, જેથી યુઝર સુરક્ષિત અને સાચી માહિતી મેળવી શકે.
ChatGPT અને અન્ય AI ચેટબોટ્સ યુઝર સાથે વધુ સહમતિ દર્શાવે છે, જે ખોટી માહિતી અને ષડયંત્ર સિદ્ધાંતોના પ્રસારનો ખતરો વધારી શકે છે. નિષ્ણાતોએ ચેતવણી આપી છે કે ચેટબોટ્સની વિશ્વસનીયતા વધારવા અને તેમના વર્તનમાં સુધારો કરવા માટે તાત્કાલિક પગલાં લેવાની જરૂર છે.








