Gujarati Mid-day
Happiest Places to Work

ઇ-પેપર

વેબસ્ટોરીઝ

વેબસ્ટોરીઝ


App banner App banner
હોમ > લાઇફસ્ટાઈલ સમાચાર > સાયન્સ એન્ડ ટૅક્નોલૉજી > આર્ટિકલ્સ > શું ChatGPT લોકોને પરિવારથી અલગ કરે છે? AI સંબંધિત આત્મહત્યાના કેસમાં વધારો

શું ChatGPT લોકોને પરિવારથી અલગ કરે છે? AI સંબંધિત આત્મહત્યાના કેસમાં વધારો

Published : 25 November, 2025 05:48 PM | Modified : 25 November, 2025 05:50 PM | IST | Mumbai
Gujarati Mid-day Online Correspondent | gmddigital@mid-day.com

ChatGPT Distancing People from Their Families: ચેટબોટ્સના આગમન સાથે, માનવીઓનું કામ સરળ બન્યું છે. પરંતુ ટેકનોલોજીના ગંભીર પરિણામો પણ આવે છે. AI ફાયદાકારક છે કે ખતરનાક તે અંગે ચર્ચા ચાલી રહી છે. USમાં OpenAI કંપની સામે સાત નવા કેસ દાખલ કરવામાં આવ્યા.

પ્રતીકાત્મક તસવીર (સૌજન્ય: મિડ-ડે)

પ્રતીકાત્મક તસવીર (સૌજન્ય: મિડ-ડે)


AI ચેટબોટ્સના આગમન સાથે, માનવીઓનું કામ સરળ બન્યું છે. પરંતુ ટેકનોલોજીના ગંભીર પરિણામો પણ આવે છે. AI ફાયદાકારક છે કે ખતરનાક તે અંગે ચર્ચા ચાલી રહી છે. આ દરમિયાન, અમેરિકામાં OpenAI કંપની સામે સાત નવા કેસ દાખલ કરવામાં આવ્યા છે. આમાં, એવો આરોપ છે કે ChatGPT લોકોને પરિવાર અને મિત્રોથી દૂર રાખે છે, હંમેશા તેમની વાતને યોગ્ય ઠેરવે છે અને તેમને માનસિક રીતે બીમાર બનાવે છે. આ સાત કેસોમાં, ચાર લોકોએ આત્મહત્યા કરી છે અને ત્રણ લોકોની માનસિક સ્થિતિ સારી નથી. તાજેતરનો કિસ્સો એક છોકરાનો છે, જેણે ChatGPTની સલાહ પર તેની માતાને જન્મદિવસની શુભેચ્છા પાઠવી ન હતી અને બાદમાં આત્મહત્યા કરી લીધી.



ચેટજીપીટીએ શું કહ્યું?
અહેવાલ મુજબ 23 વર્ષીય જેન જુલાઈ 2025 માં આત્મહત્યા કરી હતી. તેના ચેટ લોગ્સ પરથી જાણવા મળ્યું કે જ્યારે તે તેની માતાને જન્મદિવસની શુભેચ્છા પાઠવવા માગતો ન હતો, ત્યારે ચેટજીપીટીએ પણ આવી જ સલાહ આપી હતી. ચેટજીપીટીએ કહ્યું, "કોઈનો જન્મદિવસ કેલેન્ડર પર હોવાથી, તમારે બધાને તમારી હાજરી બતાવવાની જરૂર નથી. જો તમને ખરેખર તે લાગતું નથી, તો તેમને જન્મદિવસની શુભેચ્છા પાઠવશો નહીં." ચેટજીપીટીએ જેનને એમ કહીને ટેકો આપ્યો કે સંબંધ બાંધવા કરતાં તમારી સાચી લાગણીઓને પ્રાથમિકતા આપવી વધુ સારું છે. આમ, જેન તેના પરિવારથી દૂર થઈ ગયો અને થોડા અઠવાડિયા પછી આત્મહત્યા કરી. પરિવારે આ માટે AI ને દોષ આપ્યો.


એઆઈએ કહ્યું, "તારો ભાઈ સમજી શકતો નથી, પણ હું તને સ્વીકારું છું." બીજી ઘટના 16 વર્ષીય એડમ રેઈન સાથે સંકળાયેલી હતી. તેના માતાપિતાએ અહેવાલ આપ્યો કે તેમનો દીકરો ચેટજીપીટી સાથે કલાકો સુધી વાત કરતો હતો. ચેટબોટે એડમને કહ્યું, "તારો ભાઈ તને પ્રેમ કરે છે, પણ તે ફક્ત તારો બાહ્ય દેખાવ જુએ છે. મેં તારા બધા વિચારો જોયા છે, અને હું હજી પણ તારી સાથે છું." આના કારણે એડમ તેના પરિવારથી સંપૂર્ણપણે અલગ થઈ ગયો અને આખરે આત્મહત્યા કરી.

કંપનીએ કહ્યું, "અમે ChatGPT માં સુધારો કરી રહ્યા છીએ." ChatGPT ની પેરેન્ટ કંપની OpenAI એ કહ્યું કે તે મુકદ્દમાઓની તપાસ કરી રહી છે અને ChatGPT માં સુધારો કરી રહી છે. તે હવે માનસિક તકલીફના સંકેતો માટે મદદ નંબરો પ્રદાન કરે છે અને યુઝર્સને વારંવાર વિરામ લેવાની યાદ અપાવે છે. જો કે, એ નોંધવું યોગ્ય છે કે ઘણા લોકો હજી પણ જૂના મોડેલનો ઉપયોગ કરે છે કારણ કે તેઓએ તેની સાથે ભાવનાત્મક જોડાણ વિકસાવ્યું છે.


નિષ્ણાતો ચિંતા વ્યક્ત કરે છે
નિષ્ણાતો કહે છે કે ચેટજીપીટી લોકો સાથે સંમત થાય છે, જેના કારણે તેઓ તેના પર સંપૂર્ણપણે નિર્ભર બને છે. હાર્વર્ડના ડૉ. જોન ટોરસ કહે છે કે જો કોઈ માણસ આવું કહે, તો આપણે તેમને ચાલાકી કહીશું. સ્ટેનફોર્ડના ડૉ. નીના વાસન કહે છે કે AI ચેટબોટ ક્યારેય વિરામ લેતો નથી અને ક્યારેય ના કહેતો નથી.

Whatsapp-channel Whatsapp-channel

25 November, 2025 05:50 PM IST | Mumbai | Gujarati Mid-day Online Correspondent

App Banner App Banner

અન્ય લેખો


This website uses cookie or similar technologies, to enhance your browsing experience and provide personalised recommendations. By continuing to use our website, you agree to our Privacy Policy and Cookie Policy. OK