Një artist në Gjermani ka shkuar në spital pasi është pickuar nga një insekt dhe pati simptoma që mjekët nuk arrinin t’i lidhin mes vete. Pas një muaji trajtimesh të pasuksesshme, ai futi historinë e tij mjekësore në ChatGPT, i cili sugjeroi diagnozën: tularemia (ose ethet e lepurit). Chatboti kishte të drejtë dhe rasti u publikua më pas në një studim shkencor, ka raportuar VOX.
Në të njëjtën kohë, në SHBA, një pacient që po shfaqte shenja psikoze rezultoi se kishte ndjekur këshillat e ChatGPT për alternativa të kripës së tryezës. Chatboti i kishte sugjeruar natrium bromid, një substancë toksike që përdoret për pastrimin e pishinave. Pasi e kishte konsumuar për tre muaj, ai përfundoi në një repart psikiatrik për tre javë.
Ky kontrast tregon qartë se ChatGPT mund të ndihmojë në raste të vështira, por edhe të japë këshilla shumë të rrezikshme.
Ekspertët theksojnë se përdorimi i inteligjencës artificiale (AI) për shëndetin kërkon kujdes të madh. Doktoresha Roxana Daneshjou, profesoreshë dhe hulumtuese në Shkollën e Mjekësisë të Stanfordit, paralajmëron njerëzit që të jenë shumë të kujdesshëm.
“Duhet të jemi shumë të kujdesshëm në përdorimin e tij për qëllime mjekësore, sidomos kur nuk kemi njohuritë për të dalluar çfarë është e saktë dhe çfarë jo. Kur është i saktë, funksionon shumë mirë, por kur është i gabuar, pasojat mund të jenë katastrofike”, ka thënë ajo.
Një problem tjetër është se chatbotët kanë tendencë të jenë “servilë”, pra shpesh japin atë që përdoruesi dëshiron të dëgjojë, edhe nëse është e pasaktë. Për këtë arsye, Daneshjou sugjeron që pacientët të përdorin më mirë “Dr. Google”, i cili ofron informacione të verifikuara nga burime si Mayo Clinic dhe Harvard Medical School.
Nga ana tjetër, ChatGPT mund të shërbejë si mjet ndihmës. Ai mund të ndihmojë pacientët të kuptojnë më mirë shënimet e mjekut, të përgatisin pyetje për vizitën e radhës, ose të shpjegojë rezultate analizash në mënyrë më të kuptueshme. Në vitin 2023, një studim tregoi se chatbotët shpesh japin përgjigje më cilësore dhe më empatike sesa vetë mjekët në forume online.
Megjithatë, ekziston edhe çështja e privatësisë, pasi ChatGPT nuk është i mbrojtur nga HIPAA (ligji për privatësinë e të dhënave shëndetësore në SHBA).
Informacioni që fusni mund të ruhet, të përdoret për trajnime dhe, teorikisht, të dalë në përgjigjet për dikë tjetër.
Në anën tjetër të ekuacionit, mjekët tashmë po përdorin AI-në në punën e tyre. Sipas një raporti të Elsevier (2025), rreth gjysma e mjekëve kanë përdorur një mjet AI dhe një në pesë e kanë përdorur për ta kërkuar një mendim të dytë. Studimet tregojnë se ndonjëherë ChatGPT arrin diagnoza më të sakta se mjekët, megjithëse kombinimi i të dyjave është më i fuqishëm.
“Pacientët duhet të flasin me mjekët për përdorimin e modeleve të mëdha gjuhësore, dhe sinqerisht, edhe mjekët duhet të flasin me pacientët për këtë. Nëse të dyja palët dalin nga ‘bota e fshehtë’ dhe bisedojnë hapur, do të kemi komunikim shumë më produktiv”, ka thënë Adam Rodman, mjek në Beth Israel Deaconess Medical Center dhe instruktor në Harvard Medical School.