Bi zaupali svoje zdravje umetni inteligenci?
Umetna inteligenca (AI) je vseprisotna. Uporablja se za urejanje fotografij, iskanje informacij in vse bolj tudi za vprašanja o zdravju. A ko gre za diagnozo in zdravljenje bolezni, se postavlja vprašanje: ali se lahko zanesem le na vrsto algoritemskih besed?
Ko samozdravljenje vodi v resno škodo
Nedavni primer iz Irske: 37-letni oče, Warren Tierney, je imel vztrajno vnetje grla in težave z požiranjem. Uporabil je ChatGPT, ki mu je zatrdil, da je rak “zelo malo verjeten”. Zaradi te pomiritve je odložil obisk zdravnika. Šele čez več mesecev so mu postavili diagnozo raka požiralnika v četrti stopnji – stanje, ki ima zelo slabe možnosti za ozdravitev. Tierney verjame, da bi pravočasni obisk zdravnika pomenil ključni čas za zdravljenje
Vzeto iz: The Times of IndiaThe Economic Times.
Primer iz Iraka: Moški je občutil hude bolečine v trebuhu. Namesto pri zdravniku je vprašal AI, katero zdravilo naj vzame. Le nekaj ur kasneje je umrl. Čeprav gre za primer iz Iraka, jasno opozarja, kako nevarno je samozdravljenje na podlagi AI nasvetov.

Napačne diagnoze v zdravstvenih sistemih
Primer iz Londona: AI-orodje “Annie” je napačno označilo bolnika kot diabetika in srčnega bolnika. Na podlagi tega je prejel povabilo na pregled za bolezen, katere ni imel. AI je celo navedel izmišljeno bolnišnico in naslov, kar je jasno pokazalo, kako nevarno je vključevanje AI v medicinske evidence brez človeškega nadzora
Vzeto iz: Critiqs.
Primer iz raziskav: Študija iz JAMA Pediatrics je pokazala, da je ChatGPT napačno diagnosticiral kar 72 od 100 pediatričnih primerov ter dodatnih 11 ocenil kot preveč splošne diagnoze. To razkriva, da modeli, ki morda “položijo izpit”, niso nujno primerni za realno medicinsko komunikacijo (Vzeto iz Axios).
Ko AI "opazi" neobstoječi del telesa
Zdravstveni AI model podjetja Google, Med-Gemini je v raziskovalni objavi omenil “infarkt stare leve basilarne ganglije” – kar ne obstaja. Gre za zvočno podobni, a napačni izraz, ki združuje “basalno” in “basilarno”. Če takšni napaki zdravnik ne bi opazil, bi lahko povzročila napačno interpretacijo zdravstvenih podatkov (Vzeto iz The Verge.)
Kaj pravijo raziskave in strokovnjaki
- Harvard in Stanford: AI lahko brezhibno opravi medicinske izpite, a se spotakne pri resničnem pogovoru s pacientom – primanjkuje mu vprašanj, ki jih zdravnik postavlja pacientu, ter razumevanja konteksta.
- Forbes – “Automation Bias”: Ljudje so nagnjeni verjeti strojni presoji, tudi za domnevno napačne, kar lahko vodi v resne diagnostične napake
- Stanford HAI – vprašanje odgovornosti: AI lahko spregleda ključne dejavnike (npr. družinsko zgodovino), zato postavljajo vprašanja o zakonski odgovornosti – kdo je kriv, če AI pusti smrtno nevarne podatke neopažene
Kako varno uporabljati AI v zdravstvu
Priporočila strokovnjakov:
- AI je lahko uporabno orodje, nikoli pa nadomestek za zdravnika.
- Resni zdravstveni simptomi zahtevajo osebni posvet z usposobljenim zdravnikom.
- Vsak AI-nasvet je treba kritično preveriti in primerjati z uradnimi viri.
- Zdravniki naj imajo možnost pregledati in oceniti AI rezultate, preden vplivajo na potek zdravljenja.
Zaključek
AI je lahko koristen, če služi kot podporno orodje, ne pa samostojen diagnostik. Zdravniška strokovnost, empatija in klinična presoja – to so dejavniki, ki jih ni nadomestila nobena tehnologija. Če si na področju zdravja v dvomih, izberi varno pot: osebni zdravniški pregled.