top of page

Kan ChatGPT Health de versnipperde zorg oplossen?

Bijgewerkt op: 20 mrt

OpenAI | ChatGPT Health

OpenAI heeft recentelijk ChatGPT Health aangekondigd. Hoewel ik meestal vrij kritisch ben over het meegaande (soms te bevestigende) gedrag van ChatGPT en de invloed daarvan op wat mensen als waarheid beschouwen, zie ik dit als een veelbelovende ontwikkeling.


Eerst: wat is ChatGPT Health?

  • Een speciale, privacy-versterkte omgeving binnen ChatGPT voor gezondheidsgerelateerde vragen. Gezondheid krijgt een aparte tab, met een eigen geschiedenis en geheugen, die niet worden gebruikt om de onderliggende modellen te trainen en gescheiden blijven van je gewone chats. Let op: het is niet GDPR- of AI-Act-proof, dus in Europa voorlopig niet beschikbaar.

  • Je kunt elektronische patiëntendossiers en gezondheidsapps zoals Apple Health, MyFitnessPal en Peloton koppelen, zodat uitleg, trends en aanbevelingen gebaseerd zijn op je eigen data in plaats van op algemene zoekresultaten.

  • Het is ontworpen om je te helpen bij het begrijpen van labuitslagen, het voorbereiden van doktersbezoeken, het interpreteren van data van wearables en apparaten en het vergelijken van bijvoorbeeld verzekeringsopties.

Belangrijk: deze functie is nog niet beschikbaar in Europa. Het voldoet niet aan Europese data- en privacywetgeving, dus het duurt nog wel even voordat het hier wordt uitgerold.

Waarom dit een veelbelovende ontwikkeling is

  • Meer dan 200 miljoen mensen stellen wekelijks gezondheidsvragen aan ChatGPT. Vaak laat op de avond, tussen afspraken door, of wanneer ze vastlopen in het zorgsysteem. De specifieke gezondheidsvariant van ChatGPT zou betere antwoorden en meer privacybescherming moeten bieden dan de generieke versie die mensen vandaag gebruiken.

  • De gezondheidszorg is een versnipperd systeem. Informatie zit verspreid over portals en apps, consulten zijn kort, er zitten vaak lange periodes tussen afspraken en beschikbare documentatie staat vol vakjargon. Daardoor hebben veel mensen moeite om hun eigen gezondheidsinformatie effectief te gebruiken. Een altijd-beschikbare assistent kan mensen helpen hun gezondheid in hun eigen tempo te begrijpen en beter voorbereid bij artsen te verschijnen.


Tegelijkertijd is dit geen eenduidige winst

  • Het koppelen van medische dossiers aan een algemene AI vergroot ook de kans op subtiele fouten, bevooroordeelde suggesties, overmatig vertrouwen en verkeerde interpretaties van complexe situaties.

  • Zelfs met sterkere privacymaatregelen, encryptie en een aparte gezondheidsomgeving wordt zeer gevoelige data opnieuw op één plek geconcentreerd. Dat roept vragen op over governance, toegangsbeheer en langdurig gebruik. En geen enkele vorm van fine-tuning of benchmarking (zoals OpenAI’s HealthBench met honderden artsen) maakt van een taalmodel een bevoegde zorgverlener.

Waar dit naartoe kan gaan

  • Het begrijpen van je eigen gezondheidsdata is een sterke 'use case'; het vervult een duidelijke behoefte en creëert waarde. Ik verwacht daarom dat dit op termijn een betaalde optie binnen ChatGPT wordt, als aanvulling op een regulier abonnement. Dat zal nog even duren, omdat OpenAI eerst moet leren hoe mensen het gebruiken en het product verder moet verfijnen.

  • ChatGPT heeft al groepschats geïntroduceerd. Stel je voor dat je je huisarts en medisch specialisten uitnodigt in zo’n chat. Zij kunnen zien welke vragen je stelt en welke informatie je krijgt, en eventueel zelf reageren of vragen stellen. Vanuit informatiebeheer en diagnostiek zou dit zeer waardevol zijn. Tegelijkertijd roept het vragen op over de integratie in het huidige zorgmodel:

    • Kan een arts de tijd die hij besteedt aan een chat declareren bij de verzekeraar?

    • Hoeveel tijd mag een arts besteden aan de chats?

    • Hoe ga je om met patiënten die honderden berichten per dag sturen?

    ChatGPT zou hiermee een medisch product worden, wat betekent dat het in elk land de juiste vergunningen nodig heeft. Waarschijnlijk is dit niet de route die OpenAI als eerste zal kiezen; maar voor patiënten en artsen zou het wel de meest wenselijke zijn.

Mijn conclusies

  • Mensen gebruiken nu al Google en ChatGPT om hun gezondheidsinformatie te begrijpen, mede omdat het zorgsysteem zelf hier geen goed alternatief voor biedt. ChatGPT Health is een belangrijke stap richting AI als dagelijkse gezondheidsassistent. Het vervult een grote onvervulde behoefte, omdat veel mensen de zorg als een gebroken systeem ervaren.

  • Nu deze functionaliteit van een kleine testgroep naar bredere beschikbaarheid gaat is het cruciaal dat patiënten, zorgverleners, toezichthouders en ontwikkelaars bewust omgaan met hoe (en wanneer) deze technologie wordt ingezet.

  • Het kan mensen helpen om complexiteit te begrijpen, betere vragen te stellen en gaten in het systeem te overbruggen, maar daarvoor moeten we mensen goed informeren en trainen. Als je de verkeerde vragen stelt dan kan het ook averechts werken.

  • Wat mij zorgen baart, is dat OpenAI tot nu toe groei en gebruikersbetrokkenheid vaak boven veiligheid heeft gesteld. Dat kan in de gezondheidszorg tot grote problemen leiden.


Oproep voor onderzoek

Ik doe momenteel onderzoek naar de rol van AI-companions in ons leven, en AI-gezondheidsassistenten zijn één van de meest veelbelovende toepassingen.


Heb jij persoonlijke ervaring met het intensief gebruiken van AI om je gezondheid beter te begrijpen: positief of negatief? Neem dan contact met me op. Ik interview je graag om hier meer over te leren (volledige vertrouwelijkheid gegarandeerd).







bottom of page