Gisteren stond in de Volkskrant een interessant artikel over het gebruik van kunstmatige intelligentie om de zorg efficiënter te maken. Vooral omdat het liet zien hoe een op zich zinvolle en verantwoorde toepassing van AI toch symptoombestrijding is, en bovendien tot een vicieuze cirkel van steeds meer zinloze en onverantwoorde AI gaat leiden. Met andere woorden: een perfect voorbeeld van tech solutionism.
Het artikel vertelt over een proef waarin artsen AI gebruiken om en patiëntgesprek direct om te zetten in tekst en samen te vatten, zodat deze na correctie aan het patiëntendossier kan worden toegevoegd. De arts hoeft dus niet zelf te mee te typen tijdens het gesprek, wat de kwaliteit van het gesprek ten goede komt. Maar belangrijker nog: het vermindert de administratieve lasten van de arts. Bovendien wordt de inhoud van de dossiers zelf beter: artsen komen minder in de verleiding om (vanwege tijdsdruk) ‘gb’ (‘geen bijzonderheden’) in te invullen. Nu komt er van elk gesprek een keurige samenvatting. Dit is op zich een goede inzet van AI: AI is goed genoeg in het omzetten van spraak in geschreven tekst (Added 2024-10-28: Alhoewel?). Weliswaar blijkt AI minder goed in samenvatten te zijn, maar dat wordt keurig ondervangen door de tekst te laten controleren door de arts voor deze aan het patiëntendossier wordt toegevoegd.
Terecht haalt het artikel Jet Bussemaker, voorzitter van de Raad voor Volksgezondheid en Samenleving, aan die waarschuwt voor het gebruik van AI als symptoombestrijding:
Als je geen discussie voert over de achterliggende waarden die ten grondslag liggen aan wat zorgverleners moeten verantwoorden, kom je nooit tot een vermindering [van de administratieve lasten].
Verderop in het artikel worden namelijk andere voorbeelden van AI toepassingen in de zorg genoemd, die een stuk riskanter zijn. Zoals bijvoorbeeld het door AI laten samenvatten van alle informatie in een dossier van een patiënt die later die dag op spreekuur komt. Zoals gezegd, samenvatten is niet AI’s sterkste kant. Maar in dit geval vindt er geen controle op de samenvatting plaats, met als gevolg dat een door AI gehallucineerde samenvatting tot een verkeerde diagnose kan leiden. Dat is al erg genoeg. Maar als de eerder genoemde proef van het met behulp van AI uitwerken van een patiëntgesprek gaat leiden tot langere patiëntendossiers, wordt de noodzaak om deze tweede AI tool te gebruiken om de voorbereidingstijd voor een consult binnen de perken te houden alleen maar groter. Een technologisch quick fix leidt zo niet tot minder administratieve lasten, maar gewoon tot nog meer technologische noodgrepen. Dat is het begin van een vicieuze cirkel, en daarmee niet een duurzame oplossing. (En in het geval van AI letterlijk niet).
Soms zijn ‘geen bijzonderheden’ beter.