Je hebt wat vage buikpijn, tikt het in op Google en vijf minuten later ben je ervan overtuigd dat je nog hooguit drie dagen te leven hebt. Het is een internetklassieker. Maar het kon nog veel erger: Google besloot onlangs om gezondheidsadvies van willekeurige internetgekkies via AI te bundelen bovenaan de zoekresultaten. Verrassing: dat bleek een dramatisch slecht idee.
Van zoekmachine naar digitale kwakzalver
Eind vorig jaar introduceerde Google met veel bombarie de ‘What People Suggest’ feature. Het idee klonk in de bestuurskamers van Silicon Valley waarschijnlijk fantastisch: gebruik geavanceerde AI-modellen om fora en sociale media af te struinen naar ‘geleefde medische ervaringen’ van echte mensen [1.3]. Had je vage huiduitslag? Dan vertelde de AI je vrolijk dat een anonieme gebruiker op Reddit het succesvol behandelde met tandpasta en wat motorolie.
Wat Google hiermee probeerde te doen, is de gigantische stroom aan medische zoekopdrachten afvangen met behapbare, menselijke antwoorden. Maar in de praktijk is het simpelweg levensgevaarlijk om complexe medische context over te laten aan een taalmodel dat niet het verschil snapt tussen een gediplomeerd arts en een trol met te veel vrije tijd.
Stille aftocht door de achterdeur
Zoals onlangs gemeld door The Guardian heeft Google de functie inmiddels stilletjes de nek omgedraaid. Vraag je de techreus om opheldering, dan krijg je een prachtig staaltje corporate PR: “Het is onderdeel van een bredere versimpeling van de zoekpagina en heeft absoluut niets te maken met de veiligheid van de functie”. Tuurlijk. En wij bij Draadbreuk geloven nog in Sinterklaas. Achter de schermen heeft de juridische afdeling ongetwijfeld hyperventilerend aan de noodrem getrokken.
Moeten we AI überhaupt medisch advies laten geven?
Het grote probleem met generatieve AI is dat het extreem overtuigend onzin kan uitkramen. Bij Your Money or Your Life (YMYL) zoekopdrachten — zoals gezondheid of financiën — is de foutmarge letterlijk nul. Paradoxaal genoeg lopen er tegelijkertijd klinische projecten waarbij Google’s AI de accuraatheid van menselijke radiologen verslaat in het detecteren van borstkanker. Dat is wél nuttig. Laat AI alsjeblieft medische data analyseren in gecontroleerde ziekenhuisomgevingen, maar hou het ver weg van onze late-night hypochondrie-sessies op de bank.
Veelgestelde Vragen (FAQ)
Wat was Google’s ‘What People Suggest’ functie?
Dit was een AI-functie in de Google zoekresultaten die medische adviezen en ervaringen van willekeurige internetgebruikers (zoals forumposts) samenvatte en direct toonde bij gezondheidsgerelateerde zoekopdrachten.
Waarom is Google gestopt met deze medische AI-functie?
Hoewel Google officieel claimt dat het een ‘versimpeling van de zoekpagina’ is, wezen experts direct op de enorme gevaren van het crowdsourcen van medisch advies via AI, wat kan leiden tot schadelijke en onjuiste gezondheidsclaims.
Beïnvloedt dit andere Google AI-zoekresultaten?
Nee, de reguliere ‘AI Overviews’ in Google Search blijven bestaan. Google richt zich voor deze medische queries nu echter weer op officiële en geverifieerde medische bronnen in plaats van ongefundeerde gebruikerservaringen.

