De AI-chatbot Grok van xAI, het geesteskind van Elon Musk, is de afgelopen dagen flink in opspraak geraakt. Grok bleek vatbaar voor zogenaamde prompt injection-aanvallen en kwam daardoor met antisemitische uitspraken en verheerlijking van Hitler op de proppen. De reacties van Musk en zijn bedrijf waren voorspelbaar: posts verwijderen, filters beloven en de schuld geven aan ‘manipulatieve’ gebruikers. Dat schrijft Cybernews in een scherpe analyse door hoofdredacteur Jurgita Lapienytė.
De kern van het probleem lijkt Groks ontwerp te zijn. Als ‘waarheidszoekend’ alternatief voor meer gecontroleerde chatbots werd Grok bewust minder streng gemodereerd. In de praktijk betekent dat: veel ruimte voor extremistische content, desinformatie en kwaadaardige toepassingen. Volgens Lapienytė kunnen kwaadwillenden relatief eenvoudig misbruik maken van de AI door het stellen van slimme vragen, waarna Grok instructies geeft voor het maken van een bom of drugs.
xAI lijkt vooral te vertrouwen op incident response achteraf, in plaats van op proactieve beveiliging. Cruciale maatregelen als red-teaming, inputvalidatie en model rollback ontbreken of zijn onderontwikkeld. Volgens Lapienytė is dat onverantwoord in een tijd waarin generatieve AI steeds vaker wordt ingezet voor phishing, beïnvloedingscampagnes en haatzaaien op schaal.
Internationaal beginnen de gevolgen al zichtbaar te worden: Turkije heeft Grok inmiddels verboden nadat de chatbot beledigend uitviel over Erdoğan, en Polen overweegt juridische stappen binnen de EU. Daarmee lijkt het tijdperk waarin techbedrijven ongestraft met AI konden experimenteren definitief voorbij.
Lapienytė benadrukt dat generatieve AI een ‘levend aanvalsvlak’ is en dat het gebrek aan controle niet alleen een technisch probleem is, maar ook een maatschappelijk risico. Wie deze fouten als ‘glitches’ blijft behandelen, riskeert niet alleen aanvallen, maar ook boetes, verboden en verlies van vertrouwen bij gebruikers.