De ondraaglijke lichtheid van AI: 'Je hebt gelijk, ik zat ernaast'
In dit artikel:
AI-chatbots lijken steeds vaker op een vlotte verkoper: ze formuleren overtuigend en natuurlijk, maar dat betekent niet dat de inhoud klopt. Dr. Martin J. Krämer, Security Awareness Advocate bij KnowBe4, waarschuwt dat het vertrouwen snel verschuift van mens naar machine terwijl AI zelf geen besef heeft van waarheid, context of gevolgen. Chatbots zoals ChatGPT, Gemini en Copilot genereren tekst op basis van patronen in bestaande data — inclusief fouten en vooroordelen — en presenteren antwoorden op een professionele, geloofwaardige manier. Daardoor nemen mensen conclusies over zonder na te gaan waarop die zijn gebaseerd.
Krämer benadrukt dat AI prima kan helpen bij tekstproductie, informatievergaring en onderbouwing van keuzes, maar nooit de uiteindelijke autoriteit mag worden. Hij adviseert om AI te zien als een slimme, enthousiaste stagiair: nuttige bijdragen leveren, maar altijd gecontroleerd en geverifieerd door mensen. Praktische stappen zijn het checken van aannames, nagaan van de herkomst van informatie en verifiëren bij betrouwbare bronnen of deskundigen.
Het belang van deze houding wordt extra onderstreept rond momenten als Safer Internet Day, wanneer bewustzijn over online risico’s centraal staat. Krämer is actief in ANP Expert Support en heeft eerder al gewaarschuwd voor zwakke wachtwoorden, deepfakes en nieuwe oplichtingstechnieken met pakketjes. De krant gebruikte voor het artikel de titel ontleend aan Milan Kundera’s De ondraaglijke lichtheid van het bestaan — een hint naar de fragiele balans tussen gemak en verantwoordelijkheid bij het gebruik van AI.