Wanneer ‘real-time’ AI achterblijft: waarom chatbots het nieuws soms missen
AI-chatbots positioneren zich steeds nadrukkelijker als alternatief voor klassieke zoekmachines, ook bij vragen over actuele gebeurtenissen. Ze beloven real-time toegang tot het web, maar recente tests tonen aan dat die belofte niet altijd wordt ingelost. Bij breaking news geven dezelfde systemen soms tegenstrijdige of foutieve antwoorden. Niet omdat ze het nieuws niet kunnen vinden, maar omdat ze besluiten het web niet te raadplegen. Dat legt een fundamenteel probleem bloot rond betrouwbaarheid en verantwoordelijkheid.
AI als nieuwszoekmachine: hoge verwachtingen
Voor veel gebruikers zijn AI-chatbots uitgegroeid tot een primaire toegangspoort tot informatie. Ze combineren zoeken, samenvatten en duiding in één interactie, wat vooral bij nieuws aantrekkelijk is. Wie een vraag stelt over een lopende gebeurtenis, verwacht dan ook een correct en actueel antwoord. In theorie beschikken moderne AI-systemen over de technologie om dat te leveren. In de praktijk blijkt die verwachting echter niet altijd realistisch.
Een test die de zwakke plekken blootlegt
Dat werd duidelijk in recente experimenten rond een breaking-news-scenario, waarbij meerdere AI-platforms vragen kregen over een vermeende internationale gebeurtenis. Ondanks het feit dat het scenario expliciet als actueel werd gepresenteerd, reageerden sommige chatbots door het nieuws resoluut te ontkennen. Dat gebeurde zelfs uren nadat het onderwerp breed werd besproken in de media. Opvallend genoeg werd dit door sommige betrokkenen bestempeld als “normaal gedrag” van AI-systemen.
De beperkingen van de knowledge cutoff
De meest gehoorde verklaring voor zulke fouten is de zogenaamde ‘knowledge cutoff’: de datum waarop de trainingsdata van een taalmodel stopt. Alles wat daarna gebeurt, behoort niet tot de interne kennis van het model. Hoewel dat argument logisch klinkt, verklaart het niet alles. In herhaalde tests bleek namelijk dat dezelfde chatbots later wél correcte antwoorden gaven op exact dezelfde vragen, simpelweg door actief het web te doorzoeken. Dat wijst erop dat het probleem niet zozeer zit in verouderde kennis, maar in de keuzes die het systeem maakt.
Wanneer wordt het web wel - en niet geraadpleegd?
Vrijwel alle grote AI-platforms adverteren vandaag met real-time webtoegang, vaak via technieken zoals Retrieval-Augmented Generation. Daarmee kan een model actuele informatie ophalen om zijn antwoorden aan te vullen. Cruciaal detail: die functionaliteit wordt niet standaard bij elke vraag ingezet. Het raadplegen van live bronnen kost extra rekenkracht, verhoogt de responstijd en drijft de kosten op.
Daarom maken platforms gebruik van geautomatiseerde routeringssystemen die inschatten of een vraag “actueel genoeg” is om live zoekopdrachten te rechtvaardigen. Hoe die systemen precies werken, blijft grotendeels ondoorzichtig. Wat wel duidelijk is: ze maken fouten. Soms wordt aangenomen dat bestaande trainingsdata volstaat, terwijl recente informatie juist essentieel is.
Zelfverzekerd fout: een gevaarlijke combinatie
In sommige gevallen worden vragen bovendien aangemerkt als mogelijk misleidend of frauduleus. Het systeem kan dan besluiten minder middelen in te zetten, met als gevolg dat het antwoord terugvalt op oudere data. Het resultaat is een reactie die zelfverzekerd klinkt, maar feitelijk onjuist is. Dat vormt een reëel risico. Wanneer een AI-platform een actuele gebeurtenis ontkent en suggereert dat de gebruiker is misleid door desinformatie, ondermijnt dat het vertrouwen in zowel technologie als nieuwsvoorziening.
Verantwoordelijkheid niet bij de gebruiker
Vaak wordt gesteld dat gebruikers moeten begrijpen dat AI-systemen kunnen “achterlopen” en daarom kritisch moeten blijven. Maar die redenering schuift de verantwoordelijkheid te gemakkelijk door. Als een platform expliciet belooft real-time websearch te gebruiken om antwoorden actueel te houden, dan is het niet activeren van die functie bij een duidelijke actualiteitsvraag geen onvermijdelijke beperking. Het is een tekortkoming van het product.
Transparantie als noodzakelijke volgende stap
Naarmate AI-chatbots een centralere rol innemen in hoe mensen nieuws zoeken en interpreteren, worden dit soort fouten steeds consequenter. Transparantie over wanneer en waarom live zoekfuncties worden ingezet is geen detailkwestie, maar een noodzakelijke stap richting betrouwbare en verantwoordelijke AI-gedreven informatievoorziening.

