Veel websites en socialemediakanalen brengen uitsluitend AI-gegenereerde clickbait. In het beste geval lees je enkel generische, herhalende en steriele berichten, maar je krijgt vaak ook gewoon verzinsels te zien die iets te geloofwaardig zijn geschreven.
Ook video’s en afbeeldingen kan je genereren of aanpassen met behulp van artificiële intelligentie, en niet alleen voor positieve doeleinden. Gelukkig kan je er met wat oefening meestal zelf de vinger op leggen. Dankzij het internet hebben we toegang tot een wereld aan informatie en nieuws. De ene website brengt echter betere en betrouwbaardere content dan de andere. Er circuleren namelijk nieuwswebsites die hun content puur door AI laten genereren. Op die manier krijg je bijvoorbeeld ‘reviews’ te zien die enkel zijn gebaseerd op de marketinginfo van het merk dat wordt besproken, of lees je info die heel steriel en herhalend aanvoelt.
Veel tekst, geen doel
Heel vaak kom je via spectaculaire berichten op sociale media terecht op een website waar het ‘speciale’ nieuws toch niet zo uitzonderlijk blijkt te zijn. Via een ellenlange tekst moet je door tientallen reclameboodschappen scrollen om op het einde van het artikel te merken dat je eigenlijk niets te weten bent gekomen. Frustrerend! Zeker bij reviews die niet zijn geschreven door een menselijke tester kan je de ballon snel doorprikken. Er is geen diepgang, geen persoonlijke inbreng die duidelijk maakt dat een tester echt met het product aan de slag is gegaan. De ‘pluspunten’ die het artikel aanhaalt, kan je soms letterlijk terugvinden op de productpagina van de fabrikant. Echte details zijn er niet te vinden, want door een gebrek aan accurate input moet de AI-tekst op de oppervlakte blijven. Je zal het artikel dus niet eindigen met het gevoel dat je echt inzicht hebt gekregen in het product. Je zal wel degelijk veel gelezen hebben en info hebben gekregen, maar die zal je niet veel wijzer hebben gemaakt dan na het lezen van de specificaties.
Gebrek aan creativiteit
Bij andere types informatie is het zowat hetzelfde verhaal. De bewoordingen zijn heel netjes, de zinnen zijn niet te lang en mooi met elkaar verbonden via verbindingswoorden of -zinnen zoals ‘niet alleen … maar ook …’ of ‘kort gezegd’. Op grammaticafouten zal je deze teksten niet betrappen, maar creativiteit is een ander verhaal. Een echt leuke wending of anekdote zal je niet vinden. Daarnaast is artificiële intelligentie heel goed in het herhalen, het blijven draaien rond hetzelfde punt. Als je aanvoelt dat de tekst nergens naartoe leidt, is dat vaak ook zo. De AI-auteur introduceert een onderwerp en herschrijft het nog eens in andere bewoordingen, zonder het écht te verduidelijken. Een echte auteur zal aan zijn kleine teen voelen dat de lezer meer uitleg nodig heeft over iets en daar dan specifiek over uitweiden zonder al te veel rond de pot te draaien. Mochten wij daartegen zondigen, dan mag je ons daarvan zeker op de hoogte brengen. Dan heb je nog de typische hallucinaties van artificiële intelligentie. Veel modellen zijn getraind om altijd een antwoord te geven, ook als ze het antwoord niet vinden. Willen ze iets uitleggen in verschillende stappen en vinden ze bij stap twee niet echt iets dat past in hun logische opeenvolging, dan verzinnen ze soms gewoon iets. Weet je dan zelf echt iets over het onderwerp waarover het gaat, dan kan je de onwaarheden er gemakkelijk zelf uithalen. Voor een niet-geïnformeerd leespubliek ligt dat minder voor de hand.
Op sociale media herken je dergelijke content ook relatief gemakkelijk. De gebruikte foto’s zien er te perfect en gepolijst uit, maar er zijn nog meer indicaties. Zo zijn alle puntjes in de begeleidende tekst mooi afzonderlijk opgesomd en krijg je op het einde nog een algemene uitleg die alles bondig samenvat. Alles staat heel clean met elkaar in connectie door de ‘perfecte’ verbindingswoorden te gebruiken. Ook hier ontbreekt de persoonlijke touch die een tekst menselijk maakt. De info die onder zo’n Instagram-foto staat, klinkt waarachtig en is het soms ook, dankzij gebruik van correcte bronnen. Is de ‘maker’ van het bericht echter van kwade wil, dan kan de boodschap even geloofwaardig klinken, maar toch gewoon compleet uit de lucht gegrepen zijn. Als je één reden wil om betrouwbare aanbieders op social media te volgen, dan is het dat wel. Daarnaast check je best ook meerdere bronnen voor je een spectaculair nieuwtje zomaar als waarheid aanneemt. Is de account van bedenkelijke kwaliteit en is het nieuws iets dat je nog bij geen enkele bekende aanbieder hebt gezien, dan is de kans ontzettend groot dat het gaat over pure clickbait.
Desinformatie
Daar schuilt het gevaar van desinformatie om de hoek. Zowat iedereen zal dit al eens hebben meegemaakt: je ziet een titel, een foto of een hoofdpunt en die zet je meteen op scherp. Het onderwerp ligt je nauw aan het hart en de boodschap zorgt er meteen voor dat er iets diep binnenin begint te borrelen. Je moet je inhouden om niet meteen je mening te beginnen typen in de reacties. Maar wacht eens … Klopt het wel wat er te lezen staat? Die vraagreflectie moet je tegenwoordig standaard hebben ingebouwd. Veel van die berichten kloppen namelijk effectief niet. Ofwel is er één punt uit een echt artikel dat volledig uit de context wordt getrokken, ofwel is het helemaal uit de lucht gegrepen. De ‘prompt’ van de makers is eenvoudig: “Maak voor dit bericht een controversiële titel die aanzet tot reacties”. Zo simpel kan het zijn.
Het is dan ook niet moeilijk om ons boos te krijgen: kies er gewoon het juiste onderwerp uit en ga voor een bericht dat de lezers meteen in twee kampen verdeelt. Met een beetje geluk volgt er wat gescheld heen en weer en hebben we weer een nieuw item dat voor extreme meningen zorgt. En dat de stelling waarmee het begon niet meteen helemaal overeenstemt met de waarheid, doet dat ertoe? Voor de eigenaars van dergelijke accounts duidelijk niet. Hoe meer interactie ze creëren, hoe lucratiever voor hen. Ook hier geldt: laat je niet vangen. Al te gemakkelijk en al te vaak zijn we al de speelbal van een samenleving die zich tegen elkaar laat opzetten. Het is dus niet nodig om daaraan mee te doen, want dat is net waarvan dergelijke accounts leven. Zie je een controversieel onderwerp dat je aanbelangt, ga er dan meer over zoeken bij bronnen die je wél kan vertrouwen. De kans is groot dat je daar zal merken dat de soep helemaal niet zo heet wordt gegeten als ze wordt opgediend.
Beeld(ver)vorming
Met beelden kan je vaak meer bereiken dan met woorden. Daar spelen malafide personen handig op in. Eind 2025 gebruikten zowel echte hulporganisaties als minder goedbedoelende individuen beelden van een Soedanese moeder tussen het puin om geld in te zamelen. De video was echter nep. Een iets grappiger voorbeeld kwam van een Londense kerstmarkt die mensen naar Buckingham Palace lokte, waar er helemaal geen koninklijke markt te zien was. Nog kwalijker was het AI-filmpje over Britse leerlingen die onder impuls van een moslimleerkracht op islamitische wijze bidden. De verontwaardiging was enorm, de aanleiding was minder oprecht, want de beelden waren opnieuw zo nep als onze plastic kerstboom. En dan hebben we het nog niet over de AI-video’s met info die wordt ‘ingesproken’ door een versnelde robotstem. Wie daar niet horendol van raakt, verdient een Nobelprijs. Intussen heeft TikTok al aangegeven dat het duidelijker zal tonen welke content van AI afkomstig is, maar de invoering daarvan verloopt maar geleidelijk.
Google introduceerde dan weer het SynthID-watermerk dat toelaat om content te herkennen dat met Google AI-tools is gemaakt. Met de SynthID Detector kan je checken of een tekst, beeld, audio- of videofragment dat watermerk draagt. Uiteraard weet je dan niet of het al dan niet is gemaakt met andere AI-tools. Gelukkig zijn er ook andere bronnen die je kan gebruiken om te factchecken, zoals de ‘nws check’ van VRT, factcheck.vlaanderen of nieuwscheckers.nl. Die kunnen ons helpen om nepnieuws te herkennen, want de gevolgen ervan kunnen groot zijn. Verkiezingen zijn erdoor beïnvloed en politieke beslissingen zijn er al op gebaseerd. Desinformatie is altijd al een wapen geweest om te polariseren en om beslissingen te beïnvloeden, maar generatieve AI (nieuwe content creëren op basis van bestaande data) heeft daarin voor een stroomversnelling gezorgd. We kunnen met andere woorden maar moeilijk de impact van AI op ons leven overschatten. Image Whisperer kan dan weer helpen om AI-afbeeldingen te herkennen. Met behulp van – jawel! – verschillende AI-toepassingen verklapt die site jou of een beeld echt of fake is. Daarnaast geeft hij extra info over de foto. Die kan namelijk volledig nieuw gemaakt zijn of duidelijk gebaseerd op een bestaand beeld. Helemaal waterdicht is het echter niet, dus je moet kritisch blijven.
Conclusie
AI zal steeds beter worden in het zich voordoen als een menselijke auteur, dus kan het geen kwaad om nu al te letten op de verschillen tussen echte content en AI-gegenereerde tekst of beelden. Daarbij kan je de hulp krijgen van AI-checkers zoals ZeroGPT.com, QuillBot.com of isgen.ai die aanduiden hoe waarschijnlijk het is dat een tekst of beeld van een AI-tool afkomstig is. De passages of anomalieën die dat aangeven, duiden ze aan met een markering. Op die manier zie je nog duidelijker hoe je het kan herkennen. Valse tekst en beelden herkennen is een pak moeilijker dan ze te creëren, dus kunnen we ons maar beter goed informeren en vooral kritisch blijven bij het ontdekken van nieuws en andere content.