AI geletterdheid voor medewerkers Wat is de impact van GenAI? - NL
1 2
3
voltooid

Desinformatie

hoofdstuk
door: Steven Trooster
2 min.
desinformation.png

Fouten en misinformatie

GenAI systemen werken met voorspellingen. Ze kijken naar wat het meest waarschijnlijke volgende woord in een zin is, om zo een nieuwe, grammaticaal correcte, tekst te produceren. Maar het maakt voor GenAI niet uit of het gegeven antwoord inhoudelijk ook correct is. (Dit wordt ook wel hallucineren genoemd.) Het kan daardoor uitkomsten genereren die niet geheel of juist complete onzin zijn, bijvoorbeeld omdat de afzonderlijke woorden uit context zijn gehaald of in een net iets andere volgorde zijn gezet, waardoor er een tegenovergestelde bewering wordt gedaan. En veel GenAI systemen zijn bijvoorbeeld ook niet in staat om aan bronvermelding te doen, of verzinnen bronnen die plausibel lijken, maar complete onzin zijn.

Automatiseringsbias

Een gevaar dat bestaat, is dat we snel geneigd zijn om de genegeerde uitkomst voor waar aan te nemen. Dit wordt ook wel automatiseringsbias genoemd: mensen hebben de neiging hebben om tegenstrijdige informatie te negeren of niet actief op te zoeken wanneer een door een computer gegenereerde oplossing als correct wordt aangenomen; met name als er tijdsdruk ervaren wordt.

Bewuste desinformatie

De mogelijkheid van GenAI om realistische en plausibele tekst, video, audio en code te creëren, maakt het sneller en gemakkelijker om valse, bevooroordeelde of politiek gemotiveerde media te produceren. Een voorbeeld hiervan zijn de zogenaamde 'deepfakes'. Een deepfake is een afbeelding of audio-/video-opname die is gemanipuleerd om iemand iets te laten doen of zeggen wat hij of zij nooit echt heeft gedaan of gezegd. De twee hieronder weergegeven AI-gegenereerde foto's zijn bijvoorbeeld realistische maar fictieve afbeeldingen van paus Franciscus die een witte gewatteerde jas draagt.

ai_pope_drip_god.jpg.jpeg

Bron: https://www.theverge.com/2023/3/27/23657927/ai-pope-image-fake-midjourney-computer-generated-aesthetic

Deepfakes kunnen worden gebruikt om desinformatie te verspreiden en om haatzaaiende of politiek bevooroordeelde inhoud te promoten. Probeer altijd de authenticiteit van afbeeldingen of opnamen te verifiëren door ze te traceren naar hun oorspronkelijke bron. Een manier om dit te doen is door een zogenaamde 'reverse image search' uit te voeren. Zoekmachines zoals Google of TinEye bieden deze optie. Wees je er ook van bewust dat alle afbeeldingen die je op internet deelt, kunnen worden opgenomen in de trainingsgegevens van GenAI en mogelijk kunnen worden gemanipuleerd en gebruikt voor desinformatie.

tips-small.png

Wat betekent dit voor jou?

  • Voor feitelijke kennis zijn genAI tools niet betrouwbaar. Je kunt dan beter een zoekmachine gebruiken en kritisch reflecteren op de aanwezige bronnen.
  • Als genAI informatie aan je wordt gepresenteerd, cross-check dan of deze juist is bij andere bronnen.