In de rubriek “Wetenschap” schrijft onze redactie over interessante visies en ontwikkelingen die hun schaduw vooruitwerpen.

MAASSLUIS | Vandaag de dag is technologie diep verweven in ons dagelijks leven. Het ontwikkelt zich in een buitengewoon tempo. Alle vooruitgang in technologie gaat echter gepaard met een evenredige mate van risico. In 2024 zagen we vooral grootschalige datalekken in de krantenkoppen, terwijl AI de grenzen van de realiteit begon te verleggen en de manier waarop we werken, creëren en omgaan met technologie begon te hervormen.

Met dit alles in gedachten, zal 2025 een jaar van diepe transformatie in het landschap van cybersecurity worden. Vandaag kijken we naar het fenomeen “Deepfake“.

Deepfake Revolutie

Deepfakes — AI-gegenereerde media die zijn ontworpen om echte mensen na te bootsen — worden zo geavanceerd dat zelfs experts moeite kunnen hebben om waarheid van vervalsing te onderscheiden. In 2025 verwachten we stijgingen op onderstaande terreinen.

Het is niet gezegd dat onderstaande daadwerkelijk gaat plaatsvinden. De potentie is er echter wel en wetgevers worstelen met wetgeving en middelen om deepfake te voorkomen en te detecteren.

Persoonlijke aanvallen

Geminachte individuen kunnen deepfakes gebruiken om anderen te belagen of af te persen, niet alleen door rechtstreeks op het individu te mikken, maar ook door overtuigende valse media van familieleden of vrienden te creëren. Deze gefabriceerde video’s of audioclips kunnen worden gebruikt om slachtoffers emotioneel te manipuleren, valse geruchten te verspreiden of zelfs persoonlijke relaties onder druk te zetten, wat de psychologische impact van dergelijke aanvallen vergroot.

Politieke manipulatie

Overheden en kwaadwillenden kunnen deepfakes gebruiken om te verdelen, desinformatie te verspreiden en samenlevingen te destabiliseren. Stel je een nep-toespraak voor van een wereldleider die valse beleid aankondigt – dergelijke inhoud kan paniek veroorzaken, het vertrouwen in instellingen ondermijnen en de publieke opinie manipuleren.

█ Elon Musk en Donald Trump staan al op de lijst van manipulatoren.

Deepfakes kunnen ook gericht zijn op journalisten of politieke tegenstanders, schadelijke schandalen fabriceren of betrouwbare bronnen in diskrediet brengen, wat het publieke vertrouwen in de media ondermijnt. Dit benadrukt de behoefte aan een systeem waarin authenticiteit niet onderhandelbaar is – waar digitale handtekeningen de standaard kunnen worden om vertrouwen te herstellen.

Financiële fraude

Deepfake-video’s of audioclips van executives (CEO’s) kunnen worden gebruikt om personen emt autoriteit na te doen, werknemers te overtuigen om geld over te maken, gevoelige bedrijfsinformatie te onthullen of ongeautoriseerde transacties goed te keuren.

De communicatie kan gecompromitteerd (vervalst) zijn. In Amerika spreekt dan van Business Communication Compromise (BCC). Dit kan bijvoorbeeld plaatsvinden met een overtuigende video van een CEO die een financiële medewerker opdraagt een betaling te versnellen, en daarmee typische waarborgen (controles zoals het vierogen principe) omzeilt, vanwege de waargenomen authenticiteit en het daarmee gevestigde vertrouwen.

Deze soort bedreiging eindigt overigens niet bij interne fraude; deepfakes kunnen ook gericht zijn op investeerders of klanten, wat het vertrouwen in corporate communicatie ondermijnt en op lange termijn reputatieschade veroorzaakt. Deze aanvallen kunnen door hele leveringsketens en financiële systemen heen een rimpelffect hebben, wat op ongekende schaal chaos creëert.


Art Chabot

Art Chabot

ART CHABOT | Junior Redacteur|
AI Nerd | Snelle denker en schrijver | Objectiviteit en Relevantie maken het verschil | Ad hoc reddingsboei voor de redactie. | AI toepassen en doorgronden | Kenniswerker met voorliefde voor populair wetenschappelijk terrein en politiek |