Nieuws

OpenAI geeft toe: cybercriminelen gebruiken steeds vaker ChatGPT

cybercriminelen
© iStock

Cybercriminelen gebruiken AI steeds vaker om hun phishing en malware te verbeteren én efficiënter te verspreiden.

AI kan nuttig zijn in de cybersecurity: het automatiseert saai, repetitief werk en geeft menselijke experts meer tijd voor complexe problemen. Maar zoals bij elke technologie kan het ook verkeerd gebruikt worden. Sinds februari 2024 houdt OpenAI in de gaten hoe kwaadwillenden hun tools inzetten. Inmiddels heeft het bedrijf meer dan 40 malafide netwerken verstoord. In het rapport “Disrupting malicious uses of AI: an update” zet OpenAI vier opvallende trends op een rij.

AI in bestaande workflows

Een eerste trend is dat cybercriminelen AI steeds vaker toevoegen aan hun bestaande werkwijzen om sneller en foutloos te werken. Zo ontdekte OpenAI een netwerk in Cambodja dat ChatGPT probeerde in te zetten om hun processen soepeler te laten verlopen. Andere accounts werden verbannen omdat ze Remote Access Trojans (RAT’s), credential stealers en payloads probeerden te maken.

Sommige groepen combineren verschillende AI-modellen voor uiteenlopende criminele doelen. Een vermoedelijk Russische groep gebruikte AI bijvoorbeeld om nepvideo’s en misleidende content te maken voor sociale media. Ook een aantal Chinese accounts probeerde ChatGPT in te zetten voor phishing en debugging. Vermoedelijk gaat het om de bekende UTA0388-groep, die eerder doelwitten had in de Taiwanese halfgeleiderindustrie, denktanks en Amerikaanse universiteiten.

AI voor camouflage

Cybercriminelen gebruiken AI ook om detectie te ontwijken. Netwerken uit Cambodja, Myanmar en Nigeria vroegen AI bijvoorbeeld om bepaalde aanwijzingen van hun code te verwijderen, zoals em-dashes. OpenAI vermoedt dat ze goed op de hoogte zijn van hoe onderzoekers AI-output herkennen.

AI wordt ook door overheden gebruikt. Zo verstoorde OpenAI netwerken die mogelijk verbonden zijn aan Chinese instanties. Accounts vroegen ChatGPT om voorstellen voor systemen om sociale media te monitoren. Sommige probeerden tools te maken om bijvoorbeeld het transportgedrag van de Oeigoerse minderheid te volgen of financiering van kritische X-accounts in kaart te brengen.

AI verzint geen tactieken

Hoewel AI wordt ingezet door cybercriminelen, is er geen bewijs dat modellen echt nieuwe aanvalstechnieken ontwikkelen. OpenAI benadrukt: criminelen gebruiken AI vooral om hun bestaande methodes sneller uit te voeren, niet om compleet nieuwe aanvallen te bedenken. Tegelijkertijd blijft OpenAI werken aan tools die juist verdedigers helpen om bedreigingen tegen te gaan. Kortom: AI verandert hoe cybercriminelen werken, maar het biedt ook nieuwe mogelijkheden om ze te bestrijden.

Schrijf je in op onze nieuwsbrief en ontvang elke week het beste van Clickx in je mailbox.

Volg Clickx op Google Nieuws om onze nieuwste artikels in je feed te krijgen. Vergeet niet om op ‘Volgen’ te klikken.

Onderwerp: Beveiliging

Meer relevante berichten

Abonneer op Clickx

Krijg Clickx magazine 10 keer per jaar (waarvan 2 extra dikke dubbelnummers) keurig thuisbezorgd.

Schrijf je in op onze nieuwsbrief

Ontvang elke week het beste van Clickx in je mailbox.

Ook interessant:
Lezersaanbod

Geniet van exclusieve deals in onze webshop, met verbluffende kortingsacties op hoogwaardige producten.