Direct hulp nodig? Bel of app ons noodnummer.

040-2095020

AI

  • 22 jun, 2023

Artificial Intelligence: gevaren en kansen binnen cyber security

Vrijwel in elke branche roept Artificial Intelligence vragen op. Zowel over de kansen als de gevaren. Sommigen zijn enthousiast. Anderen zijn angstig. Maar we kunnen er niet omheen: de ontwikkelingen zijn blijvend aanwezig onze wereld. Voor ons een reden om ons erin vast te bijten.

Trends en ontwikkelingen in (open source) AI monitoren

Daarom is ons (Cyberlab)team continu bezig met het monitoren van ontwikkelingen binnen de cyber security, het threatlandschap en zo ook Artificial Intelligence. In dit artikel gaan we ons vooral focussen op open source AI. Wat gebeurt er in die hoek van Artificial Intelligence? En welke kant kan dat opgaan? 

Stevige ontwikkeling in open source AI

We kennen Artificial Intelligence vooral van gereguleerde platforms zoals ChatGPT of – een recenter voorbeeld – Adobe: zij doen hard hun best de technologie zo ethisch mogelijk in te zetten. In de beta fase van ChatGPT was het nog mogelijk een antwoord te krijgen op de vraag “Hoe hack je een WordPress website?”, maar inmiddels doet de chatbot het af met de volgende woorden: 

“Sorry, maar ik kan je niet helpen met het hacken van een WordPress-website. Het hacken van websites is illegaal en immoreel. Als je problemen hebt met een WordPress-website, raad ik je aan om op legitieme wijze contact op te nemen met de eigenaar van de website en eventuele beveiligingsproblemen of zorgen met hen te bespreken. Het is altijd beter om ethisch en verantwoordelijk te handelen als het gaat om technologie.”

De ontwikkelingen bij ChatGPT zijn het meest tastbaar. Maar er is een interessante(re) ontwikkeling gaande binnen een minder gereguleerde tak: open source AI. En die ontwikkelingen kunnen grote impact hebben op de cyber security.

Wat is open source AI? En wat zijn de gevaren?

Open source AI is kunstmatige intelligentietechnologie die openbaar beschikbaar is gesteld. Open source AI omvat inmiddels – dankzij het gelekte basismodel van Meta – alles (datasets, voorgebouwde algoritmen, interfaces, etc.) om u op weg te helpen bij de ontwikkeling van eigen AI-apps. Het geeft direct toegang tot een werkende AI-machine die u zelf kan voeden/trainen. 

Open source AI is handig en prettig voor wie Artificial Intelligence toe wil passen, maar geen tijd of geld heeft om van 0 af aan te beginnen. Het ding is alleen: iedereen kan zo dankzij open source met AI aan de slag. 

Waar de gereguleerde ChatGPT nooit gaat vertellen hoe je een drugslab opzet, zou een AI-bot die ontstaan is vanuit open source misschien wel uitgebreid advies geven hierover. Of over het uitwissen van sporen bij een inbraak. Of iets veel ergers.

En laten we niet vergeten: hackers hebben ook toegang tot open source AI. 

Het cyber security gevaar van open source AI 

Het is geen ondenkbaar scenario dat iemand vanaf zijn thuiskantoor een bot voedt met alle kennis over hacken en cyber security. Kennis over infrastructuren, networking, etc. kan er zelfs voor zorgen dat de bot zelf verbanden gaat leggen. Verbanden die de mens zelf misschien niet eens begrijpt!

Hoe helpt dat hackers? Of: maakt het menselijke hackers zelfs overbodig? 

Een ding is zeker: een computer denkt en handelt altijd sneller dan een mens. Een goede bot met veel kennis van hacken, is misschien in staat ontelbare geavanceerde cyberaanvallen tegelijkertijd te doen. Dat maakt het werk van de hacker ineens nog schaalbaarder. 

Open source en Dark Web

Het is eigenlijk niet eens een vraag of hackers iets doen met de Artificial Intelligence modellen vanuit de open source community. Cybercriminelen zijn altijd bezig hun aanvallen efficiënter en effectiever te maken. Gegarandeerd dat zij ook al spelen met open source AI.

Zo is er al ontdekt dat Machine Learning nu al in te zetten is om malware te implementeren en verspreiden via bedrijfsnetwerken. Niet alleen een risico voor targetorganisaties zelf, maar ook hun Supply Chain.

Bots die zelf kunnen hacken zullen alleen niet snel verschijnen op open source platforms op het direct toegankelijke internet (surface web). Die zien we eerder op het Dark Web.

Ook Google maakt zich zorgen over open source AI

Recent is er onbedoeld door Google een document gelekt. In dit document zijn Google’s zorgen over de ontwikkelingen binnen open source AI te lezen. Google omschrijft dat de innovaties binnen de open source community veel sneller gaan dan zij zelf bij kunnen benen. 

Ze willen een leidende rol te blijven houden op het gebied van regulatie, in de hoop dat de rest hen in hun voetstappen volgt. Maar dan rijst wel de vraagt: trekken kwaadwillenden zich wat aan van Google?

Voordelen van Artificial Intelligence in de cyber security

Het mooie is dat ontwikkelingen die anderen kwaadwillend in kunnen zetten, we binnen de cyber security zelf ook kunnen gebruiken. Maar dan ter verdediging. Het is een eeuwig kat en muis spel: “wat hij kan, kunnen wij ook”. 

Dat betekent wel dat we in de toekomst Machine Learning wellicht meer en meer terug gaan zien in de cyber security. En dat maakt security oplossingen slimmer dan ze al waren. 

Op het moment zien we Machine Learning al steeds meer security technologieën in vloeien. Denk aan SentinelOne en Rapid7 bijvoorbeeld. 

Wat denkt Artificial Intelligence zelf over de gevaren?

We kunnen dit artikel niet afsluiten zonder zelf aan ChatGPT te vragen wat die ervan denkt. Op de vraag “Fantaseer over een wereld waarin AI een gevaar vormt” kwam een opsomming aan scenario’s die – volgens ons – best wel eens realistisch kunnen zijn omhoog: 

  • Autonoom hacken: AI-aangedreven autonome hackingsystemen zouden snel kwetsbaarheden in computernetwerken kunnen identificeren en exploiteren zonder menselijke tussenkomst. Deze systemen zouden voortdurend evolueren en hun technieken aanpassen, waardoor het uiterst uitdagend wordt voor traditionele beveiligingsmaatregelen om bij te blijven.

Pentest

  • 11 nov, 2022

Wat hacken met stalken gemeen heeft

Lees verder

  • Geavanceerde spear-phishing: AI inzetten om geavanceerde en gepersonaliseerde spear-phishingaanvallen te creëren. Door enorme hoeveelheden gegevens over individuen te analyseren, zouden AI-algoritmen overtuigende en op maat gemaakte berichten kunnen genereren die zelfs de meest voorzichtige doelwitten misleiden, waardoor het succespercentage van cyberaanvallen toeneemt.
  • Geautomatiseerde botnets: AI-gestuurde botnets zouden aanvallen op vitale infrastructuur kunnen coördineren, netwerkverdediging overweldigen en grootschalige ontwrichting veroorzaken door massale DDoS (Distributed Denial of Service)-aanvallen uit te voeren.
  • Deepfake-aanvallen: AI gegenereerde deepfake-video’s, audio-opnamen en tekstberichten die aanvallers inzetten om desinformatie te verspreiden, zich voor te doen als invloedrijke personen of de publieke opinie te manipuleren, wat kan leiden tot maatschappelijke onrust, politieke instabiliteit en economische schade.
  • AI-versterkte malware: Cybercriminelen zouden AI kunnen gebruiken om zeer geavanceerde malware te ontwikkelen die detectie door traditionele antivirussoftware ontwijkt en zijn gedrag aanpast op basis van de doelomgeving. Dergelijke malware zou systemen kunnen infecteren, gevoelige informatie stelen of zelfs controle nemen over vitale infrastructuur.
  • Vijandige Machine Learning: AI-systemen zelf kunnen het doelwit worden van vijandige aanvallen en manipulatie. Hackers zouden kwetsbaarheden in AI-algoritmes kunnen exploiteren om hun beslissingen te manipuleren of ervoor te zorgen dat ze verkeerde voorspellingen doen, wat kan leiden tot cascaderende storingen in systemen die afhankelijk zijn van AI, zoals autonome voertuigen of medische diagnostiek.
  • Aanvallen op vitale systemen: AI zou aanvallen op verschillende systemen, zoals elektriciteitsnetwerken, transportnetwerken of industriële controlesystemen, mogelijk maken. Door deze door AI aangestuurde systemen binnen te dringen en te manipuleren, zouden aanvallers essentiële diensten kunnen verstoren, fysieke schade kunnen veroorzaken of zelfs mensenlevens in gevaar kunnen brengen.

De oplossing volgens ChatGPT

De chatbot gaf ook direct een idee van hoe we ermee om moeten gaan:Het aanpakken van de potentiële risico’s van AI-gedreven cyberdreigingen vereist een veelzijdige aanpak die robuuste beveiligingsmaatregelen omvat, voortdurende monitoring, regelmatige updates en patches, samenwerking tussen AI-ontwikkelaars en experts op het gebied van cybersecurity, en de ontwikkeling van AI-systemen met ingebouwde beveiligingsfuncties.” 

Inschrijven nieuwsbrief

Lees ook...

Detection & Response

  • 9 apr, 2024

Wat is een SOC (Security Operations Center)?

Een Security Operations Center (SOC) is al lang niet meer alleen voor de hele grote jongens. Steeds meer uiteenlopende organisaties…

Lees verder

Threatlandschap

  • 26 mrt, 2024

Hoeveel Smart Home apparaten zijn een poort naar China?

Recent kopte de NOS met “Amerikaanse overheid kan bij e-mail van Nederlandse overheden en kritieke bedrijven”. Het is niet ondenkbaar…

Lees verder

Human Factor

  • 25 feb, 2024

90% van werknemers neemt bewust beveiligingsrisico’s

De mens als belangrijke factor binnen de cyber security is op zichzelf niets nieuws: met social engineering spelen hackers al decennia lang in op…

Lees verder

AI

  • 20 feb, 2024

Hoe AI onze online anonimiteit op het spel kan zetten

Alexander Klöpping en Wietse Hage hebben een podcast over Kunstmatige Intelligentie: Poki. En zoals ze zelf zeggen stappen ze soms…

Lees verder

Uw cyber security bespreken en advies ontvangen?

Afspraak maken

Vragen over cyber security? Bel ons vrijblijvend op:

Afspraak maken

"*" geeft vereiste velden aan

Naam*
Privacy policy*