Column


Column Richard van Hooijdonk

Kunnen we hackers stoppen met kunstmatige intelligentie?

De markt voor cybersecurity wordt steeds groter, maar de resultaten zijn zeker niet navenant. Er worden honderden miljarden aan uitgegeven en als we de voorspellingen moeten geloven, gaan deze bedragen de aankomende jaren steeds verder oplopen. Traditionele cybersecurity wordt door de exponentiële ontwikkelingen in de mobiele technologie en de opensourcesoftware ook steeds moeilijker en steeds meer ontmoedigend. Niemand kan de ontwikkelingen bijbenen. 

Fundamenteel gebroken 
Overheidsinstellingen, bedrijven en particulieren zijn in toenemende mate slachtoffer van cyberaanvallen en er is geen enkele organisatie die niet al eens een haast levensbedreigende hack heeft meegemaakt. Kijk maar naar Amerikaanse bedrijven als Home Depot en Target, maar bijvoorbeeld ook Sony. Cyberbeveiliging is eigenlijk ‘fundamenteel gebroken’ en er zijn in de wereld van cyberhacking meer bad guys dan good guys..... 

De enige hoop die we nog lijken te hebben, is kunstmatige intelligentie. Daarmee kan realtime gereageerd worden. Mensen alleen kunnen dat niet. Zodra we iets verdachts ontdekken en actie ondernemen om een hack te stoppen, is het in de meeste gevallen al te laat. Natuurlijk zijn er allerlei onderzoeksteams bezig met research naar autonome beveiligings- en hacksystemen en sommige organisaties dagen teams zelfs uit om hun hacksystemen door middel van games te demonstreren – of eigenlijk: te pitchen.

Cyber Grand Challenge 
De Cyber Grand Challenge van DARPA, die begin augustus plaatsvond en is gewonnen door Mayhem, daagde zeven teams uit om een autonoom hacksysteem te ontwikkelen. Tijdens deze challenge namen zeven teams het tegen elkaar op in een game ‘Capture the Flag’. Gedurende deze challenge is het de bedoeling dat hacksystemen de kwetsbaarheden van de andere teams opsporen en aanvallen, en tegelijkertijd de kwetsbaarheden in hun eigen softwaresystemen detecteren en fixen, zonder aan performance en functionaliteit in te boeten. Het winnende team ging met niet minder dan twee miljoen dollar naar huis. 
Robo-hackers kunnen zeer nuttig zijn voor organisaties die hun netwerken snel willen beschermen en problemen willen opsporen voordat iemand de kans krijgt om het systeem binnen te dringen voor het stelen van data of saboteren van systemen. Die optie zou zeker goedkoper zijn dan hoogopgeleide menselijke ‘über-hackers’ aan te stellen. 

In verkeerde handen 
Maar ook al kunnen robo-hackers een waardevolle aanvulling zijn op het cybersecurity-arsenaal van een bedrijf, is er nog steeds het risico dat het gerobotiseerde beveiligingssysteem in verkeerde handen valt. Alles dat kan worden ingezet om op defensieve manier kwetsbaarheden in systemen op te sporen, kan namelijk ook door criminelen gebruikt worden om onze data te stelen of hele systemen te saboteren. Het blijft een tweesnijdend zwaard. De beste oplossing lijkt vooralsnog een samenwerking tussen mens en machine. Er zijn op dit moment diverse detectiesystemen in ontwikkeling die optimaal functioneren wanneer mens en machine nauw samenwerken. Het AI2-systeem dat hieronder beschreven wordt, is daar een voorbeeld van. 

Menselijke intuïtie 
Een groep onderzoekers aan het MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) werkt samen met machine-learningstart-up PatternEx om een detectiesysteem te ontwikkelen voor cyberdreigingen. Het systeem wordt steeds beter in het detecteren van cyberaanvallen doordat het elke dag meer dan 3,5 miljard logbestanden analyseert. Het systeem combineert kunstmatige intelligentie met ‘analyst intuition’ – oftewel de intuïtie van de analist. Dit gecombineerde detectiesysteem heet AI2. 
Eerst worden bestanden gescand met machine-learningtechnieken. Dan worden de bevindingen voorgelegd aan menselijke analisten. Die identificeren vervolgens welke gebeurtenissen verdacht zijn en welke niet en deze feedback wordt weer opgenomen in het leersysteem van de machine. Met het geüpdatete systeem worden de volgende dag weer nieuwe logs geanalyseerd. Hoe meer gegevens het machine-learningsysteem analyseert, des te nauwkeuriger het systeem wordt.

Cascade-effect 
Verschillende onderzoeken hebben aangetoond dat AI2 ongeveer drie keer beter is dan vergelijkbare automatische detectiesystemen. AI2 genereert voortdurend nieuwe modellen die binnen enkele uren verder verfijnd worden. Hiermee kan het systeem potentiële problemen steeds sneller herkennen. Hoe meer aanvallen het systeem ontdekt, des te beter is de feedback die de analisten ontvangen, wat de nauwkeurigheid van de toekomstige voorspellingen weer ten goede komt. Het is deze interactie tussen mens en machine die zorgt voor een mooi cascade-effect. 
Als het gaat om kunstmatige intelligentie moeten we ons ook serieus afvragen hoeveel macht wij eigenlijk uit handen willen geven. In hoeverre kunnen we machines vertrouwen en wat voor soort taken zijn we bereid over te laten aan machines? We weten dat machines de mensen qua vaardigheden in vele gevallen overtreffen, maar toch is een beslissing nemen over het inzetten van volledig bewuste computers verre van eenvoudig.  
De beste cyberbeveiliging lijkt vooralsnog te bestaan uit een combinatie van mens en machine. Er bestaan nog geen volledig bewuste machines, dus tot die tijd moeten ze nog door de mens geïnstrueerd worden.


Lees meer over