AI in Cyberbeveiliging: Risico's van AI
Kunstmatige Intelligentie (AI) heeft al jaren de hulpmiddelen voor cyberbeveiliging verbeterd. Zo hebben machine learning-tools de netwerkbeveiliging, anti-malware en fraudedetectiesoftware krachtiger gemaakt door veel sneller dan mensen anomalieën te vinden. Echter, AI vormt ook een risico voor cyberbeveiliging. Brute force, denial of service (DoS) en social engineering aanvallen zijn slechts enkele voorbeelden van bedreigingen die gebruik maken van AI.
De risico's van kunstmatige intelligentie voor cyberbeveiliging zullen naar verwachting snel toenemen nu AI-tools goedkoper en toegankelijker worden. Zo kun je ChatGPT om de tuin leiden om kwaadaardige code te schrijven of een brief van Elon Musk te maken met een donatieverzoek.
Je kunt ook verschillende deepfake-tools gebruiken om verrassend overtuigende nep-audiotracks of videoclips te maken met heel weinig trainingsdata. Er zijn ook toenemende privacyzorgen nu meer gebruikers comfortabel worden met het delen van gevoelige informatie met AI.
Lees deze uitgebreide gids voor meer informatie over:
- AI-definitie.
- Risico's van kunstmatige intelligentie.
- AI in cyberbeveiliging.
- AI en privacyrisico's.
Wat is AI: Kunstmatige intelligentie
AI, of Kunstmatige Intelligentie, verwijst naar de ontwikkeling van computersystemen die taken kunnen uitvoeren en beslissingen kunnen nemen die normaal menselijk verstand vereisen. Het omvat het maken van algoritmen en modellen die machines in staat stellen te leren van data, patronen te herkennen, en zich aan te passen aan nieuwe informatie of situaties.
In eenvoudige termen is AI alsof je computers leert denken en leren zoals mensen. Het stelt machines in staat om grote hoeveelheden gegevens te verwerken en analyseren, patronen of afwijkingen te herkennen, en voorspellingen of beslissingen te maken op basis van die informatie. AI kan worden gebruikt in verschillende toepassingen zoals beeld- en spraakherkenning, natuurlijke taalverwerking, robotica en cyberbeveiliging om er maar een paar te noemen.
Over het geheel genomen heeft AI tot doel menselijke intelligentie te imiteren om complexe problemen op te lossen, taken te automatiseren en de efficiëntie en nauwkeurigheid in verschillende velden te verbeteren.
Machinaal leren en diep leren
Machine learning (ML) is een veelgebruikte subset van AI. ML-algoritmen en technieken stellen systemen in staat om te leren van data en beslissingen te nemen zonder expliciet geprogrammeerd te zijn.
Deep learning (DL) is een subset van ML die gebruik maakt van kunstmatige computationele modellen die door de menselijke hersenen geïnspireerde neurale netwerken worden genoemd voor meer geavanceerde taken. ChatGPT is een voorbeeld van AI die ML gebruikt om menselijk gegenereerde prompts te begrijpen en te beantwoorden.
Smalle AI en kunstmatige algemene intelligentie
Alle typen AI worden beschouwd als Narrow AI. Hun bereik is beperkt en ze zijn niet sentiënt. Voorbeelden van zulke AI zijn spraakassistenten, chatbots, beeldherkenningssystemen, zelfrijdende voertuigen en onderhoudsmodellen.
Artificial General Intelligence (AGI) is een hypothetisch concept dat verwijst naar een zelfbewuste AI die minimaal menselijke intelligentie kan evenaren of zelfs overtreffen. Terwijl sommige experts schatten dat AGI nog enkele jaren of zelfs decennia weg is, geloven anderen dat het onmogelijk is.
Wat is generatieve AI?
Generatieve AI verwijst naar een subset van technieken in kunstmatige intelligentie die betrekking hebben op de creatie en generatie van nieuwe inhoud, zoals beelden, tekst, audio of zelfs video's. Het houdt in dat modellen worden getraind om patronen in bestaande data te begrijpen en die kennis vervolgens gebruiken om nieuwe, originele inhoud te genereren die lijkt op de trainingsdata.
Een populaire benadering van generatieve AI is het gebruik van generatieve adversariële netwerken (GANs). GANs bestaan uit twee neurale netwerken: een generatornetwerk en een discriminatornetwerk. Het generatornetwerk creëert nieuwe inhoud, terwijl het discriminatornetwerk de gegenereerde inhoud evalueert en onderscheidt van echte inhoud. De twee netwerken werken op een concurrerende manier, waarbij de generator inhoud probeert te produceren die de discriminator niet van echte gegevens kan onderscheiden.
Generatieve AI heeft toepassingen in verschillende domeinen. Bijvoorbeeld:
-
Beeldgeneratie: Generatieve AI kan worden gebruikt om realistische beelden te genereren, zoals het creëren van fotorealistische gezichten, landschappen of zelfs geheel nieuwe objecten die in de echte wereld niet bestaan.
-
Tekstgeneratie: Generatieve modellen kunnen worden getraind om samenhangende en contextueel relevante tekst te genereren, die kan worden gebruikt voor taken als chatbots, contentcreatie of taalvertaling.
-
Muziek en audio genereren: Generatieve AI kan nieuwe muzikale composities maken of realistische geluiden en stemmen genereren.
Hoewel generatieve AI veel positieve toepassingen heeft, zijn er ook zorgen over het potentiële misbruik ervan, zoals het genereren van nep-inhoud of deepfake-video's die kunnen worden gebruikt om mensen te misleiden of manipuleren. Het is belangrijk om ethische overwegingen en verantwoordelijk gebruik van generatieve AI in acht te nemen om deze risico's aan te pakken.
Op het gebied van cyberbeveiliging kan generatieve AI zowel een hulpmiddel als een uitdaging zijn. Het kan worden gebruikt voor het genereren van realistische synthetische data om modellen te trainen en beveiligingsmaatregelen te verbeteren, maar het kan ook risico's vormen wanneer het voor kwaadwillende doeleinden wordt gebruikt, zoals het genereren van overtuigende phishing-e-mails of deepfake-sociale-engineeringaanvallen. Dit benadrukt het belang van het ontwikkelen van robuuste verdedigingsmechanismen en detectiemechanismen om potentiële bedreigingen te beperken.
Wat zijn de risico's van AI in cyberbeveiliging
Zoals elke technologie kan AI worden gebruikt voor goede of kwaadaardige doeleinden. Dreigingsactoren kunnen enkele van dezelfde AI-tools, ontworpen om de mensheid te helpen, gebruiken om fraude, oplichting en andere cybercriminaliteit te plegen.
Laten we eens kijken naar enkele risico's van AI in cyberbeveiliging:
1: Optimalisatie van cyberaanvallen
Experts zeggen dat aanvallers generatieve AI en grote taalmodellen kunnen gebruiken om aanvallen op te schalen op een ongezien niveau van snelheid en complexiteit. Ze kunnen generatieve AI gebruiken om nieuwe manieren te vinden om cloudcomplexiteit te ondermijnen en geopolitieke spanningen uit te buiten voor geavanceerde aanvallen. Ze kunnen ook hun ransomware- en phishing-aanvalstechnieken optimaliseren door deze te polijsten met generatieve AI.
2: Geautomatiseerde malware
Een AI zoals ChatGPT is uitstekend in het nauwkeurig kraken van getallen. Volgens Oded Netzer, professor aan de Columbia Business School, kan ChatGPT al "behoorlijk goed code schrijven".
Experts zeggen dat het in de nabije toekomst softwareontwikkelaars, computerprogrammeurs en programmeurs kan helpen of meer van hun werk kan verdringen.
Hoewel software zoals ChatGPT een aantal beveiligingen heeft om te voorkomen dat gebruikers kwaadaardige code maken, kunnen experts slimme technieken gebruiken om deze te omzeilen en malware te maken. Een onderzoeker was bijvoorbeeld in staat om een maas in de wet te vinden en een bijna ondetecteerbare, complexe executable voor gegevensdiefstal te maken. De executable had de geavanceerdheid van malware die was gemaakt door een door de staat gesponsorde dreigingsactor*.
Dit kan het topje van de ijsberg zijn. Toekomstige AI-tools kunnen ontwikkelaars met eenvoudige programmeervaardigheden in staat stellen om geautomatiseerde malware te maken, zoals een geavanceerde kwaadaardige bot.Wat zijn kwaadaardige bots? Een kwaadaardige bot kan gegevens stelen, netwerken infecteren en systemen aanvallen met weinig tot geen menselijke tussenkomst.
* https://www.foxnews.com/tech/ai-created-malware-sends-shockwaves-cyber beveiliging-wereld
3: Fysieke veiligheid
Naarmate meer systemen zoals autonome voertuigen, productie- en bouwapparatuur en medische systemen gebruikmaken van AI, kunnen de risico's van kunstmatige intelligentie voor de fysieke veiligheid toenemen. Een op AI gebaseerde auto die echt zelf rijdt en een inbreuk op de cyberbeveiliging maakt, kan bijvoorbeeld risico's opleveren voor de fysieke veiligheid van de inzittenden. Op dezelfde manier kan de dataset voor onderhoudsgereedschap op een bouwplaats door een aanvaller worden gemanipuleerd om gevaarlijke omstandigheden te creëren.
AI privacy risico's
In wat een gênante bug was voor OpenAI CEO Sam Altman, lekte ChatGPT stukjes chatgeschiedenis van andere gebruikers. Hoewel de bug is opgelost, zijn er andere mogelijke privacyrisico's vanwege de enorme hoeveelheid data die AI verwerkt. Een hacker die een AI-systeem binnendringt, zou bijvoorbeeld toegang kunnen krijgen tot verschillende soorten gevoelige informatie.
Een AI-systeem dat is ontworpen voor marketing, reclame, profilering of bewaking kan ook de privacy bedreigen op een manier die George Orwell niet kon bevatten. In sommige landen helpt AI-profieltechnologie staten al om de privacy van gebruikers te schenden.
Diefstal van AI-modellen
Er zijn enkele risico's op diefstal van AI-modellen via netwerkaanvallen, social engineering technieken en het uitbuiten van kwetsbaarheden door dreigingsactoren zoals staten gesponsorde agenten, insider bedreigingen zoals bedrijfsspionnen, en gewone computerhackers. Gestolen modellen kunnen worden gemanipuleerd en aangepast om aanvallers te ondersteunen bij verschillende kwaadaardige activiteiten, waardoor de risico's van kunstmatige intelligentie voor de samenleving toenemen.
Gegevensmanipulatie en gegevensvergiftiging
Hoewel AI een krachtig hulpmiddel is, kan het kwetsbaar zijn voor datamanipulatie. AI is immers afhankelijk van zijn trainingsgegevens. Als de gegevens worden gewijzigd of vergiftigd, kan een AI-tool onverwachte of zelfs schadelijke resultaten produceren.
In theorie zou een aanvaller een trainingsdataset kunnen vergiftigen met kwaadaardige gegevens om de resultaten van het model te veranderen. Een aanvaller kan ook een subtielere vorm van manipulatie uitvoeren, die biasinjectie wordt genoemd. Dergelijke aanvallen kunnen vooral schadelijk zijn in sectoren zoals de gezondheidszorg, de auto-industrie en de transportsector.
Imitatie
u Je hoeft niet verder te kijken dan cinema om te zien hoe AI-hulpmiddelen filmmakers helpen om het publiek voor de gek te houden. In de documentaire Roadrunner bijvoorbeeld, werd de stem van de overleden sterrenkok Anthony Bourdain op controversiële wijze gecreëerd met door AI gegenereerde audio, waardoor kijkers gemakkelijk werden misleid. Op dezelfde manier werd de veteraanacteur Harrison Ford op overtuigende wijze tientallen jaren ouder gemaakt met behulp van kunstmatige intelligentie in Indiana Jones and the Dial of Destiny.
Een aanvaller heeft geen groot Hollywoodbudget nodig om soortgelijke trucs uit te halen. Met de juiste beelden kan iedereen deepfake-beelden maken met gratis apps. Mensen kunnen ook gratis AI-aangedreven tools gebruiken om opmerkelijk realistische nepstemmen te creëren die zijn getraind op slechts enkele seconden aan audio.
Het is dus geen verrassing dat AInu wordt gebruikt voor virtuele ontvoeringszwendel. Jennifer DeStefano beleefde de ergste nachtmerrie van een ouder toen haar dochter haar schreeuwend en snikkend opbelde. Haar stem werd vervangen door een man die dreigde haar te drogeren en te mishandelen tenzij hij 1 miljoen dollar losgeld zou betalen.
Het addertje onder het gras? Experts speculeren dat de stem door AI is gegenereerd. Wetshandhavers geloven dat AI naast virtuele ontvoeringsschema's criminelen in de toekomst kan helpen met andere soorten imitatie-fraude, zoals opa-oplichterij.
Generatieve AI kan ook tekst genereren in de stijl van invloedrijke denkers. Cybercriminelen kunnen deze tekst gebruiken om verschillende soorten scams uit te voeren, zoals frauduleuze acties, investeringsmogelijkheden en donaties via media als e-mail of sociale mediaplatforms zoals Twitter.
Meer geavanceerde aanvallen
Zoals vermeld, kunnen kwaadwillenden AI gebruiken om geavanceerde malware te creëren, anderen te imiteren voor oplichterij en AI-trainingsdata te vergiftigen. Ze kunnen AI gebruiken om phishing, malware en credential-stuffing aanvallen te automatiseren. AI kan ook helpen aanvallen te ontwijken van veiligheidssystemen zoals spraakherkenningssoftware bij zogeheten vijandige aanvallen.
Schade aan de reputatie
Een organisatie die AI gebruikt kan reputatieschade oplopen als de technologie faalt of een cyberbeveiligingsinbreuk ondergaat, wat leidt tot verlies van data. Dergelijke organisaties kunnen geconfronteerd worden met boetes, civielrechtelijke straffen en verslechterende klantrelaties.
Hoe jezelf te beschermen tegen de AI-risico's
Hoewel AI een krachtig hulpmiddel is, kan het enkele cyberbeveiligingsrisico's met zich meebrengen. Zowel individuen als organisaties moeten een holistische en proactieve benadering hanteren om de technologie veilig te gebruiken.
Hier zijn enkele tips die je kunnen helpen de risico's van AI te verminderen:
1: Voer een controle uit op alle AI-systemen die je gebruikt
Controleer de huidige reputatie van elk AI-systeem dat je gebruikt om beveiligings- en privacyproblemen te vermijden. Organisaties zouden hun systemen periodiek moeten controleren om kwetsbaarheden te verhelpen en AI-risico's te verminderen. Auditing kan worden gedaan met de hulp van experts in cyberbeveiliging en kunstmatige intelligentie die penetratietests, kwetsbaarheidsbeoordelingen en systeemreviews kunnen uitvoeren.
2: Beperk persoonlijke informatie die wordt gedeeld via automatisering
Steeds meer mensen delen vertrouwelijke informatie met kunstmatige intelligentie zonder de risico's ten aanzien van privacy te begrijpen. Bijvoorbeeld, medewerkers van prominente organisaties bleken gevoelige bedrijfsgegevens in ChatGPT te plaatsen. Zelfs een arts deelde de naam en medische toestand van zijn patiënt in de chatbot om een brief op te stellen, zonder de ChatGPT-beveiligingsrisico's te waarderen.
Dergelijke acties vormen beveiligingsrisico's en schenden privacyregels zoals HIPAA. Hoewel AI-taalmodellen mogelijk geen informatie kunnen onthullen, worden gesprekken opgenomen voor kwaliteitscontrole en zijn ze toegankelijk voor systeemonderhoudsteams. Daarom is het beste om geen persoonlijke informatie met AI te delen.
3: Gegevensbeveiliging
Zoals vermeld, vertrouwt AI op zijn trainingsdata om goede resultaten te leveren. Als de data is gewijzigd of vergiftigd, kan AI onverwachte en gevaarlijke resultaten leveren. Om AI te beschermen tegen data-vergiftiging moeten organisaties investeren in geavanceerde versleuteling, toegangscontrole en back-up technologie. Netwerken moeten beveiligd zijn met firewalls, inbraakdetectiesystemen en geavanceerde wachtwoorden.
4: Optimaliseer software
Volg alle best practices voor softwareonderhoud om jezelf te beschermen tegen de risico's van AI. Dit omvat het updaten van je AI-software en frameworks, besturingssystemen en apps met de nieuwste patches en updates om het risico op exploitatie en malware-aanvallen te verkleinen. Bescherm je systemen met next-generation antivirus technologie om geavanceerde kwaadaardige dreigingen te stoppen. Investeer daarnaast in netwerk- en applicatiebeveiligingsmaatregelen om je verdediging te versterken.
5: Vijandige training
Vijandige training is een AI-specifieke beveiligingsmaatregel die AI helpt te reageren op aanvallen. De machine learning-methode verbetert de veerkracht van AI-modellen door ze bloot te stellen aan verschillende scenario's, data en technieken.
6: Opleiding van personeel
De risico's van AI zijn behoorlijk breed. Raadpleeg experts in cyberbeveiliging en AI om je werknemers op te leiden in AI-risicomanagement. Bijvoorbeeld, ze moeten leren e-mails te controleren die mogelijk phishing-aanvallen zijn, ontworpen door AI. Evenzo moeten ze voorkomen ongewenste software te openen die malware kan zijn, gemaakt door kunstmatige intelligentie.
7: Beheer van kwetsbaarheden
Organisaties kunnen investeren in AI-kwetsbaarheidsbeheer om het risico op datalekken en lekkages te verminderen. Kwetsbaarheidsbeheer is een end-to-end proces dat gaat om het identificeren, analyseren en prioriteren van kwetsbaarheden en het verkleinen van je aanvaloppervlak in relatie tot de unieke kenmerken van AI-systemen.
8: AI-incidentrespons
Ondanks de beste beveiligingsmaatregelen kan je organisatie een AI-gerelateerde cyberbeveiligingsaanval ondergaan naarmate de risico's van kunstmatige intelligentie toenemen. Je moet een duidelijk incidentresponsplan hebben dat afbakening, onderzoek en herstel omvat om te herstellen van een dergelijk incident.
De keerzijde: Hoe AI de cyberbeveiliging kan verbeteren
Industrieën van verschillende groottes en sectoren gebruiken AI om cyberbeveiliging te verbeteren. Bijvoorbeeld, allerlei soorten organisaties wereldwijd gebruiken AI om identiteiten te authenticeren, van banken tot overheden. En de financiële en vastgoedsectoren gebruiken AI om afwijkingen te vinden en het risico van fraude te verminderen.
Hier is meer informatie over hoe AI de cyberbeveiliging ten goede komt:
1: Detectie van cyberdreigingen
Geavanceerde malware kan standaard cyberbeveiligingstechnologie omzeilen door verschillende ontwijkingstechnieken te gebruiken, inclusief aanpassing van code en structuur. Geavanceerde antivirussoftware kan echter AI en ML gebruiken om anomalieën in de algehele structuur, programmeerlogica en gegevens van een potentiële dreiging te ontdekken.
AI-aangedreven dreigingsdetectietools kunnen organisaties beschermen door deze nieuwe dreigingen op te sporen en waarschuwings- en responsmogelijkheden te verbeteren. Bovendien kan AI-aangedreven endpoint-beveiligingssoftware de laptops, smartphones en servers in een organisatie beschermen.
2: Voorspellende modellen
Cyberbeveiligingsprofessionals kunnen van een reactieve naar een proactieve houding gaan door generatieve AI te gebruiken. Ze kunnen bijvoorbeeld generatieve AI gebruiken om voorspellende modellen te creëren die nieuwe bedreigingen identificeren en risico's verminderen.
Dergelijke voorspellende modellen zullen resulteren in:
- Snellere detectie van bedreigingen
- Tijdbesparing
- Kostenverlaging
- Verbeterde incidentrespons
- Betere bescherming tegen risico's
3: Phishing-detectie
Phishing-e-mails vormen een belangrijke bedreigingsvector. Met weinig risico kunnen kwaadwillenden phishing-expedities gebruiken om gevoelige informatie en geld te stelen. Bovendien worden phishing-e-mails steeds moeilijker te onderscheiden van echte e-mails.
AI kan cyberbeveiliging ten goede komen door phishing-bescherming te verbeteren. E-mailfilters die AI gebruiken kunnen tekst analyseren om e-mails met verdachte patronen te markeren en verschillende soorten spam te blokkeren.
4: Herkenning van bots
Bots kunnen netwerken en websites schaden of platleggen, wat de beveiliging, productiviteit en inkomsten van een organisatie negatief beïnvloedt. Bots kunnen ook accounts overnemen met gestolen inloggegevens en cybercriminelen helpen bij fraude en scams.
Software die machine learning-gebaseerde modellen gebruikt kan netwerkverkeer en data analyseren om botpatronen te identificeren en cyberbeveiligingsexperts helpen om ze tegen te gaan. Netwerkprofessionals kunnen ook AI gebruiken om meer veilige CAPTCHA's tegen bots te ontwikkelen.
5: Beveiliging van netwerken
Aanvallers kunnen data exfiltreren of systemen besmetten met ransomware na een netwerkbreuk. Het vroegtijdig detecteren van dergelijke bedreigingen is cruciaal. AI-gebaseerde anomaliedetectie kan netwerkverkeer en systeemlogs scannen op ongeoorloofde toegang, ongewone code en andere verdachte patronen om inbreuken te voorkomen. Bovendien kan AI helpen netwerken te segmenteren door vereisten en kenmerken te analyseren.
6: Incidentrespons
AI kan dreigingsjacht, dreigingsbeheer en incidentrespons verbeteren. Het kan rond de klok werken om te reageren op bedreigingen en noodmaatregelen te nemen, zelfs wanneer je team offline is. Bovendien kan het de incidentrespons tijden verkorten om schade door een aanval te minimaliseren.
7: Insider bedreigingen verminderen
Insider bedreigingen moeten serieus worden genomen omdat ze een organisatie kunnen kosten aan inkomsten, handelsgeheimen, gevoelige data en meer. Er zijn twee soorten insider bedreigingen: kwaadwillig en onbedoeld. AI kan helpen beide soorten insider bedreigingen te stoppen door risicovol gebruikersgedrag te identificeren en te voorkomen dat gevoelige informatie de netwerken van de organisatie verlaat.
8: Versterk toegangscontrole
Veel toegangstools gebruiken AI om de beveiliging te verbeteren. Ze kunnen inlogpogingen van verdachte IP-adressen blokkeren, verdachte gebeurtenissen markeren en gebruikers met zwakke wachtwoorden vragen hun inloggegevens te wijzigen en over te stappen op multi-factor authenticatie.
AI helpt ook bij het verifiëren van gebruikers. Het kan bijvoorbeeld biometrie, contextuele informatie en gebruikersgedragsdata gebruiken om de identiteit van geautoriseerde gebruikers nauwkeurig te verifiëren en misbruik te voorkomen.
9: Valse positieven identificeren
Valse positieven kunnen vermoeiend zijn voor IT-teams om te beheren. De grote hoeveelheid kan leiden tot mentale gezondheidsuitdagingen en ervoor zorgen dat teams echte bedreigingen missen. Tools die gebruikmaken van kunstmatige intelligentie kunnen echter de hoeveelheid valse positieven verminderen door de nauwkeurigheid van dreigingsdetectie te verbeteren. Dergelijke tools kunnen ook geprogrammeerd worden om automatisch bedreigingen met een lage waarschijnlijkheid te beheren, waardoor de tijd en middelen van het beveiligingsteam worden gespaard.
10: Efficiëntie en kosten van IT-personeel
Veel kleine tot middelgrote bedrijven kunnen zich geen groot intern cyberbeveiligingsteam veroorloven om de klok rond te reageren op steeds geavanceerdere bedreigingen. Ze kunnen echter investeren in AI-gedreven cyberbeveiligingstechnologie die 24/7 werkt om continue monitoring te bieden, de efficiëntie te verbeteren en de kosten te verlagen. Deze technologie kan ook meegroeien met het bedrijf op een kosteneffectieve manier.
Daarnaast verbetert AI de efficiëntie van het personeel omdat het niet moe wordt. Het biedt op elk uur van de dag dezelfde kwaliteit van dienstverlening, waardoor het risico op menselijke fouten wordt verminderd. AI kan ook aanzienlijk meer data beheren dan een menselijk beveiligingsteam.