AI in cyber Security: Risico's van AI
Kunstmatige intelligentie (AI) verbetert al jaren de tools voor cyberbeveiliging. Tools voor machinaal leren hebben bijvoorbeeld netwerkbeveiliging, anti-malware en software voor het opsporen van fraude krachtiger gemaakt door afwijkingen veel sneller te vinden dan mensen. AI vormt echter ook een risico voor cyberbeveiliging. Brute force, denial of service (DoS) en social engineering-aanvallen zijn slechts enkele voorbeelden van bedreigingen die gebruikmaken van AI.
De risico's van kunstmatige intelligentie voor cyberbeveiliging zullen naar verwachting snel toenemen nu AI-tools steeds goedkoper en toegankelijker worden. u kan bijvoorbeeld ChatGPT misleiden tot het schrijven van kwaadaardige code of een brief van Elon Musk waarin om donaties wordt gevraagd,
u kunnen ook een aantal deepfake tools gebruiken om verrassend overtuigende valse audiotracks of videoclips te maken met heel weinig trainingsgegevens. Er zijn ook steeds meer zorgen over de privacy naarmate meer gebruikers het prettig vinden om gevoelige informatie met AI te delen.
Lees deze uitgebreide gids voor meer informatie:
- AI-definitie.
- Risico's van kunstmatige intelligentie.
- AI in cyberbeveiliging.
- AI en privacyrisico's.
Wat is AI: Kunstmatige intelligentie
AI, of Kunstmatige Intelligentie, verwijst naar de ontwikkeling van computersystemen die taken kunnen uitvoeren en beslissingen kunnen nemen waarvoor normaal gesproken menselijke intelligentie nodig is. Het gaat om het creëren van algoritmen en modellen waarmee machines kunnen leren van gegevens, patronen kunnen herkennen en zich kunnen aanpassen aan nieuwe informatie of situaties.
Eenvoudig gezegd is AI computers leren denken en leren zoals mensen. Het stelt machines in staat om grote hoeveelheden gegevens te verwerken en te analyseren, patronen of afwijkingen te identificeren en op basis van die informatie voorspellingen te doen of beslissingen te nemen. AI kan worden gebruikt in verschillende toepassingen, zoals beeld- en spraakherkenning, verwerking van natuurlijke taal, robotica en cyberbeveiliging, om er maar een paar te noemen.
In het algemeen is AI erop gericht menselijke intelligentie na te bootsen om complexe problemen op te lossen, taken te automatiseren en de efficiëntie en nauwkeurigheid op verschillende gebieden te verbeteren.
Machinaal leren en diep leren
Machine learning (ML) is een veelgebruikte subset van AI. Met ML-algoritmen en -technieken kunnen systemen leren van gegevens en beslissingen nemen zonder expliciet geprogrammeerd te zijn.
Deep learning (DL) is een subset van ML die gebruikmaakt van kunstmatige computermodellen geïnspireerd door het menselijk brein, neurale netwerken genaamd, voor meer geavanceerde taken. ChatGPT is een voorbeeld van AI die ML gebruikt om door mensen gegenereerde prompts te begrijpen en erop te reageren.
Smalle AI en kunstmatige algemene intelligentie
Alle soorten AI worden beschouwd als Smalle AI. Hun reikwijdte is beperkt en ze hebben geen gevoel. Voorbeelden van dergelijke AI zijn spraakassistenten, chatbots, beeldherkenningssystemen, zelfrijdende voertuigen en onderhoudsmodellen.
Kunstmatige algemene intelligentie (AGI) is een hypothetisch concept dat verwijst naar een zelfbewuste AI die de menselijke intelligentie kan evenaren of zelfs overtreffen. Terwijl sommige experts schatten dat AGI nog enkele jaren of zelfs decennia verwijderd is, geloven anderen dat het onmogelijk is.
Wat is generatieve AI?
Generatieve AI verwijst naar een subset van kunstmatige intelligentietechnieken waarbij nieuwe inhoud, zoals afbeeldingen, tekst, audio of zelfs video's, wordt gecreëerd en gegenereerd. Hierbij worden modellen getraind om patronen in bestaande gegevens te begrijpen en wordt die kennis vervolgens gebruikt om nieuwe, originele inhoud te genereren die lijkt op de trainingsgegevens.
Een populaire benadering van generatieve AI is het gebruik van generatieve adversariële netwerken (GANs). GANs bestaan uit twee neurale netwerken: een generatornetwerk en een discriminatornetwerk. Het generatornetwerk creëert nieuwe inhoud, terwijl het discriminatornetwerk de gegenereerde inhoud evalueert en onderscheidt van echte inhoud. De twee netwerken werken op een concurrerende manier, waarbij de generator inhoud probeert te produceren die de discriminator niet van echte gegevens kan onderscheiden.
Generatieve AI heeft toepassingen in verschillende domeinen. Bijvoorbeeld:
-
Beeldgeneratie: Generatieve AI kan worden gebruikt om realistische beelden te genereren, zoals het creëren van fotorealistische gezichten, landschappen of zelfs geheel nieuwe objecten die in de echte wereld niet bestaan.
-
Tekstgeneratie: Generatieve modellen kunnen worden getraind om samenhangende en contextueel relevante tekst te genereren, die kan worden gebruikt voor taken als chatbots, contentcreatie of taalvertaling.
-
Muziek en audio genereren: Generatieve AI kan nieuwe muzikale composities maken of realistische geluiden en stemmen genereren.
Hoewel generatieve AI veel positieve toepassingen heeft, zijn er ook zorgen over het mogelijke misbruik ervan, zoals het genereren van nepcontent of deepfake video's die kunnen worden gebruikt om mensen te misleiden of te manipuleren. Ethische overwegingen en verantwoord gebruik van generatieve AI zijn belangrijke factoren om deze risico's aan te pakken.
Op het gebied van cyberbeveiliging kan generatieve AI zowel een hulpmiddel als een uitdaging zijn. Het kan worden gebruikt voor het genereren van realistische synthetische gegevens om modellen te trainen en beveiligingsmaatregelen te verbeteren, maar het kan ook risico's opleveren als het wordt gebruikt voor kwaadaardige doeleinden, zoals het genereren van overtuigende phishing e-mails of deepfake social engineering aanvallen. Het benadrukt het belang van het ontwikkelen van robuuste verdedigings- en detectiemechanismen om potentiële bedreigingen te beperken.
Wat zijn de risico's van AI in cyberbeveiliging
Zoals elke technologie kan AI worden gebruikt voor goede of kwade doeleinden. Bedreigende actoren kunnen sommige van dezelfde AI-tools die zijn ontworpen om de mensheid te helpen, gebruiken om fraude, oplichting en andere cybermisdaden te plegen.
Laten we eens kijken naar enkele risico's van AI in cyberbeveiliging:
1: Cyberaanvallen optimaliseren
Experts zeggen dat aanvallers generatieve AI en grote taalmodellen kunnen gebruiken om aanvallen op te schalen op een ongezien niveau van snelheid en complexiteit. Ze kunnen generatieve AI gebruiken om nieuwe manieren te vinden om cloudcomplexiteit te ondermijnen en geopolitieke spanningen uit te buiten voor geavanceerde aanvallen. Ze kunnen ook hun ransomware- en phishing-aanvalstechnieken optimaliseren door deze te polijsten met generatieve AI.
2: Geautomatiseerde malware
Een AI zoals ChatGPT is uitstekend in het nauwkeurig kraken van getallen. Volgens Oded Netzer, professor aan de Columbia Business School, kan ChatGPT al "behoorlijk goed code schrijven".
Experts zeggen dat het in de nabije toekomst softwareontwikkelaars, computerprogrammeurs en programmeurs kan helpen of meer van hun werk kan verdringen.
Hoewel software zoals ChatGPT een aantal beveiligingen heeft om te voorkomen dat gebruikers kwaadaardige code maken, kunnen experts slimme technieken gebruiken om deze te omzeilen en malware te maken. Een onderzoeker was bijvoorbeeld in staat om een maas in de wet te vinden en een bijna ondetecteerbare, complexe executable voor gegevensdiefstal te maken. De executable had de geavanceerdheid van malware die was gemaakt door een door de staat gesponsorde dreigingsactor*.
Dit kan het topje van de ijsberg zijn. Toekomstige AI-tools kunnen ontwikkelaars met eenvoudige programmeervaardigheden in staat stellen om geautomatiseerde malware te maken, zoals een geavanceerde kwaadaardige bot.Wat zijn kwaadaardige bots? Een kwaadaardige bot kan gegevens stelen, netwerken infecteren en systemen aanvallen met weinig tot geen menselijke tussenkomst.
* https://www.foxnews.com/tech/ai-created-malware-sends-shockwaves-cyber beveiliging-wereld
3: Fysieke veiligheid
Naarmate meer systemen zoals autonome voertuigen, productie- en bouwapparatuur en medische systemen gebruikmaken van AI, kunnen de risico's van kunstmatige intelligentie voor de fysieke veiligheid toenemen. Een op AI gebaseerde auto die echt zelf rijdt en een inbreuk op de cyberbeveiliging maakt, kan bijvoorbeeld risico's opleveren voor de fysieke veiligheid van de inzittenden. Op dezelfde manier kan de dataset voor onderhoudsgereedschap op een bouwplaats door een aanvaller worden gemanipuleerd om gevaarlijke omstandigheden te creëren.
AI privacyrisico's
In wat een pijnlijke bug was voor OpenAI CEO Sam Altman, lekte ChatGPT stukjes chatgeschiedenis van andere gebruikers. Hoewel de bug is verholpen, zijn er nog andere mogelijke privacyrisico's door de enorme hoeveelheid gegevens die AI verzamelt. Een hacker die inbreekt in een AI-systeem kan bijvoorbeeld toegang krijgen tot verschillende soorten gevoelige informatie.
Een AI-systeem dat is ontworpen voor marketing, reclame, profilering of bewaking kan ook de privacy bedreigen op een manier die George Orwell niet kon bevatten. In sommige landen helpt AI-profieltechnologie staten al om de privacy van gebruikers te schenden.
AI-modellen stelen
Er zijn risico's op diefstal van AI-modellen door netwerkaanvallen, social engineering-technieken en het misbruiken van kwetsbaarheden door dreigingsactoren zoals door de staat gesponsorde agenten, insider threats zoals bedrijfsspionnen en gewone computerhackers. Gestolen modellen kunnen worden gemanipuleerd en aangepast om aanvallers te helpen met verschillende kwaadaardige activiteiten, waardoor de risico's van kunstmatige intelligentie voor de samenleving toenemen.
Gegevensmanipulatie en gegevensvergiftiging
Hoewel AI een krachtig hulpmiddel is, kan het kwetsbaar zijn voor datamanipulatie. AI is immers afhankelijk van zijn trainingsgegevens. Als de gegevens worden gewijzigd of vergiftigd, kan een AI-tool onverwachte of zelfs schadelijke resultaten produceren.
In theorie zou een aanvaller een trainingsdataset kunnen vergiftigen met kwaadaardige gegevens om de resultaten van het model te veranderen. Een aanvaller kan ook een subtielere vorm van manipulatie uitvoeren, die biasinjectie wordt genoemd. Dergelijke aanvallen kunnen vooral schadelijk zijn in sectoren zoals de gezondheidszorg, de auto-industrie en de transportsector.
Imitatie
u Je hoeft niet verder te kijken dan cinema om te zien hoe AI-hulpmiddelen filmmakers helpen om het publiek voor de gek te houden. In de documentaire Roadrunner bijvoorbeeld, werd de stem van de overleden sterrenkok Anthony Bourdain op controversiële wijze gecreëerd met door AI gegenereerde audio, waardoor kijkers gemakkelijk werden misleid. Op dezelfde manier werd de veteraanacteur Harrison Ford op overtuigende wijze tientallen jaren ouder gemaakt met behulp van kunstmatige intelligentie in Indiana Jones and the Dial of Destiny.
Een aanvaller heeft geen groot Hollywood budget nodig om soortgelijke trucs uit te halen. Met het juiste beeldmateriaal kan iedereen deepfake beelden maken met gratis apps. Mensen kunnen ook gratis AI-tools gebruiken om opmerkelijk realistische nepstemmen te maken op basis van slechts enkele seconden audio.
Het is dus geen verrassing dat AInu wordt gebruikt voor virtuele ontvoeringszwendel. Jennifer DeStefano beleefde de ergste nachtmerrie van een ouder toen haar dochter haar schreeuwend en snikkend opbelde. Haar stem werd vervangen door een man die dreigde haar te drogeren en te mishandelen tenzij hij 1 miljoen dollar losgeld zou betalen.
Het addertje onder het gras? Experts speculeren dat de stem is gegenereerd door AI. Wetshandhavers denken dat AI, naast virtuele ontvoeringsconstructies, criminelen in de toekomst ook kan helpen met andere vormen van imitatiefraude, waaronder oplichting met opa's.
Generatieve AI kan ook tekst produceren met de stem van thought leaders. Cybercriminelen kunnen deze tekst gebruiken om verschillende soorten oplichting uit te voeren, zoals frauduleuze weggeefacties, investeringsmogelijkheden en donaties op media zoals e-mail of sociale mediaplatforms zoals Twitter.
Geavanceerdere aanvallen
Zoals gezegd kunnen bedreigingsactoren AI gebruiken om geavanceerde malware te maken, zich voor te doen als anderen voor zwendelpraktijken en AI-trainingsgegevens te vergiftigen. Ze kunnen AI gebruiken om phishing-, malware- en credential-stuffing-aanvallen te automatiseren. AI kan aanvallen ook helpen om beveiligingssystemen zoals spraakherkenningssoftware te omzeilen in aanvallen die adversarial attacks worden genoemd.
Reputatieschade
Een organisatie die AI gebruikt, kan reputatieschade oplopen als de technologie niet goed functioneert of als er sprake is van een cyberbeveiligingslek, waardoor gegevens verloren gaan. Dergelijke organisaties kunnen worden geconfronteerd met boetes, civielrechtelijke sancties en verslechterde klantrelaties.
Hoe bescherm je jezelf tegen de AI-risico's
Hoewel AI een krachtig hulpmiddel is, kan het ook een aantal cyberbeveiligingsrisico's met zich meebrengen. Zowel individuen als organisaties moeten een holistische en proactieve aanpak hanteren om de technologie veilig te gebruiken.
Hier volgen enkele tips die u kunnen helpen om de risico's van AI te beperken:
1: Controleer alle AI-systemen die u gebruikt.
Controleer de huidige reputatie van elk AI-systeem dat u gebruikt om beveiligings- en privacyproblemen te voorkomen. Organisaties moeten hun systemen periodiek controleren om kwetsbaarheden te dichten en AI-risico's te beperken. Audits kunnen worden uitgevoerd met behulp van experts in cyberbeveiliging en kunstmatige intelligentie die penetratietests, kwetsbaarheidsbeoordelingen en systeembeoordelingen kunnen uitvoeren.
2: Beperk het delen van persoonlijke informatie via automatisering
Steeds meer mensen delen vertrouwelijke informatie met kunstmatige intelligentie zonder de AI-risico's voor de privacy te begrijpen. Zo werd bijvoorbeeld ontdekt dat medewerkers van prominente organisaties gevoelige bedrijfsgegevens in ChatGPT stopten. Zelfs een arts stuurde de naam en medische toestand van zijn patiënt naar de chatbot om een brief op te stellen, zonder zich bewust te zijn van het ChatGPT-beveiligingsrisico.
Dergelijke acties vormen beveiligingsrisico's en schenden privacyregels zoals HIPAA. Hoewel AI-taalmodellen misschien geen informatie kunnen vrijgeven, worden gesprekken opgenomen voor kwaliteitscontrole en zijn ze toegankelijk voor systeemonderhoudsteams. Daarom is het een goede gewoonte om te voorkomen dat persoonlijke informatie met AI wordt gedeeld.
3: Gegevensbeveiliging
Zoals gezegd vertrouwt AI op zijn trainingsgegevens om goede resultaten te leveren. Als de gegevens worden gewijzigd of vergiftigd, kan AI onverwachte en gevaarlijke resultaten opleveren. Om AI te beschermen tegen datavergiftiging moeten organisaties investeren in geavanceerde encryptie-, toegangscontrole- en back-uptechnologie. Netwerken moeten worden beveiligd met firewalls, inbraakdetectiesystemen en geavanceerde wachtwoorden.
4: Software optimaliseren
Volg alle best practices van softwareonderhoud om jezelf te beschermen tegen het risico van AI. Dit omvat het bijwerken van uw AI-software en -frameworks, besturingssystemen en apps met de nieuwste patches en updates om het risico op uitbuiting en malware-aanvallen te verkleinen. Bescherm uw systemen met antivirustechnologie van de volgende generatie om geavanceerde kwaadaardige bedreigingen tegen te houden. Investeer daarnaast in netwerk- en applicatiebeveiligingsmaatregelen om de verdediging van uw te versterken.
5: Adversaire training
Adversarial training is een AI-specifieke beveiligingsmaatregel die AI helpt te reageren op aanvallen. De machine-leermethode verbetert de veerkracht van AI-modellen door ze bloot te stellen aan verschillende scenario's, gegevens en technieken.
6: Opleiding van personeel
De risico's van AI zijn vrij breed. Raadpleeg deskundigen op het gebied van cyberbeveiliging en AI om uw werknemers te trainen in AI-risicobeheer. Ze moeten bijvoorbeeld leren om e-mails te controleren op feiten die mogelijk phishing-aanvallen zijn die zijn ontworpen door AI. Ook moeten ze voorkomen dat ze ongevraagd software openen die mogelijk malware is die is gemaakt door kunstmatige intelligentie.
7: Beheer van kwetsbaarheden
Organisaties kunnen investeren in het beheer van AI-kwetsbaarheden om het risico op inbreuken op gegevens en lekken te beperken. Kwetsbaarheidsbeheer is een end-to-end proces dat bestaat uit het identificeren, analyseren en verhelpen van kwetsbaarheden en het verkleinen van uw aanvalsoppervlak met betrekking tot de unieke kenmerken van AI-systemen.
8: AI reactie op incidenten
Ondanks de beste beveiligingsmaatregelen kan uw organisatie te maken krijgen met een AI-gerelateerde cyberbeveiligingsaanval naarmate de risico's van kunstmatige intelligentie toenemen. u moet een duidelijk omlijnd incidentresponsplan hebben dat insluiting, onderzoek en herstel omvat om te herstellen van een dergelijke gebeurtenis.
De keerzijde: hoe AI cyberbeveiliging ten goede kan komen
Industrieën van verschillende groottes en sectoren gebruiken AI om de cyberbeveiliging te verbeteren. Wereldwijd gebruiken allerlei organisaties AI om identiteiten te verifiëren, van banken tot overheden. En de financiële en vastgoedsector gebruiken AI om afwijkingen te vinden en het risico op fraude te verkleinen.
Hier leest u meer over hoe AI de cyberveiligheid ten goede komt:
1: Detectie van cyberbedreigingen
Geavanceerde malware kan de standaard cyberbeveiligingstechnologie omzeilen door verschillende ontwijkingstechnieken te gebruiken, waaronder het wijzigen van code en structuur. Geavanceerde antivirussoftware kan echter AI en ML gebruiken om afwijkingen te vinden in de algemene structuur, programmeringslogica en gegevens van een potentiële bedreiging.
AI-hulpprogramma's voor het opsporen van bedreigingen kunnen organisaties beschermen door op deze opkomende bedreigingen te jagen en de waarschuwings- en reactiemogelijkheden te verbeteren. Bovendien kan AI-beveiligingssoftware voor eindpunten de laptops, smartphones en servers in een organisatie beschermen.
2: Voorspellende modellen
Cyberbeveiligingsprofessionals kunnen van een reactieve naar een proactieve houding gaan door generatieve AI te gebruiken. Ze kunnen bijvoorbeeld generatieve AI gebruiken om voorspellende modellen te maken die nieuwe bedreigingen identificeren en risico's beperken.
Dergelijke voorspellende modellen zullen resulteren in:
- Snellere detectie van bedreigingen
- Tijdsbesparing
- Kostenreductie
- Verbeterde respons bij incidenten
- Beter beschermen tegen risico's
3: Phishing-detectie
Phishing-e-mails vormen een belangrijke bedreigingsvector. Met weinig risico kunnen bedreigers phishing gebruiken om gevoelige informatie en geld te stelen. Bovendien zijn phishing-e-mails steeds moeilijker te onderscheiden van echte e-mails.
AI kan de cyberbeveiliging ten goede komen door de bescherming tegen phishing te verbeteren. E-mailfilters die gebruikmaken van AI kunnen tekst analyseren om e-mails met verdachte patronen te markeren en verschillende soorten spam te blokkeren.
4: Bots identificeren
Bots kunnen netwerken en websites beschadigen of platleggen, met negatieve gevolgen voor de veiligheid, productiviteit en inkomsten van een organisatie. Bots kunnen ook accounts overnemen met gestolen referenties en cybercriminelen helpen bij fraude en oplichting.
Software die gebruikmaakt van op machine learning gebaseerde modellen kan netwerkverkeer en gegevens analyseren om botpatronen te identificeren en cyberbeveiligingsdeskundigen helpen deze te negeren. Netwerkprofessionals kunnen AI ook gebruiken om beter beveiligde CAPTCHA's tegen bots te ontwikkelen.
5: Netwerken beveiligen
Aanvallers kunnen gegevens exfiltreren of systemen infecteren met ransomware nadat ze een netwerk zijn binnengedrongen. Het vroegtijdig detecteren van dergelijke bedreigingen is van cruciaal belang. Op AI gebaseerde anomaliedetectie kan netwerkverkeer en systeemlogs scannen op ongeautoriseerde toegang, ongebruikelijke code en andere verdachte patronen om inbreuken te voorkomen. Bovendien kan AI helpen netwerken te segmenteren door vereisten en kenmerken te analyseren.
6: Reactie op incidenten
AI kan het opsporen van bedreigingen, het beheer van bedreigingen en de reactie op incidenten stimuleren. Het kan 24 uur per dag reageren op bedreigingen en noodmaatregelen nemen, zelfs wanneer het uw team offline is. Daarnaast kan het de reactietijd bij incidenten verkorten om de schade van een aanval te beperken.
7: Bedreigingen van binnenuit beperken
Bedreigingen van binnenuit moeten serieus worden genomen omdat ze een organisatie inkomsten, bedrijfsgeheimen, gevoelige gegevens en meer kunnen kosten. Er zijn twee soorten bedreigingen van binnenuit: kwaadaardige en onbedoelde. AI kan beide soorten bedreigingen van binnenuit helpen voorkomen door riskant gedrag van gebruikers te identificeren en te voorkomen dat gevoelige informatie de netwerken van een organisatie verlaat.
8: Toegangscontrole versterken
Veel tools voor toegangscontrole maken gebruik van AI om de beveiliging te verbeteren. Ze kunnen aanmeldingen vanaf verdachte IP-adressen blokkeren, verdachte gebeurtenissen markeren en gebruikers met zwakke wachtwoorden vragen hun aanmeldingsgegevens te wijzigen en over te stappen op multifactorauthenticatie.
AI helpt ook bij het verifiëren van gebruikers. Het kan bijvoorbeeld biometrische gegevens, contextuele informatie en gegevens over gebruikersgedrag gebruiken om de identiteit van geautoriseerde gebruikers nauwkeurig te verifiëren en het risico op misbruik te beperken.
9: Valse positieven identificeren
Valse meldingen kunnen vermoeiend zijn voor IT-teams. Alleen al de hoeveelheid fout-positieven kan leiden tot mentale gezondheidsproblemen. Ze kunnen teams ook dwingen om legitieme bedreigingen te missen. Het aantal valse meldingen kan echter worden verminderd met tools voor cyberbeveiliging die kunstmatige intelligentie gebruiken om de nauwkeurigheid van de dreigingsdetectie te verbeteren. Dergelijke tools kunnen ook worden geprogrammeerd om bedreigingen met een lage waarschijnlijkheid, die de tijd en middelen van een beveiligingsteam opslokken, automatisch te beheren.
10: IT-personeelsefficiëntie en -kosten
Veel kleine tot middelgrote bedrijven kunnen het zich niet veroorloven om te investeren in een groot intern cyberbeveiligingsteam dat dag en nacht de steeds geavanceerdere bedreigingen moet beheren. Ze kunnen echter wel investeren in AI-gestuurde cyberbeveiligingstechnologie die 24/7 werkt om continue bewaking te bieden, de efficiëntie te verbeteren en de kosten te verlagen. Dergelijke technologie kan ook kosteneffectief meegroeien met de groei van een bedrijf.
Bovendien verbetert AI de efficiëntie van het personeel omdat het niet vermoeid raakt. Het biedt dezelfde servicekwaliteit op alle uren van de dag, waardoor het risico op menselijke fouten afneemt. AI kan ook aanzienlijk meer gegevens beheren dan een menselijk beveiligingsteam.