Noot van de redactie: Het Finse transport- en communicatiebureau, Traficom, is verantwoordelijk voor de beschikbaarheid van veilige, beveiligde en redelijk geprijsde transport- en communicatieverbindingen en -diensten in Finland. Naast deze verantwoordelijkheden fungeert Traficom ook als autoriteit voor personen en bedrijven op het gebied van vergunningen, registratie en toezicht.
Onlangs publiceerde Traficom een rapport van het National Cyber Security Centre Finland (NCSC-FI) en de National Emergency Supply Agency (NESA) met de titel „The Security Threat of AI-enabled cyberattacks”. Dit rapport onderzoekt de dreiging van cyberaanvallen met AI aan de hand van een samenvatting van de huidige kennis over dit onderwerp. Het rapport kan nuttig zijn voor professionals op het gebied van cyberbeveiliging, informatiebeheer en eDiscovery die nadenken over de impact van generatieve AI op de versterking van cyberaanvallen.
Informatie over cyberbeveiliging
Kunstmatige intelligentie zal de toekomst van cyberaanvallen vormgeven
Persaankondiging, samenvatting en rapport
Innovaties op het gebied van AI-beveiliging moeten gelijke tred houden met cyberaanvallen
Met beveiligde persaankondiging
Hoewel het gebruik van kunstmatige intelligentie (AI) bij de huidige cyberaanvallen beperkt is, waarschuwt een nieuw rapport dat dit in de nabije toekomst zal veranderen.
Het rapport, opgesteld in samenwerking met WithSecure™ (voorheen bekend als F-Secure Business), het Finse transport- en communicatiebureau (Traficom) en het Finse nationale noodbevoorradingsagentschap (NESA), analyseert de huidige trends en ontwikkelingen op het gebied van AI, cyberaanvallen en gebieden waar de twee elkaar overlappen. Er wordt opgemerkt dat cyberaanvallen waarbij gebruik wordt gemaakt van AI momenteel zeer zeldzaam zijn en beperkt zijn tot social engineering-toepassingen (zoals het imiteren van een individu) of worden gebruikt op manieren die niet direct waarneembaar zijn voor onderzoekers en analisten (zoals gegevensanalyse in backendsystemen).
Het rapport benadrukt echter dat de kwantiteit en kwaliteit van de vooruitgang op het gebied van AI in de nabije toekomst meer geavanceerde cyberaanvallen waarschijnlijk hebben gemaakt.
Volgens het rapport zijn doelidentificatie, social engineering en impersonatie vandaag de dag de meest dreigende bedreigingen op het gebied van AI, die naar verwachting de komende twee jaar verder zullen evolueren, zowel in aantal als in verfijning.
In de komende vijf jaar zullen aanvallers waarschijnlijk AI ontwikkelen waarmee ze autonoom kwetsbaarheden kunnen opsporen, aanvalscampagnes kunnen plannen en uitvoeren, heimelijk kunnen omzeilen en informatie kunnen verzamelen/ontginnen uit gecompromitteerde systemen of open-source informatie.
„Hoewel door AI gegenereerde content is gebruikt voor social engineering-doeleinden, zijn AI-technieken die zijn ontworpen om campagnes te sturen, aanvalsstappen uit te voeren of malwarelogica te beheersen nog steeds niet in het wild waargenomen. Deze technieken zullen eerst worden ontwikkeld door hoogopgeleide tegenstanders met voldoende middelen, zoals nationale groepen”, aldus Andy Patel, onderzoeker bij WithSecure Intelligence. „Nadat nieuwe AI-technieken zijn ontwikkeld door geavanceerde tegenstanders, zullen sommige waarschijnlijk doorsijpelen naar minder geschoolde tegenstanders en meer voorkomen in het bedreigingslandschap.”
Hoewel de huidige verdedigingsmechanismen een oplossing kunnen bieden voor enkele van de uitdagingen die worden veroorzaakt door het gebruik van AI door aanvallers, wordt in het rapport opgemerkt dat verdedigers zich in andere gevallen moeten aanpassen en zich moeten ontwikkelen. Er zijn nieuwe technieken nodig om op AI gebaseerde phishing tegen te gaan, waarbij gebruik wordt gemaakt van gesynthetiseerde inhoud, vervalsing van biometrische authenticatiesystemen en andere mogelijkheden die nog in het verschiet liggen.
Het rapport gaat ook in op de rol die niet-technische oplossingen, zoals het delen van informatie, het inzetten van middelen en training op het gebied van beveiligingsbewustzijn, spelen bij het beheersen van de dreiging van AI-gestuurde aanvallen.
„In beveiliging wordt niet zo veel geïnvesteerd of verbeterd als in veel andere AI-toepassingen, wat er uiteindelijk toe kan leiden dat aanvallers de overhand krijgen”, aldus Samuel Marchal, Senior Data Scientist van WithSecure. „Je moet niet vergeten dat legitieme organisaties, ontwikkelaars en onderzoekers weliswaar de privacyregels en lokale wetten volgen, maar dat aanvallers dat niet doen. Als beleidsmakers de ontwikkeling verwachten van veilige, betrouwbare en ethische op AI gebaseerde technologieën, moeten ze overwegen hoe ze die visie kunnen waarborgen met betrekking tot door AI ondersteunde bedreigingen.”
Over WithSecure™
WithSecure™, voorheen F-Secure Business, is de betrouwbare partner voor cyberbeveiliging. IT-dienstverleners, MSSP's en bedrijven — samen met de grootste financiële instellingen, fabrikanten en duizenden van's werelds meest geavanceerde communicatie- en technologieleveranciers — vertrouwen op ons voor op resultaten gebaseerde cyberbeveiliging die hun activiteiten beschermt en mogelijk maakt.
Onze AI-gestuurde bescherming beveiligt eindpunten en samenwerking in de cloud, en onze intelligente detectie en respons worden mogelijk gemaakt door experts die bedrijfsrisico's identificeren door proactief op bedreigingen te jagen en live aanvallen het hoofd te bieden. Onze consultants werken samen met bedrijven en technologische uitdagers om veerkracht op te bouwen door middel van wetenschappelijk onderbouwd beveiligingsadvies. Met meer dan 30 jaar ervaring in het bouwen van technologie die voldoet aan bedrijfsdoelstellingen, hebben we ons portfolio zo opgebouwd dat we met onze partners kunnen meegroeien door middel van flexibele commerciële modellen.
WithSecure™ Corporation werd opgericht in 1988 en is genoteerd op de NASDAQ OMX Helsinki Ltd.
Lees de originele aankondiging.
Kunstmatige intelligentie zal de toekomst van cyberaanvallen vormgeven
Samenvatting van het rapport Traficom (Fins transport- en communicatiebureau)
Het onderwerp cyberaanvallen met AI dook ongeveer vijf jaar geleden op met voorbeelden van generatieve AI-modellen waarmee zowel spear-phishing-aanvallen als het ontdekken van kwetsbaarheden kunnen worden geautomatiseerd. Sindsdien hebben social engineering- en impersonatieaanvallen plaatsgevonden, ondersteund door AI, met miljoenen dollars aan financiële verliezen tot gevolg. De huidige snelle vooruitgang op het gebied van AI-onderzoek, in combinatie met de talrijke nieuwe toepassingen die het mogelijk maakt, doet ons vermoeden dat AI-technieken binnenkort zullen worden gebruikt om meer van de stappen te ondersteunen die doorgaans worden gebruikt tijdens cyberaanvallen. Dit is de reden waarom het idee van cyberaanvallen met AI de laatste tijd steeds meer aandacht heeft gekregen van zowel de academische wereld als het bedrijfsleven, en waarom er steeds meer onderzoek wordt gedaan naar de manier waarop AI kan worden gebruikt om cyberaanvallen te versterken.
Uit een onderzoek van eind 2019 bleek dat meer dan 80% van de besluitvormers zich zorgen maakte over cyberaanvallen op basis van AI en voorspelde dat dit soort aanvallen in de nabije toekomst mainstream zouden kunnen worden. De huidige AI-technologieën ondersteunen al veel vroege stadia van een typische aanvalsketen. Geavanceerde social engineering en technieken voor het verzamelen van informatie zijn zulke voorbeelden. Cyberaanvallen op basis van AI vormen nu al een bedreiging waar organisaties niet mee om kunnen gaan. Deze veiligheidsbedreiging zal alleen maar toenemen naarmate we getuige zijn van nieuwe ontwikkelingen in de AI-methodologie en naarmate AI-expertise op grotere schaal beschikbaar komt.
Dit rapport heeft tot doel de veiligheidsdreiging van door AI ondersteunde cyberaanvallen te onderzoeken door de huidige kennis over dit onderwerp samen te vatten. AI-technologie kan momenteel slechts enkele aanvalstactieken verbeteren en wordt waarschijnlijk alleen gebruikt door geavanceerde dreigingsactoren, zoals aanvallers van nationale staten. In de nabije toekomst zal de snelle vooruitgang op het gebied van kunstmatige intelligentie leiden tot een breder scala aan aanvalstechnieken door middel van automatisering, heimelijkheid, social engineering of het verzamelen van informatie. Daarom voorspellen we dat in de komende vijf jaar steeds vaker aanvallen met AI zullen plaatsvinden onder minder geschoolde aanvallers. Naarmate conventionele cyberaanvallen verouderd raken, zullen AI-technologieën, -vaardigheden en -hulpmiddelen meer beschikbaar en betaalbaar worden, waardoor aanvallers worden gestimuleerd om gebruik te maken van cyberaanvallen met AI.
De cyberbeveiligingsindustrie zal zich moeten aanpassen om het hoofd te bieden aan de opkomst van cyberaanvallen met AI. Biometrische authenticatiemethoden kunnen bijvoorbeeld verouderd raken vanwege geavanceerde imitatietechnieken die mogelijk worden gemaakt door AI. Er zullen ook nieuwe preventie- en detectiemechanismen moeten worden ontwikkeld om cyberaanvallen met AI tegen te gaan. Er zullen ook meer automatiserings- en AI-technologie moeten worden gebruikt in defensieoplossingen om de snelheid, schaal en verfijning van cyberaanvallen met AI-ondersteuning te evenaren. Dit kan leiden tot een asymmetrische strijd tussen aanvallers die onbeperkt gebruik maken van AI-technologieën en verdedigers die worden beperkt door de komende regelgeving inzake AI-toepassingen.
Lees de originele aankondiging.
Lees het originele abstracte uittreksel.
Compleet rapport: De beveiligingsbedreiging van cyberaanvallen met AI (PDF) - Mouseover to Scroll
Door Matti Aksela, Samuel Marchal, Andrew Patel, Lina Rosenstedt en WithSecure
TRAFICOM De veiligheidsbedreiging van cyberaanvallen met AI-ondersteuning 2022-12-12
Origineel document
Aanvullende lectuur
AI in de gaten houden? Europese nationale strategieën voor kunstmatige intelligentie
Wat is de definitie van Cyber Discovery? Een definitie en kader
Bron: ComplexDiscovery