Cyberkriminelle opruster med avanceret AI-teknologi

Nye AI-baserede angrebsmetoder udfordrer virksomheders cybersikkerhed markant

Illustration: Firefly (AI)

En ny rapport fra Check Point Software Technologies, AI Security Report 2025, afslører, at cyberkriminelle i stigende grad udnytter kunstig intelligens til at gennemføre avancerede og skalérbare angreb. Rapporten beskriver, hvordan AI bruges til alt fra deepfakes og social engineering til handel med adgang til AI-tjenester og udvikling af egne generative AI-løsninger.

AI-misbrug og nye trusler

Rapporten peger på, at AI gør det muligt for kriminelle hurtigt at forbedre effektiviteten og tilpasse deres metoder. Dette stiller øgede krav til virksomhedernes cybersikkerhed.

Det aktuelle trusselsbillede udfordrer virksomhedernes cyberforsvar. AI-teknologi accelererer ikke blot angreb, men kan også underminere tilliden til teknologien, når AI bliver misbrugt i det omfang, vi oplever. Det stiller helt nye krav til både beredskab og sikkerhedsforanstaltninger omkring brugen af AI.

Balder Borup, Security Engineering Team Leader hos Check Point Software Technologies

Konkrete eksempler på AI-drevet kriminalitet

Rapporten fremhæver flere tendenser, der ændrer trusselsbilledet:

  • Deepfakes og avanceret social engineering: AI gør det muligt at manipulere lyd og billede til at skabe overbevisende deepfakes, der bruges i blandt andet telefonsamtaler og videomøder. Et eksempel var den italienske forsvarsminister Guido Crosetto, der blev imiteret ved hjælp af AI for at narre medarbejdere til økonomiske overførsler.
  • Manipulation af AI-modeller og misinformation: Cyberkriminelle planter falske informationer i offentlige data for at forgifte AI-modellers træningsdata. Målet er, at AI-modeller ukritisk gengiver misinformation som fakta. Det russiske propagandanetværk Pravda stod bag 3,6 millioner falske artikler, hvoraf op til 33% blev videreformidlet af AI-chatbots.
  • AI-konti som ny handelsvare: Brugerkonti til AI-platforme som HackerGPT Lite og GhostGPT handles nu på det mørke net. Cyberkriminelle bruger ondsindet software til at afprøve lækkede loginoplysninger og får adgang til disse konti, som derefter sælges videre.
  • AI-genereret malware og automatiserede angreb: Ved at modificere åbne AI-modeller som ChatGPT og Gemini har cyberkriminelle udviklet værktøjer som WormGPT og FraudGPT. Disse værktøjer kan generere skadelig kode, skabe phishing-mails og koordinere DDoS-angreb. De sælges endda som abonnementstjenester med teknisk support.

Anbefalinger til cybersikkerhed

Check Point anbefaler, at virksomheder og organisationer tager højde for AI i deres forsvarsstrategi ved at implementere følgende AI-sikkerhedsforanstaltninger:

  • Identifikation af AI-genererede trusler: Brug AI til at identificere og blokere AI-genererede angreb som deepfakes og phishing.
  • Forbedret identitetskontrol: Implementer flerlagede identitetskontroller, der tager højde for AI-drevet personificering på tværs af tekst, tale og video.
  • Forstå truslerne som AI medfører: IT-afdelingen skal forstå, hvordan AI indgår i trusselsbilledet, og have værktøjer, der matcher de cyberkriminelles AI-drevne taktikker.

Angrebene bliver langt mere personlige, hurtigere og sværere at gennemskue. Derfor er det afgørende, at både virksomheder, offentlige myndigheder og private forbrugere forstår den dobbeltrolle, som brugen af AI har medført. AI ændrer dynamikken i cybersikkerhed, for det er både en stor drivkraft for innovation men desværre også en katalysator for nye former for cyberangreb.

Balder Borup, Security Engineering Team Leader hos Check Point Software Technologies

Hele rapporten kan læses her.