Kunstig intelligens (AI) er hurtigt blevet almindeligt på næsten alle områder gang i livet. Selvkørende biler, sociale medier, cybersikkerhedsfirmaer og alt derimellem bruger det. Men en ny rapport udgivet af SHERPA-konsortiet – et EU-projekt, der studerer konsekvenserne af AI for etik og menneskerettigheder konkluderer, at mens menneskelige angriberne har adgang til maskinlæringsteknikker, så fokuserer de endnu mest på deres mål om at manipulere eksisterende AI-systemer til ondsindede formål frem for at skabe nye angreb, der bruger maskinlæring.
Undersøgelsens primære fokus er på, hvordan ondsindede aktører kan misbruge AI, maskinlæring og intelligente informationssystemer. Forskerne identificerer en række potentielt ondsindede anvendelser af AI, der er inden for rækkevidde af dagens angribere, herunder afviklingen af sofistikerede disinformation- og social engineering-kampagner.
Og mens undersøgelsen ikke fandt noget afgørende bevis på, at ondsindede aktører i øjeblikket bruger AI til at gennemføre cyberangreb, fremhæver de, at fjendtlige kræfter allerede angriber og manipulerer eksisterende AI-systemer, som anvendes af søgemaskiner, sociale medier, anbefalingswebsteder og meget mere.
F-Secures Andy Patel, der er forsker ved sikkerhedsvirksomhedens “Artificial Intelligence Center of Excellence”, tror at mange mennesker finder dette overraskende. Portrætter af AI i populærkulturen viser at den kunstige intelligens vil vende sig mod os og begynde at angribe mennesker på egen hånd. Men den nuværende virkelighed er, at det er mennesker, som angriber AI-systemer regelmæssigt.
“Nogle sammenligner maskinel intelligens med menneskelig intelligens, og jeg tror det er derfor, at de forbinder truslen om fra AI med morderiske robotter og computere, der er ude af kontrol,” forklarer Patel.
“Men menneskelige angreb på AI sker faktisk hele tiden. Sybil-angreb, der er designet til at forgifte de AI-systemer, folk bruger hver dag, som f.eks. anbefalingssystemer, er en almindelig hændelse. Der er endda virksomheder, der sælger tjenester, der understøtter disse angreb. Så ironisk nok har dagens AI-systemer mere at frygte fra mennesker end omvendt. “
Sybil-angreb involverer en enkelt enhed, der opretter og kontrollerer flere falske konti for at manipulere de data, som AI bruger til at træffe beslutninger. Et populært eksempel på denne type angreb er at manipulere søgemaskinerangeringer eller anbefalingssystemer til at fremme eller undertrykke visse indholdstyper. Disse angreb kan dog også bruges til socialt engineering i målrettede angrebsscenarier.
“Disse typer angreb er allerede meget vanskelige for internetudbydere at opdage, og det er sandsynligt, at denne adfærd er langt mere udbredt, end nogen forstår fuldt ud,” siger Patel, som har foretaget omfattende undersøgelser af mistænkelig aktivitet på Twitter.
Måske er AI’s mest nyttigt for angriberne i fremtiden, til at hjælpe dem med at skabe falsk indhold. Rapporten bemærker, at AI er raffineret til et punkt, hvor den kan fremstille ekstremt realistisk skriftligt, lydligt og visuelt indhold. Nogle AI-modeller er endda blevet tilbageholdt fra offentlig brug for at forhindre dem i at blive misbrugt af angribere.
“I øjeblikket er vores evne til at skabe overbevisende falsk indhold langt mere sofistikeret og avanceret end vores evne til at opdage det. Og AI hjælper os med at blive bedre til at fremstille lyd, video og billeder, hvilket kun gør disinformation og falsk indhold endnu mere sofistikeret og sværere at opdage, “siger Patel. “Og der er mange forskellige brugs-scenarier til overbevisende, falsk indhold, så jeg forventer, at det kan ende med at blive problematisk.”
Undersøgelsen blev produceret af F-Secure og dets partnere i SHERPA – et EU-finansieret projekt, der blev grundlagt i 2018 af 11 organisationer fra 6 forskellige lande. Yderligere konklusioner og emner, der er omfattet af undersøgelsen, er bl.a.:
- Fjendtlige kræfter vil fortsat lære at kompromittere AI-systemer efterhånden som teknologien spredes
- Antallet af måder angriberne kan manipulere output fra AI gør sådanne angreb vanskelige at opdage og forsvare sig mod
- Kræfter, der konkurrerer om at udvikle bedre typer af AI til offensive/defensive formål, kan ende med at starte et “AI-våbenkapløb”
- Beskyttelse af AI-systemer mod angreb kan resultere etiske problemer (for eksempel kan øget overvågning af aktivitet krænke brugerens privatliv)
- AI-værktøjer og -modeller udviklet af avancerede, trusselsaktører med store ressourcer vil i sidste ende sprede sig og blive vedtaget af fjender med lavere kvalifikationer
SHERPA-projektkoordinator professor Bernd Stahl fra De Montfort University Leicester siger, at F-Secure’s rolle i SHERPA, som eneste partner fra cybersikkerhedsbranchen, hjælper projektet med at klarlægge, hvordan ondsindede aktører kan bruge AI til at undergrave tilliden i samfundet.
“Vores projekt har til formål at forstå etiske og menneskeretslige konsekvenser af AI og big data-analyse med det formål at hjælpe med at udvikle måder at håndtere disse konsekvenser. Dette arbejde skal baseres på en solid forståelse af tekniske kapaciteter såvel som sårbarheder, et afgørende fagområde, som F-Secure bidrager med til konsortiet, siger Stahl.
“Vi kan ikke have meningsfulde samtaler om menneskerettigheder, privatlivets fred eller etik i AI uden at overveje cybersikkerhed. Og som en troværdig kilde til viden om sikkerhed er F-Secure’s bidrag en central del af projektet. “
Studiet i fuld længde findes her. Mere information om kunstig intelligens og cybersikkerhed er tilgængelig på F-Secure’s blog eller F-Secure’s nyheder fra Labs research bloggen.