Nyheder fra gl. site

Hackerne går efter AI-systemer

Kunstig intelligens (AI) er hurtigt blevet almindeligt på næsten alle områder gang i livet. Selvkørende biler, sociale medier, cybersikkerhedsfirmaer og alt derimellem bruger det. Men en ny rapport udgivet af SHERPA-konsortiet – et EU-projekt, der studerer konsekvenserne af AI for etik og menneskerettigheder konkluderer, at mens menneskelige angriberne har adgang til maskinlæringsteknikker, så fokuserer de endnu mest på deres mål om at manipulere eksisterende AI-systemer til ondsindede formål frem for at skabe nye angreb, der bruger maskinlæring. Undersøgelsens primære fokus er på, hvordan ondsindede aktører kan misbruge AI, maskinlæring og intelligente informationssystemer. Forskerne identificerer en række potentielt ondsindede anvendelser af AI, der er inden for rækkevidde af dagens angribere, herunder afviklingen af ​​sofistikerede disinformation- og social engineering-kampagner. Og mens undersøgelsen ikke fandt noget afgørende bevis på, at ondsindede aktører i øjeblikket bruger AI til at gennemføre cyberangreb, fremhæver de, at fjendtlige kræfter allerede angriber og manipulerer eksisterende AI-systemer, som anvendes af søgemaskiner, sociale medier, anbefalingswebsteder og meget mere. F-Secures Andy Patel, der er forsker ved sikkerhedsvirksomhedens “Artificial Intelligence Center of Excellence”, tror at mange mennesker finder dette overraskende. Portrætter af AI i populærkulturen viser at den kunstige intelligens vil vende sig mod os og begynde at angribe mennesker på egen hånd. Men den nuværende virkelighed er, at det er mennesker, som angriber AI-systemer regelmæssigt. “Nogle sammenligner maskinel intelligens med menneskelig intelligens, og jeg tror det er derfor, at de forbinder truslen om fra AI med morderiske robotter og computere, der er ude af kontrol,” forklarer Patel. “Men menneskelige angreb på …. (læs mere her)