ChatGPT truer virksomheders sikkerhed – men der findes modsvar

En ny bølge af AI-baserede phishing-angreb står for døren med den øgede brug af chatbots som ChatGPT og andre AI-genererede tekster, da de er et stærkt og nemt værktøj til at producere troværdigt indhold. Dog kan ny teknologi også være med til at forhindre de nye trusler online

ChatGPT, som er udviklet af non-profit forskningsvirksomheden OpenAI, forventes at udløse en ny bølge af AI-baserede phishing-angreb. Chatbots som ChatGPT har ændret spillereglerne ved at kunne skrive velskrevne tekster på kort tid. Det har dog også ført til udviklingen af værktøjer, der kan identificere og advare mod AI-genereret indhold, og som skal inkorporeres i platforme for at modvirke phishing. 

Et eksempel på en ny teknologi, der stadig er under udvikling, som skal modstå den nye bølge af angreb, er GPT-2 Output Detector. I en online demo af GPT-2 Output Detector kan brugeren indsætte en tekst i en boks og straks udregne sandsynligheden for, at teksten er skrevet af AI. Ifølge forskning fra OpenAI har værktøjet en relativt høj detektionsrate, men værktøjet skal kombineres med metadatabaserede metoder og menneskelig dømmekraft for at være mest mulig effektiv. 

Hvis OpenAI-ingeniører har haft held med at skabe en bot, der kan skrive lige så godt eller bedre end det gennemsnitlige menneske, så er det naturligt, at de også kan skabe en bot, der er bedre end det gennemsnitlige menneske til at registrere, når en tekst er blevet genereret af AI. 

Peter Graymon, ansvarlig for Barracuda Networks i Norden

Vandmærker kan være en løsning

En anden måde at løse problemet på er ved at vandmærke alle ChatGPT-tekster. Ifølge OpenAI-forsker, Scott Aaronson, har ingeniører allerede bygget en fungerende prototype, der vandmærker al tekst genereret af OpenAI. Det sker via det, han kalder en “kryptografisk pseudo-random funktion”. Og det er kun OpenAI, der har adgang til nøglen.

Lige nu må vi antage, at phishing-angrebene snart vil stige i både antal og troværdighed. Mange digitale processer vil sandsynligvis skulle revurderes, fordi det nuværende niveau af tillid ikke kan opretholdes, når AI-genererede tekster og e-mails for alvor bliver et værktøj for cyberkriminelle. 

Peter Graymon, ansvarlig for Barracuda Networks i Norden

Du kan læse mere om, hvordan ChatGPT øger risikoen for flere phishing-angreb her.

Læs mere om værktøjerne, der afslører AI-genererede tekst her.

About Lars Bennetzen 3850 Articles
Lars Bennetzen har været it- og gadget-journalist siden 1992, og arbejdet som redaktør på PC World, Ingeniøren, Jern- og Maskinindustrien, Procesteknik og Ugens Erhverv. I 2006 blev Lars Chefredaktør på Alt om DATA, og bestyrede det gode gamle it-blad gennem de næste 6 år. I 2012 blev Lars selvstændig og stiftede firmaet Blackbelt Communications og i 2015 startede han Tech-Test. Lars fungerer også som kommunikationskonsulent, taler, moderator og gadgetekspert.