Business

ChatGPT truer virksomheders sikkerhed – men der findes modsvar

ChatGPT, som er udviklet af non-profit forskningsvirksomheden OpenAI, forventes at udløse en ny bølge af AI-baserede phishing-angreb. Chatbots som ChatGPT har ændret spillereglerne ved at kunne skrive velskrevne tekster på kort tid. Det har dog også ført til udviklingen af værktøjer, der kan identificere og advare mod AI-genereret indhold, og som skal inkorporeres i platforme for at modvirke phishing.  Et eksempel på en ny teknologi, der stadig er under udvikling, som skal modstå den nye bølge af angreb, er GPT-2 Output Detector. I en online demo af GPT-2 Output Detector kan brugeren indsætte en tekst i en boks og straks udregne sandsynligheden for, at teksten er skrevet af AI. Ifølge forskning fra OpenAI har værktøjet en relativt høj detektionsrate, men værktøjet skal kombineres med metadatabaserede metoder og menneskelig dømmekraft for at være mest mulig effektiv.  Hvis OpenAI-ingeniører har haft held med at skabe en bot, der kan skrive lige så godt eller bedre end det gennemsnitlige menneske, så er det naturligt, at de også kan skabe en bot, der er bedre end det gennemsnitlige menneske til at registrere, når en tekst er blevet genereret af AI.  Peter Graymon, ansvarlig for Barracuda Networks i Norden Vandmærker kan være en løsning En anden måde at løse problemet på er ved at vandmærke alle ChatGPT-tekster. Ifølge OpenAI-forsker, Scott Aaronson, har ingeniører allerede bygget en fungerende prototype, der vandmærker al tekst genereret af OpenAI. Det sker via det, han kalder en “kryptografisk pseudo-random funktion”. Og det er kun OpenAI, der har adgang til nøglen. …. (læs mere her)