Nyheder

Falske Facebooksider og -annoncer lokker intetanende brugere til at downloade malware

Check Point Research fortæller at cyberkriminelle i stor stil har oprettet falske Facebooksider, hvor de udgiver sig for at være kendte AI-tjenester, som f.eks. ChatGPT og Google Bard. Her deler de cyberkriminelle opslag, der linker til gratis AI-værktøjer. Men i stedet for at downloade ChatGPT eller Google Bard, er det rent faktisk malware, brugerne henter og installerer. Når malwaren har inficeret brugerens enhed, har hackerne mulighed for at stjæle personlige informationer fra brugerne.  Ifølge Check Points analytikere har flere af de falske Facebooksider tusindvis af følgere, hvilket dog ikke er nok for de cyberkriminelle. De har nemlig betalt sig fra en lang række annoncer på Facebook, der alle linker til download af AI-tjenester, som i virkeligheden er malware.  Desværre oplever vi, at cyberkriminelle hele tiden bliver klogere. De ved, at stort set alle brugere er interesseret i generativ AI og benytter Facebooksider og reklamer til at udgive sig for at være ChatGPT, Google Bard m.f. Desværre kan vi se, at tusindvis er faldet for hackernes svindelnummer og har interageret med de falske sider, hvilket blot spreder de farlige opslag til endnu flere brugere. Derfor opfordrer vi alle til at være påpasselige, når de ser disse opslag, og kun downloade filer fra hjemmesider, de stoler på. Sergey Shykevich, Threat Intelligence Group Manager hos Check Point Research
Nyheder

Apple arbejder på deres eget AI

Brugen, og ikke mindst udviklingen af, AI, er eksploderet det sidste års tid. ChatGPT, der blandt andet har Microsoft bag sig, startede det hele som en nuklear bombe, og flere andre har fulgt efter, ikke mindst Google Bard og Firefly fra Adobe (der dog kun kan lave billeder og effekter). Men det er ikke meget vi har hørt fra Apple omkring AI, heller ikke på deres årlige WWDC blev det nævnt, men ifølge internetmediet Bloomberg er der noget på vej. De mener at vide at Apple arbejder på deres egen AI, som skulle have fået navnet Ajax og i visse kredse bliver omtalt som Apple GPT. Der kan være mange gode grunde til at Apple arbejder på en AI, ikke mindst fordi deres taleassistent – som vi kender fra deres iPhone, Apple Watch, iPad og ikke mindst computere, er meget begrænset i forhold til de nye AI. Ifølge Bloomberg har Ajax AI været noget Apple har arbejdet på i et års tid, og skulle være tæt på at kunne blive frigivet. Men det betyder ikke at vi skal glæde os for tidligt, for Apples AI er nemlig ikke udviklet til os slutbrugere – endnu altså. Det bruges i øjeblikket udelukkende som prototype tester internt hos Apple. En af de udfordringer Apple angiveligt har, er privatliv, hvilket producenten vægter meget højt i deres produkter. Men vi kan jo håbe at deres innovative udviklere kan finde en måde at bruge AI på i deres produkter, der for alvor kan give os et …. (læs mere her)
Nyheder

Nu jagter hackerne din ChatGPT-konto

Cyberkriminelle har nu rettet blikket mod ChatGPT, og ifølge Bleeping Computer har de stjålet over 101.000 bruger-konti på den populære AI-tjeneste. ”Folk indser ikke at deres ChatGPT-konto faktisk indeholder en stor mængde af følsomme informationer, som er guf for cyberbanditterne. Leif Jensen, CBO og sikkerhedsekspert hos ESET Nordic ChatGPT gemmer nemlig alle input, som brugere af tjenesten giver den, medmindre den funktion slås fra manuelt. Alle der har adgang til en ChatGPT-konto, kan læse alle de input.Derfor undrer det heller ikke Leif Jensen, at informationstyveri fra ChatGPT er blevet stadig mere prominent. Netop fordi ChatGPT gemmer alle input fra brugerne, kan disse data vise sig at være værdifulde for de cyberkriminelle. Med data nok om en bruger er det nemlig relativ let at gætte login-detaljer eller måske skabe en falsk identitet baseret på informationer givet til ChatGPT. Leif Jensen, CBO og sikkerhedsekspert hos ESET Nordic Ifølge Bleeping Computer har hackerne brugt malware designet til at stjæle informationer fra ChatGPT, og de kan fortælle, at næsten 17.000 ChatGPT-konti blevet kompromitteret i Europa mellem juni 2022og maj 2023.  Det virker måske ikke som meget, men udviklingen er klar, og vi ser i stigende grad, at hackerne bruger online malware-tjenester, også kendt som malware-as-a-service, blandt andet for at få fat i login-informationer til ChatGPT. Det tal vil hurtigt kunne vokse, hvis vi ikke gør noget aktivt. Leif Jensen, CBO og sikkerhedsekspert hos ESET Nordic Han fortæller, at på de gratis ChatGPT-konti er der kun en ting, brugerne kan gøre, nemlig at slå funktionen …. (læs mere her)
Nyheder

Ny smartphone får integreret ChatGPT

I følge Allview er deres nye smartphone, Soul X10 den første smartphone i verden der får en stemmeassistent der er kombineret med den kunstige intelligens, ChatGPT. Ideen med AVI, som deres stemmeassistent er døbt, er at skabe en virtuel assistent, der skal kunne give svar i høj kvalitet i tekst, på en lang række emner. Udover at aktivere funktioner i mobilen, så som at hente beskeder og nyheder samt vise videoklips der indeholder de emner brugeren ønsker, skulle AVI nu også kunne udfordre brugeren til at føre engagerende samtaler. AVI skulle, ifølge Allview, fungere på romanske og engelske sprogstammer, og hjælpe brugerne på forskellige måder, blandt andet: Soul X10 er blevet udstyret med et kamerasystem med tre objektiver, herunder et 48MP hovedkamera. Hovedsensoren, Sony IMX582 PDAF F/1.79, bruger Quad Bayer teknologi, der ifølge Allview giver virkelig gode fotografiske oplevelser og realistiske farver. Der er ikke så mange flere informationer om Soul X10 udover at den er baseret på Android 13 og kommer med en MediaTek Octa-Core processor og 6GB DDR4 hukommelse. Den nye mobil skulle være til salg online til omkring 1.250 kroner, hvilket virker utrolig billigt, og salget starter til april. Du kan læse mere om mobilen her.
Business

ChatGPT truer virksomheders sikkerhed – men der findes modsvar

ChatGPT, som er udviklet af non-profit forskningsvirksomheden OpenAI, forventes at udløse en ny bølge af AI-baserede phishing-angreb. Chatbots som ChatGPT har ændret spillereglerne ved at kunne skrive velskrevne tekster på kort tid. Det har dog også ført til udviklingen af værktøjer, der kan identificere og advare mod AI-genereret indhold, og som skal inkorporeres i platforme for at modvirke phishing.  Et eksempel på en ny teknologi, der stadig er under udvikling, som skal modstå den nye bølge af angreb, er GPT-2 Output Detector. I en online demo af GPT-2 Output Detector kan brugeren indsætte en tekst i en boks og straks udregne sandsynligheden for, at teksten er skrevet af AI. Ifølge forskning fra OpenAI har værktøjet en relativt høj detektionsrate, men værktøjet skal kombineres med metadatabaserede metoder og menneskelig dømmekraft for at være mest mulig effektiv.  Hvis OpenAI-ingeniører har haft held med at skabe en bot, der kan skrive lige så godt eller bedre end det gennemsnitlige menneske, så er det naturligt, at de også kan skabe en bot, der er bedre end det gennemsnitlige menneske til at registrere, når en tekst er blevet genereret af AI.  Peter Graymon, ansvarlig for Barracuda Networks i Norden Vandmærker kan være en løsning En anden måde at løse problemet på er ved at vandmærke alle ChatGPT-tekster. Ifølge OpenAI-forsker, Scott Aaronson, har ingeniører allerede bygget en fungerende prototype, der vandmærker al tekst genereret af OpenAI. Det sker via det, han kalder en “kryptografisk pseudo-random funktion”. Og det er kun OpenAI, der har adgang til nøglen. …. (læs mere her)