Hver anden virksomhed har delt følsomme oplysninger med AI-værktøjer
I takt med at et stigende antal virksomheder prøver kræfter med generativ AI, melder udfordringerne sig også i forhold til datasikkerheden og reguleringen heraf. Sådan lyder konklusionen i en ny global undersøgelse fra Cisco blandt 2.600 professionelle inden for datasikkerhedsområdet om deres anvendelse af AI-værktøjer. Analysen afslører blandt andet, at de fleste organisationer i et eller andet omfang har indført restriktioner for anvendelsen af generativ AI på grund af bekymringer om databeskyttelse. Knap hver anden (48%) indrømmer i den forbindelse, at de har delt fortrolige forretningsoplysninger med generative AI-værktøjer, mens hver fjerde (27%) svarer, at deres organisation indtil videre helt har forbudt brugen af generativ AI. Udbredte privacy-bekymringer Verden over er virksomheder blevet langt mere klar over, at AI som teknologi medfører både nye muligheder og udfordringer, som skal overvejes en ekstra gang. Ikke mindst her på det danske marked, hvor vi er langt fremme på brugen af teknologien. Henrik Stær, teknisk direktør i Cisco Danmark Når det kommer til de største databekymringer ved brugen af AI, topper truslen mod organisationers juridiske og intellektuelle ejendomsrettigheder (IP-rettigheder) samt risikoen for, at forretningsoplysninger videregives til offentligheden eller konkurrenter. Henholdsvis 69% og 68% af de adspurgte peger på disse. Af samme grund har størstedelen af virksomhederne i undersøgelsen indført kontroller for at dæmme op for databrister: 63% har begrænset hvilke data, der kan indtastes, 61% har indskrænket hvilke AI-værktøjer, medarbejderne kan bruge, og 27% har helt forbudt AI-programmer indtil videre. Spørgsmål om kundetillid Ikke desto mindre har mange indtastet potentielt følsomme oplysninger: 45% …. (læs mere her)