Kunstig intelligens
Her får du råd til at eksperimentere sikkert med AI
Vi glæder os dagligt over, at danske virksomheder tør kaste sig ud i at anvende den nyeste teknologi. Danmark er et digitaliseret land, og vi har mod på og lyst til at bringe ny teknologi i spil og udnytte de mange nye muligheder. Men i takt med at vi glæder os over det, erfarer vi hurtigt, at teknologien åbner både for muligheder for vores forretning og for huller i vores it-sikkerhed. Vi er nok alle enige om ønsket: Muligheder ja tak, problemer med it-sikkerhed nej tak.
Mens vi venter på, at lovgivning følger med de teknologiske muligheder med AI, og it-sikkerhedsreglerne er klar, satser vi for en periode med vores data – og forretning – som indsats. Og du kender det nok: Som man bliver revet med, stiger risikoen for at dele data uden helt præcis at vide, hvor de lander, fordi vi ikke har regler at læne os op ad eller erfaringerne, der guider os. Alligevel tester vi AI af som aldrig før, og specielt er ChatGPT det værktøj, der senest giver os lov til at lege med for alvor.
Risikoen for at videregive for eksempel følsomme eller forretningskritiske data er høj. Det kan også undgås. Vi har derfor samlet et par råd om AI og it-sikkerhed for slutbrugere. Vi håber, at det kan hjælpe jer til at eksperimentere videre med AI men med et sikkerhedsnet omkring jer.
I e-bogen kigger vi på sikkerhedsissues ved Large Language Models (LLM), også kaldet generativ AI.
Fordi teknologien fungerer som en slags database, men så alligevel ikke. Derfor kan man komme til at dele information, der ikke må komme ud, eller man kan tage beslutninger baseret på forkerte data. Resultat fra et LLM-baseret værktøj er afhængigt af de data, den trænes på. Er data sensitive eller dårlige, kommer resultatet også til at være det.
Vi kommer med eksempler på, at man kan manipulere data og dermed modtage CV’er, der er gjort bedre med skjult tekst kun læsbart for AI-modellen, men også hvor mails og løndata uhensigtsmæssigt bringes i spil, uden at medarbejdere med vilje ønskede at kompromittere de data. Vi kommer med råd til, hvordan det kan undgås, samtidig med at man kan eksperimentere sikkert med de muligheder, der heldigvis også følger.
Guiden gør dig klogere på:
- Hvordan modeller som LLM/generativ AI egentlig virker
- Hvilke handlinger du bør være obs på
- Hvilke fundamentale råd du bør følge
Kort om LLM og generativ AI
Betegnelsen Large Language Model er lidt misvisende, for store sprogmodeller kan efterligne menneskelig forståelse for tale og tekst, men det gælder også for billeder, lyd og andre data. Det gør dem i stand til at skrive tekst men også til at besvare spørgsmål og udføre en lang række andre opgaver, som når en chatbot eller AI-assistent opsummerer og trækker information ud af tekster og databaser.
Udfordringerne ved LLM’er er, at de ikke kan bedømme, hvilke informationer og mennesker de kan stole på, om data er fortrolige og bør hemmeligholdes, eller om det er farligt eller uetisk at besvare et bestemt spørgsmål eller udføre en given opgave. Der er også andre udfordringer, men heldigvis også andre muligheder og metoder, du kan benytte dig af, så dine AI-erfaringer bliver gode.