Kunstig intelligens
Tillid er afgørende, når man arbejder med ChatGPT og andre sprogmodeller
Ligesom du ikke har blind tillid til en fremmed på gaden, så skal du heller ikke have tillid til alt, hvad der kommer ud af en chatbot.
Man skal tage sine forholdsregler, når man arbejder med de store sprogmodeller (LLM – Large Language Models).
Sådan lyder det fra vores Senior Security Architect Michael Rømer Bennike i dette debatindlæg i Børsen (gated for ikke-abonnenter).
Hans pointer er:
Det er vigtigt, at vi forholder os til usikkerhederne i modellerne og ikke stoler blindt på dem, da vi ikke ved præcis, hvordan de arbejder.
Vi skal være kritiske over for de resultater, de kommer med. Man kan måske fint bruge modellerne til at lave en sang til en privat sammenkomst. Men jeg vil nok ikke bruge modellerne til at lave kritiske opgaver i en virksomhed. Tillid er central i de her løsninger, og man kan sige, at du skal behandle chatbotten på samme måde som en fremmed, du møder på gaden. Vil du stille de samme spørgsmål til en chatbot som til en fremmed på gaden?
- Vær bevidst om, hvad I indtaster i ChatGPT. Det kan misbruges til at generere ondsindet eller vildledende output.
- Stol ikke for meget på LLM’erne til kritiske opgaver.
- Bot’en er biased med det data, den er lært op af. Det er det, vi kalder data poisoning eller biased data.
- Er du programmør, skal du passe på, når du bruger bot’en til kode. Hvis kodelagrene bliver forgiftet med ondsindet kode, vil det kompromittere alle de programmer, hvor koden bliver brugt.
- Udnyt mulighederne men forsøg at minimere risikoen for jer selv. Værktøjerne kan fx blive utilgængelige, hvis dem, der laver dem, går konkurs eller angribes.
- Hold øje med output og faktatjek. Der kan også være virksomheder, der betaler operatørerne af de store sprogmodeller til bevidst at fodre dem med forkerte og biased data.
- Sørg for, at der er træning og vejledning til de medarbejdere, der skal bruge værktøjerne, så de kan bruge dem på en sikker måde.