Ligesom du ikke har blind tillid til en fremmed på gaden, så skal du heller ikke have tillid til alt, hvad der kommer ud af en chatbot.
Man skal tage sine forholdsregler, når man arbejder med de store sprogmodeller (LLM – Large Language Models).
Sådan lyder det fra vores Senior Security Architect Michael Rømer Bennike i dette debatindlæg i Børsen (gated for ikke-abonnenter).
Hans pointer er:
Det er vigtigt, at vi forholder os til usikkerhederne i modellerne og ikke stoler blindt på dem, da vi ikke ved præcis, hvordan de arbejder.
Vi skal være kritiske over for de resultater, de kommer med. Man kan måske fint bruge modellerne til at lave en sang til en privat sammenkomst. Men jeg vil nok ikke bruge modellerne til at lave kritiske opgaver i en virksomhed. Tillid er central i de her løsninger, og man kan sige, at du skal behandle chatbotten på samme måde som en fremmed, du møder på gaden. Vil du stille de samme spørgsmål til en chatbot som til en fremmed på gaden?
Ⓒ 2024 - Alexandra Instituttet A/S
CVR Nr. 24 21 33 66