Værktøjer som ChatGPT, Copilot og Gemini kan være fristende at bruge – men man skal have styr på sin sikkerhed – ligesom med alle andre it-løsninger.
Og især i firmaer og organisationer bør LLM-sikkerhed afgjort være på dagsordenen. Det gælder både vurdering af selve modellerne man bruger, udefrakommende manipulation af prompts, hvilke firmadata man risikerer at lække til modellerne, hvilke resultater man får og hvad man bruger dem til.
Jeg har haft besøg i studiet af Zaruhi Aslanyan, som er sikkerhedsarkitekt på Alexandra Instituttet og Michael Rømer Bennike, der er senior sikkerhedsarkitekt samme sted, for at høre mere om udfordringerne og hvad man kan gøre.
Desværre er der – ligesom med al anden it-sikkerhed – ikke nogle nemme løsninger...
Lyt med 🤖
LINKS
NYHEDER
LLM-SIKKERHED
Vort modersmål er dejligt – og nu skal det bruges til at træne AI
AI-studenter i Odense
AI er ikke en skrivemaskine – AI for journalister
Præcise vejrudsigter med kunstig intelligens
XRAI – hjælp til planlægning og evaluering af AI-systemer
Deepfakes – kan de også snyde advokater?
Advokater med AI-assistent
Fremtiden for femtech – hvordan kan AI hjælpe kvinder?
EUs AI Act – regulering af en revolution
Musik som træningsdata i AI – hvad betyder det for sangskriverne?
Nytårs-special: Tilbagekig på AI-året 2023
Tager AI dit arbejde eller bliver du mere produktiv med en AI-makker?
OpenAI vil gøre det nemmere at lave digitale assistenter
Opfordring til ledere: kom igang med at afprøve GenAI
Er AI en klimasynder?
Argumenter for mennesker – og for det danske sprog
Ord og maskiner – nyt forskningscenter skal gøre os klogere på sprog og AI
SkoleGPT – på vej mod en chatbot i klasseværelset
AI hos tandlægen – men "kun" til planlægning
Create your
podcast in
minutes
It is Free
Insight Story: Tech Trends Unpacked
Zero-Shot
Fast Forward by Tomorrow Unlocked: Tech past, tech future
The Unbelivable Truth - Series 1 - 26 including specials and pilot
Lex Fridman Podcast