Ordbok
KI Ordbok
Alle viktige begreper innen kunstig intelligens og språkmodeller forklart på enkel norsk. Fra grunnleggende konsepter til tekniske faguttrykk.
A
-
AgentAgent
Et KI-system som kan planlegge og utføre flere steg for å løse en oppgave. I stedet for bare å svare på ett spørsmål kan en agent bruke verktøy, søke på nett, kjøre kode og ta beslutninger underveis.
-
Agentic AI
KI som handler med stor grad av selvstendighet over lengre tid, uten å måtte spørre mennesker om lov for hvert steg. Brukes mye i automatiserte arbeidsflyter.
-
AttentionAttentionTeknisk
En mekanisme i nevrale nettverk som lar modellen fokusere på de mest relevante delene av teksten når den genererer et svar. Selve grunnsteinen i transformer-arkitekturen.
-
Autoregressive modellTeknisk
En modell som genererer tekst ett ord (token) om gangen, der hvert nye ord baseres på alle ordene som kom før. Slik fungerer de fleste språkmodeller i dag.
B
-
Batch-behandlingBatch processing
Å kjøre mange forespørsler til en modell på én gang, i stedet for én og én. Gir lavere kostnad og høyere gjennomstrømning, men brukes ikke der man trenger umiddelbart svar.
-
Benchmark
En standardisert test for å måle hvor god en modell er. Eksempler er MMLU (generell kunnskap), HumanEval (koding) og MATH (mattematikk). Benchmarks brukes til å sammenligne modeller, men forteller ikke alltid hvordan modellen yter i virkelig bruk.
-
Bias (skjevhet)
Systematiske feil eller tendenser i en modells svar, ofte forårsaket av skjevheter i treningsdataen. En modell kan for eksempel gi urettferdige svar basert på kjønn, etnisitet eller geografi.
C
-
Chain-of-Thought (CoT)Teknikk
En prompte-teknikk der man ber modellen tenke trinn for trinn i stedet for å svare direkte. Gir bedre resultater på komplekse oppgaver som matte, logikk og resonnering.
-
Chatbot
Et dataprogram som simulerer samtale med et menneske. Moderne chatboter bruker store språkmodeller og kan håndtere fri tekst. Eksempler: ChatGPT, Claude, Gemini.
-
Claude
En serie med store språkmodeller laget av Anthropic. Kjent for lange kontekstvinduer, forsiktig og gjennomtenkt stil, og sterke resultater på dokumentanalyse og skriving.
-
CompletionCompletion
Svaret en språkmodell genererer basert på en prompt. Kalles "completion" fordi modellen teknisk sett "fullfører" teksten du sendte inn.
-
KontekstvinduContext window
Maksimalt antall tokens en modell kan ha i minnet på én gang — både det du skriver og det modellen har svart. Jo større kontekstvindu, jo lengre tekster kan modellen jobbe med uten å "glemme" begynnelsen.
D
-
DiffusjonsmodellDiffusion model
En type KI-modell brukt til å generere bilder og lyd. Fungerer ved å starte med støy og gradvis fjerne støyen til et bilde eller lydklipp oppstår. Brukes i Stable Diffusion, DALL-E og Midjourney.
-
DistilleringDistillationTeknisk
En teknikk der en liten modell trenes til å imitere en stor modell. Den lille modellen kan dermed gi nesten like gode svar, men er mye raskere og billigere i drift.
-
DeepSeek
Et kinesisk KI-laboratorium kjent for kostnadseffektive modeller med frontierkvalitet, spesielt innen koding og matematikk. DeepSeek-modellene er åpne (MIT-lisens) og har gjentatte ganger overrasket bransjen.
E
-
EmbeddingEmbeddingTeknisk
En måte å representere ord, setninger eller dokumenter som lister med tall (vektorer). Tekster med lignende betydning får tall som ligger nær hverandre. Brukes blant annet i søk og RAG-systemer.
-
EvalueringEval / Evaluation
Systematisk testing av en modell for å måle kvalitet på svar. Gode evalueringssystemer er avgjørende for å oppdage om en modell er blitt bedre eller dårligere etter endringer.
F
-
FinjusteringFine-tuning
Å videretre en ferdig modell på et spesialisert datasett for å gjøre den bedre på en bestemt type oppgave. Eksempel: man tar en generell modell og finjusterer den på medisinsk tekst for å få en legehjelper-modell.
-
Foundation model
En stor modell trent på enorme mengder data som kan brukes som utgangspunkt for mange ulike oppgaver. GPT-4, Claude og Gemini er eksempler. Kan tilpasses videre via finjustering eller prompting.
-
Frontier-modell
De aller beste og kraftigste KI-modellene tilgjengelig på et gitt tidspunkt. Frontier-modeller setter standarden andre måles mot. Per 2026: GPT-4o, Claude Opus 4, Gemini 2 Ultra.
-
Few-shot promptingTeknikk
En teknikk der man gir modellen noen eksempler på hva man forventer, direkte i prompten. Uten eksempler kalles det zero-shot; med mange eksempler kalles det many-shot.
G
-
Generativ KIGenerative AI
KI som kan lage nytt innhold: tekst, bilder, lyd, video og kode. I motsetning til tradisjonell KI som bare klassifiserer eller forutsier, skaper generativ KI noe nytt.
-
Gemini
Googles familie av store språkmodeller. Sterk på multimodal input (tekst + bilde + lyd + video) og integrert med Google-tjenester. Finnes i versjonene Flash (rask/billig) og Pro/Ultra (kraftig).
-
Gemma
Googles familie av åpne språkmodeller med Apache 2.0-lisens. Kan brukes kommersielt og kjøres lokalt. Gemma 4 (9B og 27B) er per 2026 blant de sterkeste åpne modellene i sin størrelsesklasse.
-
GPTGenerative Pre-trained Transformer
OpenAIs serie med store språkmodeller. GPT-4 og GPT-4o er kjente frontiermodeller. "Pre-trained" betyr forhåndstrent på store mengder tekst; "transformer" betyr arkitekturen modellen bruker.
-
GPUGraphics Processing Unit
Et grafikkprosessorkort opprinnelig laget for spill, men som viste seg ideelt for å trene og kjøre KI-modeller. NVIDIA dominerer markedet. En sterk GPU (24 GB VRAM) lar deg kjøre modeller lokalt hjemme.
-
Grounding
Å forankre modellens svar i verifiserbar informasjon — for eksempel ved å koble den til søkeresultater, databaser eller dokumenter. Reduserer hallusinasjoner.
-
Guardrails
Begrensninger og regler bygget inn i et KI-system for å hindre skadelig, feilaktig eller uønsket output. Kan være tekniske filtre, systemprompter eller ekstra valideringsmodeller.
H
-
HallusinasjonHallucination
Når en KI-modell produserer informasjon som høres troverdig ut, men som er feil eller oppdiktet. Modellen "finner på" fakta, lenker, navn eller datoer den ikke har grunnlag for. Et kjent svakhet ved LLM-er.
-
RLHFHuman feedback (RLHF)Teknisk
Se: Reinforcement Learning from Human Feedback.
-
Hybrid tenkningHybrid reasoning
En funksjon i noen modeller (som Qwen3.6) der man kan slå av og på "dypt resonnering" etter behov. For enkle spørsmål gir rask respons uten ekstra tenketid; for komplekse oppgaver aktiveres grundigere analyse.
I
-
InferensInference
Å kjøre en ferdig trent modell for å generere svar. Selve bruken av modellen i produksjon kalles inferens, til forskjell fra trening som skjer én gang.
-
Instruksjons-tuningInstruction tuning
En type finjustering der modellen læres opp til å følge instruksjoner formulert i vanlig språk. Gjør modellen mer nyttig og lettere å styre med enkle tekstkommandoer.
J
-
Jailbreak
Forsøk på å lure en KI-modell til å ignorere sine egne sikkerhetsregler ved å formulere prompts på spesielle måter. Modellprodusentene jobber kontinuerlig med å tette slike hull.
-
JSON-modusJSON mode
En innstilling der modellen er tvunget til å returnere svar som gyldig JSON. Svært nyttig i systemer som trenger strukturert data fra modellen, for eksempel APIer.
K
-
Kunstig intelligens (KI)Artificial Intelligence (AI)
Dataprogrammer som kan utføre oppgaver som normalt krever menneskelig intelligens, som å forstå tekst, gjenkjenne bilder, oversette språk og løse problemer.
-
Kunstig generell intelligens (KGI)Artificial General Intelligence (AGI)
Et hypotetisk KI-system som kan utføre alle kognitive oppgaver like godt som — eller bedre enn — et menneske. Ikke oppnådd per 2026, men diskutert mye i forskningsmiljøer.
-
KunnskapsgrenseKnowledge cutoff
Den datoen en modell sluttet å lære fra ny informasjon. En modell med kunnskapsgrense i 2024 vet ingenting om hendelser som skjedde etter det, med mindre den kobles til et søkeverktøy.
L
-
LatenstidLatency
Tid fra du sender en forespørsel til modellen begynner å svare (eller er ferdig). Lav latens er viktig i apper der brukeren venter på svar i sanntid.
-
Llama
Metas familie av åpne språkmodeller. Bredt brukt av forskere og utviklere fordi vektene er tilgjengelige og modellene kan kjøres på vanlig maskinvare. Llama 3 er grunnlaget for mange norske modeller.
-
LLMLarge Language Model
En stor språkmodell trent på enorme mengder tekst for å forstå og generere naturlig språk. GPT-4, Claude, Gemini og Llama er eksempler. "Large" refererer til antallet parametre modellen har.
-
LoRALow-Rank AdaptationTeknisk
En effektiv metode for å finjustere store modeller uten å endre alle parametrene. Mye billigere og raskere enn full finjustering, og veldig populær for lokal tilpasning.
M
-
MaskinlæringMachine Learning (ML)
En gren av KI der systemer lærer av data i stedet for å bli programmert med eksplisitte regler. Moderne LLM-er er et eksempel på maskinlæring i svært stor skala.
-
Mixtral / MoEMixture of ExpertsTeknisk
En arkitektur der modellen inneholder mange spesialister (eksperter), men bare aktiverer noen få for hvert spørsmål. Gir høy total kapasitet til lav kostnad per forespørsel. Qwen3.6 35B-A3B bruker denne arkitekturen.
-
Modell
I KI-sammenheng: et matematisk system trent på data som kan gjøre forutsigelser eller generere innhold. En språkmodell er en modell trent spesifikt på tekst.
-
Multimodal
En modell som kan håndtere flere typer inndata, ikke bare tekst. Multimodale modeller kan forstå og generere kombinasjoner av tekst, bilde, lyd og video. Eksempel: GPT-4o, Gemini, Qwen3.6.
N
-
Nevrale nettverkNeural network
Et datasystem løst inspirert av hjernens nerveceller. Består av mange lag med matematiske funksjoner som lærer seg mønstre fra data. LLM-er er svært dype nevrale nettverk med milliarder av parametere.
-
NLPNatural Language Processing
Feltet innen KI som handler om at datamaskiner skal forstå, tolke og generere menneskelig språk. LLM-er er det dominerende verktøyet i NLP i dag.
O
-
Ollama
Et gratis verktøy som gjør det enkelt å kjøre åpne språkmodeller lokalt på din egen datamaskin. Populært blant utviklere og hobbykjørere. Se LLM på gaming-PC.
-
Open-weight modell
En modell der vektene (selve det modellen har lært) er offentlig tilgjengelige, slik at hvem som helst kan laste ned og kjøre den. Ikke det samme som åpen kildekode på treningskoden. Eksempel: Llama, Gemma, Qwen.
-
ObserverbarhetObservability
Evnen til å overvåke, logge og forstå hva et KI-system gjør i produksjon. Viktig for å oppdage feil, hallusinasjoner og kostnadsavvik.
-
OpenAI
Selskapet bak ChatGPT og GPT-modellene. Blant de mest innflytelsesrike KI-laboratoriene, og et av de første til å gjøre kraftige LLM-er tilgjengelige via API.
P
-
Parameter
De justerbare tallverdiene i et nevralt nettverk som modellen lærer under trening. Antallet parametere (f.eks. 7 milliarder = 7B) er et grovt mål på modellens størrelse og kapasitet.
-
Prompt
Teksten du sender til en språkmodell for å be om et svar. En god prompt er tydelig, spesifikk og gir modellen nødvendig kontekst. Kunsten å skrive gode prompter kalles prompt engineering.
-
Prompt cachingTeknikk
En teknikk der store, faste deler av prompten (som systeminstruksjoner) lagres mellom forespørsler. Reduserer kostnad og latens betraktelig i systemer med mange lignende forespørsler.
-
Prompt engineering
Kunsten og vitenskapen å formulere gode prompter for å få best mulig resultater fra en språkmodell. Inkluderer teknikker som chain-of-thought, few-shot og instruksjonsstyring.
-
Prompt injection
Et sikkerhetsangrep der ondsinnet tekst (for eksempel fra en nettside eller et dokument) lurer en KI-agent til å ignorere sine instruksjoner og gjøre noe annet.
R
-
RAGRetrieval-Augmented Generation
En teknikk der modellen søker opp relevant informasjon fra en database eller dokumentsamling før den svarer. Gir mer nøyaktige svar og reduserer hallusinasjoner. Svært populært i bedriftsapper.
-
Reasoning model
En modell som er spesialtrent til å bruke ekstra tid på å "tenke" gjennom komplekse problemer steg for steg. Gir bedre resultater på logikk og matte, men er tregere. Eksempel: o1, o3, DeepSeek-R1.
-
RLHFReinforcement Learning from Human FeedbackTeknisk
En treningsmetode der menneskelige vurderere rangerer modellens svar, og modellen lærer å produsere svar som mennesker liker. Brukes til å gjøre modeller mer hjelpfulle og trygge.
S
-
SikkerhetsjusteringAlignment / Safety tuning
Prosessen med å trene en modell til å oppføre seg trygt og i tråd med menneskelige verdier. Inkluderer å lære modellen å avvise farlige forespørsler og gi ærlige svar.
-
SystemmeldingSystem prompt
En skjult instruksjon sendt til modellen av applikasjonen, ikke brukeren. Brukes til å gi modellen en rolle, begrense hva den kan snakke om, eller sette tonen i en samtale.
-
SWE-bench
En benchmark som måler hvor godt en KI-modell kan løse ekte software-bugs fra GitHub. Regnes som en av de mest krevende og realistiske testene for kodingsevner.
T
-
TemperatureInnstilling
En innstilling som styrer hvor kreativt (tilfeldig) en modell svarer. Høy temperature (nær 1) gir varierte og kreative svar; lav temperature (nær 0) gir forutsigbare, konsekvente svar. Viktig å justere etter oppgavetypen.
-
Token
Den minste enheten tekst en språkmodell jobber med. Et token tilsvarer omtrent 3/4 av et ord på engelsk, og litt mer på norsk. "Hei verden" er 2–3 tokens. Prisen på API-kall måles i antall tokens.
-
TokeniseringTokenization
Prosessen med å dele opp tekst i tokens før den sendes til modellen. Norsk tekst bruker ofte flere tokens per ord enn engelsk, noe som kan gjøre norske forespørsler dyrere.
-
TransformerTeknisk
Den dominerende arkitekturen for store språkmodeller, introdusert av Google i 2017. Bruker "attention"-mekanismen til å forstå sammenhenger mellom ord, uavhengig av avstand i teksten. Nesten alle moderne LLM-er bruker transformer-arkitektur.
-
TreningTraining
Prosessen der en modell justerer sine parametere ved å se på enorme mengder data. Trening av frontier-modeller koster millioner av dollar og tar måneder med spesialdesignede datasentre.
V
-
VektorVector
En liste med tall som representerer noe i et matematisk rom. I KI brukes vektorer til å representere tekst, bilder og lyd slik at en modell kan sammenligne dem. Se også: Embedding.
-
VektordatabaseVector database
En database optimalisert for å lagre og søke i vektorer. Brukes i RAG-systemer for å finne de mest relevante dokumentene basert på semantisk likhet. Eksempler: Pinecone, Weaviate, pgvector.
Ø
-
ØktSession
En pågående samtale med en språkmodell. Innen en økt husker modellen (innenfor kontekstvinduet) hva som er sagt. Når økten avsluttes mister modellen minnet, med mindre man bruker ekstern lagring.
Å
-
Åpen kildekodeOpen source
Programvare der kildekoden er offentlig tilgjengelig og kan brukes, endres og distribueres fritt. Ikke alle "åpne" modeller er åpen kildekode — mange frigir bare vektene (open-weight), men ikke treningskoden.
-
Åpne modellerOpen models / Open-weight models
Modeller der vektene er tilgjengelige for nedlasting og lokal kjøring. Gir full kontroll over data og kost, men krever teknisk infrastruktur. Eksempler: Llama, Gemma, Qwen, Mistral, DeepSeek.