- AGI forkortelse
- Artificial General Intelligence – kunstig generell intelligens. En hypotetisk fremtidig form for KI som kan tenke, lære og løse oppgaver like bredt og fleksibelt som et menneske. I dag finnes ikke AGI. Dagens KI er god på avgrensede oppgaver, men forstår ikke verden slik vi gjør.
- AI forkortelse
- Forkortelse for Artificial Intelligence – det engelske ordet for kunstig intelligens. Brukes om dataprogrammer og systemer som kan utføre oppgaver som normalt krever menneskelig intelligens, som å forstå tekst, gjenkjenne bilder eller ta beslutninger. Se også: KI.
- AI-agent begrep
- Et KI-program som ikke bare svarer på spørsmål, men som selv tar initiativ, planlegger og utfører oppgaver i flere steg – gjerne ved å bruke verktøy, søke på nettet eller styre andre programmer. Tenk på det som en digital assistent som «gjør ting for deg», ikke bare «sier ting til deg».
- Algoritme begrep
- En oppskrift eller steg-for-steg-instruksjon som en datamaskin følger for å løse et problem. Alle KI-systemer er bygget på algoritmer. Akkurat som en kakeoppskrift forteller deg hva du skal gjøre i hvilken rekkefølge, forteller en algoritme datamaskinen det samme.
- Automasjon begrep
- Å la maskiner eller programvare utføre oppgaver som tidligere måtte gjøres av mennesker. KI gjør automasjonen smartere – i stedet for å følge faste regler kan systemet tilpasse seg ulike situasjoner.
- Benchmark begrep
- En standardisert test som brukes til å måle og sammenligne hvor god en KI-modell er. Resultater fra benchmarks brukes ofte i reklame: «modellen vår scorer best på X». Det er lurt å ta slike tall med en klype salt – en test trenger ikke si noe om hvordan modellen fungerer i praksis.
- Bias (skjevhet) begrep
- Systematiske feil eller fordommer i en KI-modell, som regel fordi treningsdataene inneholder skjevheter fra den virkelige verden. For eksempel kan en ansettelsesrobot som er trent på historiske data diskriminere kvinner fordi det historisk var flest menn i stillingen. Bias er ett av de store etiske utfordringene med KI.
- Bot / chatbot begrep
- Et dataprogram som automatisk svarer på meldinger i tekst- eller samtaleformat. Eldre bots fulgte faste manus. Moderne AI-chatboter som ChatGPT bruker store språkmodeller og kan føre naturlige samtaler om nesten hva som helst.
- ChatGPT produkt
- En chatbot laget av selskapet OpenAI, lansert i 2022. Den er basert på GPT-modellene og ble raskt den mest kjente KI-tjenesten i verden. Du skriver en melding, og ChatGPT svarer med naturlig tekst. Tilgjengelig gratis og i betalte versjoner på chat.openai.com.
- Claude produkt
- En KI-assistent laget av selskapet Anthropic. Claude er kjent for lange, gjennomtenkte svar og sterk fokus på sikkerhet og etikk. Konkurrerer med ChatGPT og Gemini. Tilgjengelig via claude.ai.
- Copilot produkt
- Microsofts KI-assistent, bygget inn i Windows, Office (Word, Excel, Outlook) og nettleseren Edge. «Copilot» betyr medhjelper eller andrepilot – tanken er at KI er en hjelper som jobber ved siden av deg, ikke i stedet for deg.
- Kontekstvindu begrep
- Hvor mye tekst en KI-modell kan «huske» og forholde seg til på én gang. Tenk på det som arbeidsminnet til modellen. Et stort kontekstvindu betyr at modellen kan lese lange dokumenter eller lange samtaler uten å glemme hva som ble sagt tidlig i samtalen. Måles i tokens.
- Datasett begrep
- En samling data som brukes til å trene eller teste en KI-modell. Store språkmodeller er trent på enormt mange tekster fra internett, bøker og andre kilder. Kvaliteten på datasettet har stor innvirkning på hvor god modellen blir.
- Deep learning (dyp læring) begrep
- En type maskinlæring som bruker kunstige nevrale nettverk med mange lag. «Dyp» viser til de mange lagene i nettverket. Deep learning er teknologien bak de fleste moderne KI-gjennombrudd: bildegjenkjenning, taleforståelse og store språkmodeller. Se også: nevralt nettverk.
- Diffusjonsmodell begrep
- En type KI-modell som brukes til å generere bilder, lyd eller video. Den lærer seg å ta «støy» (tilfeldige piksler) og gradvis forme det til et meningsfylt bilde – litt som å rydde opp i kaos. DALL·E, Midjourney og Stable Diffusion er eksempler på tjenester som bruker diffusjonsmodeller.
- Embedding teknisk
- En måte å representere ord, setninger eller data som tall (vektorer) slik at maskiner kan forstå meningen og sammenhengen mellom dem. Ord med lignende betydning får tall som ligger nær hverandre. Embeddings er fundamentet for mye av det KI gjør med språk.
- KI-etikk begrep
- Spørsmål om hva som er riktig og galt i utvikling og bruk av kunstig intelligens. Viktige tema: personvern, diskriminering (bias), åpenhet om hvem som har laget KI-en, ansvar når noe går galt, og risikoen for at KI brukes til skadelige formål.
- Finjustering (fine-tuning) begrep
- Å ta en ferdig trent KI-modell og trene den videre på et spesifikt datasett, slik at den blir ekspert på et avgrenset område. En generell språkmodell kan finjusteres til å bli god på medisinsk språk, juridiske dokumenter eller kundestøtte.
- Grunnmodell (foundation model) begrep
- En stor KI-modell trent på enorme mengder data, som kan brukes som utgangspunkt for mange ulike oppgaver. GPT-4, Claude og Gemini er eksempler. Grunnmodeller kan spesialiseres videre via finjustering, eller brukes direkte via prompts.
- Funksjonskall (function calling) teknisk
- En funksjon som lar en KI-modell be et eksternt program om å gjøre noe – for eksempel slå opp vær, hente priser fra en nettbutikk eller kjøre en beregning. Modellen produserer da ikke svaret selv, men «ringer» en tjeneste og presenterer resultatet. Viktig del av AI-agenter.
- Gemini produkt
- Googles KI-modell og assistent, tilgjengelig via gemini.google.com og innebygd i mange Google-tjenester. Konkurrerer direkte med ChatGPT og Claude. Gemini er multimodal – den kan forstå og generere både tekst, bilder og kode.
- Generativ KI begrep
- KI som kan skape nytt innhold – tekst, bilder, musikk, video, kode – i stedet for bare å analysere eller klassifisere eksisterende innhold. ChatGPT og Midjourney er eksempler. «Generativ» betyr rett og slett «som lager noe nytt».
- GPT forkortelse
- Generative Pre-trained Transformer – familienavnet på OpenAIs språkmodeller (GPT-3, GPT-4 osv.). «Generativ» betyr at den skaper tekst. «Pre-trained» betyr forhåndstrent på store datamengder. «Transformer» er den tekniske arkitekturen. GPT-4 er motoren bak ChatGPT.
- GPU teknisk
- Graphics Processing Unit – et prosessorkort opprinnelig laget for å rendre grafikk i spill. GPU-er er svært gode til parallelle beregninger, og er i dag det viktigste «maskineriet» for å trene og kjøre KI-modeller. Produsenten Nvidia er blitt enormt verdifullt på grunn av dette.
- Hallusinasjon begrep
- Når en KI-modell «finner på» noe som ikke stemmer – fremstiller det som fakta, men det er feil. Modellen kan for eksempel oppgi en ikke-eksisterende kildehenvisning eller en feil dato med stor selvsikkerhet. Hallusinasjoner skjer fordi modellen genererer sannsynlige svar, ikke fordi den «vet» noe.
- Hyperparameter teknisk
- Innstillinger som bestemmer hvordan en KI-modell trenes – for eksempel hvor raskt den lærer, eller hvor stor den er. Til forskjell fra vanlige parametre (som justeres automatisk under trening) settes hyperparametre manuelt av utviklerne før trening starter.
- Inferens teknisk
- Det som skjer når en ferdig trent KI-modell brukes i praksis – for eksempel når ChatGPT genererer et svar på spørsmålet ditt. Trening er «læringa», inferens er «bruken». Inferens krever langt mindre dataressurser enn trening.
- Instruct-modell teknisk
- En versjon av en språkmodell som er spesielt trent til å følge instruksjoner og oppføre seg hjelpsomت i dialog. En «base»-modell bare fortsetter tekst; en instruct-modell forstår at du vil ha hjelp og svarer deretter. Nesten alle chatboter bruker instruct-modeller.
- KI forkortelse
- Forkortelse for kunstig intelligens – det norske ordet for AI (Artificial Intelligence). Samlebetegnelse på datateknologi som etterligner menneskelig intelligens: forstå språk, gjenkjenne bilder, spille spill, ta beslutninger og mye mer. KI og AI brukes om hverandre på norsk.
- Kvantisering teknisk
- En teknikk for å gjøre KI-modeller mindre og raskere ved å redusere presisjonen på tallene de er bygget opp av. En kvantisert modell tar mindre plass og krever mindre regnekraft – nyttig for å kjøre modeller på vanlige datamaskiner eller mobiltelefoner i stedet for kraftige servere.
- LLM forkortelse
- Large Language Model – stor språkmodell på norsk. En type KI trent på enorme tekstmengder for å forstå og generere menneskelig språk. ChatGPT, Claude og Gemini er alle LLM-er. «Large» viser til at de har milliarder av parametre og er trent på enorme datamengder.
- Lokal KI begrep
- KI-modeller som kjøres direkte på din egen datamaskin, uten å sende data til en ekstern server. Populære verktøy som Ollama gjør dette mulig. Fordeler: personvern, ingen internettforbindelse nødvendig og ingen kostnader per forespørsel. Ulempen er at du trenger en relativt kraftig maskin.
- Maskinlæring begrep
- En underkategori av KI der datamaskinen lærer fra data i stedet for å følge eksplisitte regler programmert av mennesker. Systemet finner mønstre på egenhånd. Jo mer data, jo bedre blir det som regel. Deep learning er en avansert form for maskinlæring.
- MCP teknisk
- Model Context Protocol – en åpen standard som lar KI-modeller koble seg til eksterne verktøy og datakilder på en enhetlig måte. Tenk på det som en universell støpsel: med MCP kan en KI-assistent snakke med kalender, e-post, databaser og andre tjenester uten at alt må kodes på nytt for hvert system.
- Multimodal begrep
- En KI-modell som kan håndtere flere typer innhold – for eksempel både tekst, bilder, lyd og video. Tidlige KI-modeller forstod bare tekst. Moderne modeller som GPT-4o og Gemini er multimodale: du kan laste opp et bilde og spørre om det, eller gi modellen en lydfil.
- Nevralt nettverk begrep
- En beregningsstruktur inspirert løst av hjernens nerveceller (nevroner). Består av mange «noder» organisert i lag som sender signaler til hverandre. Under trening justeres forbindelsene mellom nodene slik at nettverket gradvis blir bedre til å løse oppgaven. Grunnlaget for all modern KI.
- NLP forkortelse
- Natural Language Processing – naturlig språkbehandling. Fagfeltet innen KI som handler om å få datamaskiner til å forstå, tolke og generere menneskelig språk. Alt fra stavesjekk og maskinoversettelse til ChatGPT faller inn under NLP.
- Åpen kildekode (open source) begrep
- Programvare eller modeller der koden er fritt tilgjengelig for alle å lese, bruke og videreutvikle. LLaMA fra Meta og Mistral er eksempler på åpne språkmodeller. Åpen kildekode gir mer innsyn og mulighet for tilpasning, men betyr ikke nødvendigvis at modellen er tryggere eller bedre.
- Overtilpasning (overfitting) teknisk
- Når en KI-modell «pugger» treningsdataene for godt og mister evnen til å generalisere til nye, ukjente data. Som en student som memorerer eksakt hvad læreboka sier, men ikke klarer å bruke kunnskapen i nye situasjoner. Overtilpasning er et klassisk problem i maskinlæring.
- Parameter teknisk
- De justerbare tallverdiene inne i en KI-modell – milliarder av dem. Under trening justeres parametrene kontinuerlig til modellen blir god. Antall parametre brukes som et mål på størrelsen til en modell: GPT-3 har 175 milliarder parametre. Flere parametre gir som regel en mer kapabel modell, men krever mer regnekraft.
- Personvern og KI begrep
- Et sentralt tema når KI brukes: hvem ser dataene du sender inn? Kan meldingene dine brukes til å trene modellen videre? Mange KI-tjenester lagrer samtaler. I Norge og EU reguleres dette av GDPR. Sensitiv informasjon bør aldri sendes til en ekstern KI-tjeneste uten å sjekke vilkårene.
- Prompt begrep
- Instruksjonen eller spørsmålet du skriver til en KI-modell. En god prompt gir bedre svar. «Forklar kvantedatamaskiner» er én prompt. «Forklar kvantedatamaskiner som om jeg er 10 år» er en bedre prompt. Kunsten å formulere gode prompter kalles prompt engineering.
- Prompt engineering begrep
- Kunsten og vitenskapen å formulere instruksjoner til KI-modeller slik at du får best mulig svar. Inkluderer teknikker som å gi eksempler, be modellen tenke steg for steg, eller definere en rolle den skal spille. Har blitt et eget fagfelt og jobbtittel.
- RAG forkortelse
- Retrieval-Augmented Generation – en teknikk der KI-modellen henter inn relevant informasjon fra en ekstern kilde (for eksempel din bedrifts dokumenter) før den svarer. Dette gjør at modellen kan svare på spørsmål om informasjon den ikke er trent på, og reduserer hallusinasjoner.
- RLHF forkortelse
- Reinforcement Learning from Human Feedback – forsterkningslæring med menneskelig tilbakemelding. En treningsmetode der mennesker vurderer hvilke KI-svar som er best, og modellen læres opp til å produsere slike svar. Nøkkelteknikken bak at ChatGPT og lignende modeller oppfører seg hjelpsomt i samtale.
- Sikker KI (AI safety) begrep
- Forskningsfeltet som handler om å utvikle KI-systemer som oppfører seg trygt, forutsigbart og i tråd med menneskelige verdier. Spørsmål inkluderer: Hvordan hindrer vi at en kraftig KI gjør noe vi ikke vil? Hvem er ansvarlig når KI tar feil beslutning? Sikker KI er ett av de raskest voksende forskningsfeltene.
- Språkmodell begrep
- Et KI-system trent til å forstå og generere menneskelig tekst. Store språkmodeller (LLM) er trent på enorme mengder tekst fra internett, bøker og andre kilder. Språkmodeller kan svare på spørsmål, skrive tekst, oversette, oppsummere og mye mer. Se også: LLM.
- Veiledet læring (supervised learning) teknisk
- En type maskinlæring der modellen trenes på data med riktige svar (etiketter). Som en elev som øver med fasit. Eksempel: du viser modellen tusenvis av bilder av katter og hunder, merket med hva de er – modellen lærer å skille dem. Veiledet læring er den vanligste formen for maskinlæring.
- Syntese / generering begrep
- Når KI lager nytt innhold: tekst, bilder, musikk, video, kode eller stemmer. Synthese-KI kalles ofte generativ KI. Eksempler: ChatGPT skriver tekst, Suno lager musikk, ElevenLabs kloner stemmer og DALL·E genererer bilder fra tekstbeskrivelser.
- Temperatur teknisk
- En innstilling som styrer hvor kreativ eller forutsigbar en KI-modell er. Lav temperatur (nær 0) gir nøkterne, repetitive svar – godt for fakta og kode. Høy temperatur (nær 1 eller over) gir mer variasjon og kreativitet, men øker sjansen for feil. Du kan justere dette i mange KI-verktøy.
- Token teknisk
- Den minste tekstenheten en språkmodell jobber med. Et token er omtrent et ord, men kan også være del av et ord eller tegnsetting. «Hund» er ett token. «Hundehvalp» kan være to. Modeller har en grense for hvor mange tokens de kan håndtere på én gang (kontekstvinduet). Du betaler gjerne per token hos KI-tjenester.
- Transformer teknisk
- Arkitekturen som nesten alle moderne store språkmodeller er bygget på. Introdusert av Google i 2017 i artikkelen «Attention Is All You Need». Transformeren bruker en mekanisme kalt «attention» som lar modellen vekte hvilke deler av teksten som er viktigst. «T»-en i GPT og BERT betyr transformer.
- Trening begrep
- Prosessen der en KI-modell lærer fra data. Under trening ser modellen på enorme mengder eksempler og justerer sine interne parametre for å bli bedre. Å trene en stor språkmodell fra bunnen tar uker, krever tusenvis av GPU-er og koster hundrevis av millioner kroner. Ferdigtrenede modeller kan du bruke umiddelbart.
- TTS / stemme-KI forkortelse
- Text-to-Speech – teknologi som gjør skrevet tekst om til lyd og tale. Moderne TTS-systemer (som ElevenLabs) kan klone stemmer og lage svært naturtro tale. Brukes i lydbøker, podkaster, tilgjengelighetsverktøy og virtuelle assistenter.
- Ikke-veiledet læring (unsupervised learning) teknisk
- Maskinlæring der modellen finner mønstre i data uten at noen har merket dataene med riktige svar. Modellen oppdager selv grupperinger og strukturer. Nyttig for å analysere store mengder data der det er umulig å merke alt manuelt.
- Vektordatabase teknisk
- En spesialisert database som lagrer embeddings (tallrepresentasjoner av tekst) og er god til å finne frem til innhold som ligner på det du søker etter, basert på mening heller enn eksakte ord. Brukes mye i RAG-systemer der KI skal svare på spørsmål basert på dine egne dokumenter.
- Vision-modell begrep
- En KI-modell som kan «se» og forstå bilder. Kan beskrive hva som er på et bilde, lese tekst i bilder (OCR), gjenkjenne ansikter, eller oppdage gjenstander. En del av det bredere feltet multimodale modeller.
- Zero-shot og few-shot begrep
- Beskriver hvor mange eksempler du gir en KI-modell i prompten din. Zero-shot: du spør uten å gi noe eksempel – modellen løser oppgaven kun basert på instruksjonen. Few-shot: du gir 2–5 eksempler slik at modellen forstår mønsteret du vil ha. Few-shot gir ofte bedre resultater for spesifikke oppgaver.