1. Hvordan fungerer et nevralt nettverk / en LLM?
En stor språkmodell slår ikke opp informasjon på internett når
du stiller den et spørsmål. I stedet bruker den sine tillærte
vekter — millioner eller milliarder av tall — til å beregne
hvilket ord som er mest sannsynlig å komme som det neste i
teksten.
- Modellen er i praksis en avansert statistisk
"gjettemaskin."
- Det er mer som autokorrektur på steroider enn et
digitalt leksikon med fakta.
- For faktabaserte oppgaver trenger du ofte
hybridløsninger: LLM pluss databaser og eksterne
verktøy.
2. Subsymbolsk representasjon og tolkbarhet
Kunnskap i nettverket er kodet som tall i lag av noder. En liten
endring i disse tallene kan skape en stor endring i atferd, men
vi kan sjelden peke på en enkelt vekt og si "den representerer
dette konseptet."
- Representasjonen er subsymbolsk—ikke direkte
lesbar som regler eller konsepter.
- Dette er grunnen til at feltet Forklarbar KI (XAI) er så viktig.
- Tillit, feilsøking og regulering krever bedre
forklarbarhet.
3. Trening, skala og testing
Moderne modeller er enorme i både antall parametere og data-
volum. Ingen mennesker har oversikt over alt de lærer i løpet av
treningen.
- Mesteparten av kvalitetskontrollen skjer i etterkant
gjennom omfattende testing.
- Uønsket atferd og skjevheter kan ofte først oppdages når
modellene tas i bruk i praksis.
4. Svar, sannsynlighet og kildekritikk
Nettverket returnerer alltid et svar for gitt inndata. Det betyr
ikke at svaret er korrekt, bare at modellen fant det mest
sannsynlige neste ordet.
- Modellen indikerer normalt sett ikke hvor usikker den
er.
- Språket høres ofte selvsikkert ut selv når innholdet er
feil (såkalte "hallusinasjoner").
- Brukere må derfor være kritiske, sjekke kilder og
sammenligne med annen pålitelig informasjon.
5. Skjulte mønstre og skjevheter (bias)
Under treningen lærer nettverket mønstre i dataene som mennesker
ikke alltid gjenkjenner. Det inkluderer systematiske skjevheter.
- Hvis treningsdataene inneholder skjevheter, kan modellen
forsterke dem.
- Konsekvensen kan være urettferdig behandling av emner
eller grupper.
- Aktiv testing, justering og overvåking er nødvendig ved
praktisk bruk.
6. Flere perspektiver rundt arbeidet med KI
- Generalisering vs. memorering: Modellen
både generaliserer fra mange eksempler og kan noen ganger
reprodusere fragmenter av treningsdata.
- Kontekst og prompt-design: En begrenset
kontekst og følsomhet overfor ordvalg betyr at gode resultater
krever bevisst utforming av spørsmålene.
- Ingen iboende forståelse: Modellen har ingen
mål eller intensjoner — den simulerer språkbruk, ikke menneskelig
forståelse.
- Determinisme vs. tilfeldighet: Parametere
som temperatur styrer hvor kreative eller stabile svarene
blir.
- Hybride systemer: I praksis blir ofte LLM-er
brukt som grensesnitt for andre verktøy og databaser, ikke
som frittstående "intelligens."
- Sikkerhet og etikk: Spørsmål om feilinformasjon,
skadelig innhold, og rettferdighet må alltid vurderes av
menneskene rundt systemet.