| Innhold: | Artikkelen analyserer hvordan rettskilder er representert i treningsdataene til norske språkmodeller. Undersøkelsen viser at selv om enkelte rettskilder, som forarbeider og stortingsproposisjoner, er godt representert, mangler modeller systematisk dekning av sentrale rettskilder som domstolsavgjørelser, nyere lover og forskrifter samt internasjonal rettspraksis. Analysen avdekker også betydelige svakheter i tekstgjengivelsen, særlig knyttet til filtrering av titler, overskrifter og paragrafnummerering, noe som fører til tap av viktig juridisk kontekst. Artikkelen konkluderer med anbefalinger om hvordan et mer fullstendig og korrekt treningsgrunnlag kan etableres, og understreker betydningen av åpne og kvalitetssikrede data for utviklingen av språkmodeller i juridisk sammenheng.
Nøkkelord: KI, språkmodeller, språkteknologi, tekstkorpus, treningsdata |