Hvad er et AI-system i juridisk forstand – og hvorfor betyder det noget?

Hvis din organisation bruger “AI” i et produkt, en intern proces eller en myndighedsopgave, er det ikke teknologien i sig selv, der først rammer jer – det er definitionen af den.

Regulatorisk forståelse af AI-systemer er nemlig det, der afgør, om I falder ind under krav om risikovurdering, dokumentation, tilsyn, auditspor og i sidste ende sanktioner. I denne artikel får du en praktisk gennemgang af, hvordan AI defineres i regulering, hvorfor det betyder noget i hverdagen, og hvordan virksomheder og myndigheder kan arbejde systematisk med afgrænsning, compliance og ansvar.

Du får også konkrete eksempler på gråzoner (som regelmotorer, scoringmodeller og generative chatbots), typiske fejl jeg ser i praksis, samt en enkel metode til at klassificere systemer og forberede jer på krav – uden at overimplementere kontrol eller “compliance-teater”.

Hvad betyder “AI-system” i regulatorisk sammenhæng?

En kort, brugbar definition tidligt: Et AI-system forstås i regulering typisk som software, der udleder output (fx forudsigelser, anbefalinger, beslutninger eller genereret indhold) på baggrund af input, og som kan påvirke mennesker, processer eller systemer. Pointen er ikke kun “maskinlæring”, men også systemets rolle: at skabe et resultat, som andre handler på.

Det lyder simpelt, men har stor betydning, fordi definitionen ofte udløser krav til dokumentation, sikkerhed, transparens og styring. En virksomhed kan fx tro, at den “bare bruger statistik”, mens myndigheder kan vurdere, at løsningen er AI og derfor kræver en anden governance-ramme.

Mini-konklusion: I regulering handler AI ikke kun om algoritmen, men om systemets funktion og påvirkning – og det er det, der bestemmer jeres pligter.

Hvorfor definitionen har så stor betydning for virksomheder og myndigheder

Definitionen er adgangsbilletten til hele det regulatoriske maskinrum: risikokategorier, krav til kvalitet, tilsyn og ansvar. To organisationer kan have næsten samme teknologi, men forskellig reguleringsmæssig status, hvis den ene bruger systemet til at træffe beslutninger om mennesker, og den anden kun til intern produktivitetsstøtte.

Virksomheder: fra produktdesign til ansvarskæde

For virksomheder påvirker AI-definitionen især:

  • Time-to-market: Krav til test, dokumentation og kontrol kan forlænge releases.
  • Kontrakter: Leverandør- og kundekrav til logs, performance, datasæt, incident-håndtering.
  • Produktansvar: Hvem hæfter, hvis et output fører til tab eller diskrimination?
  • Omkostninger: Compliance kræver tid, kompetencer, værktøjer og ofte eksterne audits.

Myndigheder: retssikkerhed, ligebehandling og begrundelsespligt

Myndigheder har et særligt fokus på retssikkerhed: kan borgeren forstå afgørelsen, klage, og få indsigt i grundlaget? Når en model producerer en “score” eller en anbefaling, kan den i praksis blive styrende, selv hvis en medarbejder formelt træffer beslutningen.

Mini-konklusion: Definitionen afgør ikke bare “om det er AI”, men om jeres proces skal kunne forklares, dokumenteres og kontrolleres på en helt anden måde.

De typiske byggesten i en regulatorisk AI-definition

I regulering går definitionen ofte igen i variationer, men den kredser typisk om fire elementer: (1) softwarebaseret system, (2) en metode/teknik til at udlede output, (3) input-output relation (data ind, resultat ud), og (4) potentiel påvirkning af omgivelserne.

“Udleder output” er nøgleordet

Det afgørende er ikke, om løsningen bruger neurale netværk eller en mere klassisk model. Hvis systemet udleder noget, som nogen handler på (fx “høj risiko”, “afvis”, “prioritér”, “godkend”), bliver det relevant. I praksis ser jeg mange undervurdere denne del, fordi outputtet “kun” er en anbefaling. Men anbefalinger kan være lige så styrende som automatiske beslutninger.

Metoder: ikke kun maskinlæring

Regulatoriske tekster kan omfatte både maskinlæring, logik- og vidensbaserede tilgange samt statistiske metoder. Det betyder, at simple klassifikatorer, scoring og optimeringsmodeller kan rammes, selv hvis udviklingsteamet ikke kalder det AI.

Praktisk tommelfingerregel: Hvis I har en model, der er trænet/tilpasset på data og derefter bruges til at forudsige, rangere, generere eller anbefale, så bør I som minimum behandle den som “AI i regulatorisk forstand”, indtil afgrænsningen er dokumenteret.

Mini-konklusion: Det regulatoriske AI-begreb er bredere end mange tekniske teams’ mavefornemmelse – især fordi “anbefaling” ofte sidestilles med påvirkning.

Gråzoner i praksis: er det AI eller “bare” software?

Her opstår de fleste fejl: man antager, at noget ikke er AI, fordi det er simpelt, deterministisk eller “kun” baseret på regler. Men regulatorisk vurdering går ofte på, om systemet udleder output på basis af input, og hvordan det bruges.

Regelbaserede systemer og beslutningstræer

Et rent regelbaseret system (IF/THEN) kan i nogle sammenhænge være uden for snævre AI-definitioner, men mange moderne “regelsystemer” er i praksis hybride: regler kombineret med scoring, fuzzy logik eller datadrevne thresholds. Så snart reglerne er afledt af data, eller systemet optimerer adfærd over tid, bliver afgrænsningen sværere.

Scoringmodeller og risikoprofiler

Kredit- og svindelscoring er klassiske eksempler. Selv en logistisk regression kan have stor samfundsmæssig påvirkning, hvis den afgør, hvem der får en ydelse, en konto, en forsikring eller en manuel kontrol. Det er ikke “høj-teknologisk AI”, men det er ofte højrisiko i effekt.

Mini-konklusion: Gråzoner handler sjældent om algoritmens kompleksitet og oftere om brugsscenariet og konsekvensen for mennesker.

AI Act og risikobaseret tilgang: hvorfor klassifikation er det første skridt

EU’s tilgang læner sig op ad et risikobaseret princip: jo større potentiel skade, desto strengere krav. Det betyder, at definitionen af AI-system er tæt koblet til, om løsningen skal klassificeres som fx højrisiko, og hvilke kontroller der forventes.

Hvis du vil dykke ned i selve regelsættet og begreberne, kan du læse mere om AI Act EU lovgivning i en samlet gennemgang, som er nyttig at have ved hånden, når I skal oversætte jura til praksis.

Hvad betyder det konkret for jer?

I praksis betyder det, at I bør kunne svare på:

  1. Hvad er systemets formål, og hvem påvirkes?
  2. Hvilke inputdata bruges, og hvor kommer de fra?
  3. Hvilket output produceres, og hvordan bruges det i beslutninger?
  4. Hvilke fejltyper er realistiske (bias, hallucinationer, datadrift)?
  5. Hvem har ansvar for overvågning og ændringer (change management)?

Mini-konklusion: Klassifikation er ikke et juridisk “stempel” til sidst i projektet – det er et designparameter, der bør ligge tidligt i kravspecifikationen.

Hvordan I dokumenterer og afgrænser et AI-system (uden at drukne i papir)

Den mest effektive tilgang, jeg har set, er at arbejde med et “afgrænsningsnotat” på 2–5 sider, som kan udbygges senere. Det handler om at skabe et spor af begrundelser, som både tekniske og juridiske roller kan stå på mål for.

Et praktisk afgrænsningsnotat bør indeholde

  • Systembeskrivelse: komponenter, dataflow, integrationer.
  • Formål og kontekst: hvem bruger output, og til hvad?
  • Model-/metodevalg: ML, statistisk model, regelsæt, generativ model.
  • Output og beslutningsrolle: støtte, anbefaling eller automatisk handling.
  • Risikobillede: hvilke skader kan opstå, og hvilke grupper kan rammes?
  • Kontroller: test, monitorering, menneskelig kontrol, fallback-procedurer.

Et simpelt “impact check” der fanger 80% af problemerne

Stil jer selv tre spørgsmål: (1) Kan output påvirke en persons rettigheder eller adgang til ydelser? (2) Kan output være svært at forklare eller efterprøve? (3) Kan data være skæve, forældede eller ufuldstændige? Hvis I svarer ja til bare ét, bør I hæve ambitionsniveauet for dokumentation og kontrol.

Mini-konklusion: God dokumentation er først og fremmest et værktøj til at træffe bedre beslutninger – ikke en administrativ byrde.

Hvad koster compliance, og hvad driver omkostningerne?

“Hvad koster det?” er et af de mest almindelige spørgsmål, og det ærlige svar er: det afhænger af risikoklasse, modenhed og hvor integreret systemet er i kerneprocesser. Men der er nogle typiske omkostningsdrivere, du kan planlægge efter.

For en mindre løsning (fx intern assistent eller afgrænset model til support) kan omkostningen primært ligge i tid: 2–6 ugers arbejde fordelt på produkt, jura, sikkerhed og data. For højrisiko-lignende anvendelser (fx screening, scoring, rekruttering, kritisk infrastruktur) bliver det ofte et løbende program med driftsovervågning, periodiske reviews, datakvalitetsarbejde og eventuelle tredjepartsassessments.

De største “skjulte” poster er typisk:

  • Opbygning af logning, sporbarhed og auditspor.
  • Data governance: rettigheder, datakilder, datakvalitet og versionering.
  • Monitorering for performance-drift og bias over tid.
  • Uddannelse af brugere, så menneskelig kontrol fungerer i praksis.

Mini-konklusion: Compliance bliver dyrt, når det kommer sent; kommer det tidligt ind i design og drift, bliver det ofte til almindelig kvalitetsstyring.

Typiske faldgruber (og hvordan I undgår dem)

Her er de fejl, jeg oftest ser, når organisationer prøver at forstå AI regulatorisk – og de konkrete greb, der virker.

Faldgrube 1: “Det er bare et værktøj”

Mange undervurderer, at et anbefalingsoutput i praksis kan blive en beslutning. Undgå det ved at definere, hvornår en medarbejder må afvige fra anbefalingen, og kræv en kort begrundelse ved afvigelser og ved blind accept. Det skaber læring og afslører, om systemet reelt styrer.

Faldgrube 2: Manglende versionering og ændringsstyring

Hvis en model opdateres løbende, men I ikke kan dokumentere hvornår, hvorfor og med hvilket datasæt, mister I sporbarhed. Indfør en letvægts change log: modelversion, data snapshot, testresultater og godkendelse. Det kan være så simpelt som et kontrolleret repository og en fast release-proces.

Faldgrube 3: Uklare leverandørgrænser

Ved køb af AI som service tror mange, at leverandøren “tager ansvaret”. I praksis har I stadig ansvar for brugskontekst, instruktioner, adgangsstyring og kontrol af output. Få derfor skrevet ind i kontrakter: adgang til relevant dokumentation, incident-notifikation, mulighed for audit og klare SLA’er på sikkerhed og drift.

Bemærk: Selv gode leverandører kan have begrænsninger på transparens i proprietære modeller, så planlæg for alternative kontroller (fx output-test, red teaming og løbende monitorering).

Mini-konklusion: De fleste problemer opstår i drift og governance – ikke i den første modeltræning.

Bedste praksis: sådan kommer I fra definition til handling

Det vigtigste er at gøre AI-regulering operationel: omsæt definitionen til en proces, der kan gentages på tværs af projekter. En robust praksis behøver ikke være tung – men den skal være konsekvent.

  1. Lav en AI-inventarliste: hvilke systemer, hvor bruges de, og hvilke data indgår?
  2. Screen for påvirkning: menneskerettigheder, adgang til ydelser, sikkerhed, økonomi.
  3. Klassificér og dokumentér: afgrænsningsnotat + risikovurdering på et passende niveau.
  4. Byg kontroller ind: test før release, monitorering efter release, klare fallback-procedurer.
  5. Træn brugerne: hvad må systemet bruges til, og hvornår skal man stoppe og eskalere?
  6. Planlæg audit og tilsyn: hvem kan fremvise hvad, på hvilket tidspunkt?

En god indikator på modenhed er, om I kan forklare systemet på to niveauer: et ledelsesniveau (formål, risiko, ansvar) og et teknisk niveau (data, model, test, drift). Hvis I mangler det ene, opstår der enten juridiske huller eller praktiske huller.

Mini-konklusion: Når definitionen oversættes til inventar, screening, dokumentation og drift, bliver regulering en del af normal kvalitetsledelse – ikke et panikprojekt.