av Linnea Sitell*
Inledande ord
Den ökade användningen av artificiell intelligens inom sjukvården väcker flera rättsliga frågor. En av dessa är hur patientskadeersättning ska hanteras vid patientskador orsakade av AI-baserade medicintekniska produkter (MTP), exempelvis när dessa används för att analysera mammografibilder. Även om AI-tekniken visat på god förmåga att identifiera tecken på bröstcancer är det oundvikligt att fel någon gång uppstår.[1] När så sker, och en patient får en felaktig diagnos, behöver rätten veta hur skadan ska hanteras.
Förordningen om medicintekniska produkter och AI-förordningen
AI-baserade MTP omfattas av förordningen om medicintekniska produkter (MDR), som ställer höga krav på bland annat säkerhet, prestanda och riskhantering. MDR är dock utformad med mer ”klassisk” medicinteknik i åtanke och är inte specifikt anpassad efter AI-baserade produkters särdrag och de risker som användningen av AI medför.[2]
AI-system kännetecknas av en låg grad av transparens, ofta benämnt som ”svarta-lådan-problemet”.[3] Detta gör att det i praktiken kan vara omöjligt att förstå hur en viss in-data (exempelvis en mammografibild) resulterar i ett visst resultat eller utdata (exempelvis en diagnos).[4]
Med AI-förordningen tillkommer regler som tar sikte på de risker som AI-teknik medför. Bland de mest centrala krav som tillkommer på AI-baserade medicintekniska produkter i den högsta riskklassen finns exempelvis krav på transparens och krav på loggning. Krav på loggar, dokumentation och transparens är centrala för att kunna utvärdera systemets funktion och identifiera eventuella fel.
Patientskadeersättning vid skador orsakade av en AI-baserad medicinteknisk produkt
När en patientskada orsakas av en medicinteknisk produkt kan ersättning ges via vårdgivarens obligatoriska patientskadeförsäkring i enlighet med patientskadelagen (PskL).
I ett scenario där en AI-baserad medicinteknisk produkt används för att analysera mammografibilder efter misstänkta tecken på bröstcancer och ger ett felaktigt negativt resultat är det framför allt två skadetyper i patientskadelagen som aktualiseras:
- Diagnosskada 6 § 3 p. En diagnosskada föreligger när en felaktig diagnos ställs, trots att de tecken på bröstcancer som fanns vid diagnostillfället borde ha upptäckts av en erfaren specialist. Därtill krävs att den felaktiga diagnosen medfört skada för patienten.
- Skada orsakad av medicinteknisk produkt (materialskada) 6 § 2 p. En materialskada föreligger om en säkerhetsbrist hos en medicinteknisk, exempelvis AI-baserad, produkt orsakat en skada hos en patient.[5]
Om den AI-baserade medicintekniska produkten klassas som en ”produkt” enligt produktansvarslagen (PAL) kan tillverkaren bli ansvarig, detta under förutsättning att en säkerhetsbrist kan påvisas.
Ett problem för skadade patienter är dock att både PskL och PAL är utformade för produkter och situationer som är betydligt mer transparenta än dagens AI-verktyg.[6] Detta innebär att patienter kan möta svårigheter att bevisa förekomsten av ett orsakssamband mellan en uppkommen skada och den AI-baserade medicintekniska produkten. Ytterst blir konsekvensen för patienterna att möjligheterna till ersättning blir mindre.
Utmaningar vid tillämpningen av patientskadelagen på skador orsakade av AI-baserade MTP
Somkonstateras ovan kommer med AI-förordningen regler som syftar till att förebygga uppkomsten av skador orsakade av AI-baserade MTP. Samtidigt finns regler i patientskadelagen som anger hur ett ersättningsanspråk ska hanteras när en skada väl inträffat. Att PskL inte är anpassad efter medicintekniska produkter med en mycket låg grad av transparens (så som exempelvis AI-baserade sådana) innebär en utmaning för en skadelidande patient, vilka kommer att redogöras för i det följande.
Det centrala problemet för patienten är bevisbördan. För att kunna få ersättning för en diagnosskada enligt PskL måste patienten bevisa att, exempelvis tecken på bröstcancer, vid tidpunkten för undersökningen var upptäckbara för en erfaren specialist. För att ersättning för en materialskada ska bli aktuell krävs att det funnits ett fel i AI-verktyget och att detta fel orsakat skadan (exempelvis en missad diagnos).[7]
Här blir ”svarta-lådan-problemet” särskilt tydligt. AI-system, särskilt de som bygger på djupinlärning och neurala nätverk, kan ge såväl korrekta som felaktiga svar utan att det är möjligt att efteråt kontrollera vilka överväganden som resulterat i den aktuella bedömningen. För patienten, som enligt patientskadelagen har bevisbördan, innebär detta mycket stora svårigheter att bevisa att systemet faktiskt gjort ett fel, och ännu svårare att bevisa att det finns ett orsakssamband mellan felet och exempelvis en missad diagnos.[8] Resultatet blir att möjligheten till ersättning i praktiken är mycket begränsad.
Svarta-lådan-problematiken medför även utmaningar specifikt relaterade till Pskl 6 § 3 p. Diagnossakada. Eftersom AI-produkten kontinuerligt lär sig och utvecklas samtidigt som den har en låg grad av transparens får det antas vara mycket svårt för en skadelidande patient att bevisa vad en AI-baserad MTP hade för kunskap eller borde ha haft för kunskap vid diagnostillfället.
Att AI-produkter fungerar som svarta lådor medför utmaningar även i relation till Pskl 6 § 2 p. Materialskada. AI-produkters komplexitet och fortlöpande utveckling medför svårigheter för skadelidande att bevisa den AI-baserade MTP:ns funktion, och eventuella säkerhetsbrist, vid tillfället för skadans inträffande.
Nya EU-regler om ansvar för skador orsakade av AI-produkter
De utmaningar som diskuteras ovan relaterar i huvudsak till AI-produkters brist på transparens, vilket medför svårigheter för den skadelidande att bevisa exempelvis orsakssamband.
På EU-nivå har ett reviderat produktansvarsdirektiv (rPLD) tagits fram. rPLD syftar bland annat till att anpassa produktansvarsreglerna efter den tekniska komplexitet som många av dagens produkter har.[9] Detta direktiv innehåller regler om utlämnande av relevant bevisning samt en presumtion av orsakssamband mellan en säkerhetsbrist och en skada.[10] Den sistnämnda bestämmelsen syftar till att underlätta kärandens bevisbörda i särskilt svårutredda och komplexa fall, vilket kan vara särskilt betydelsefull i situationer då en skada orsakats av en AI-produkt.[11]
Inom EU har även försök gjorts att införa specifika regler för skador orsakade av AI-produkter med hög risk, så som exempelvis AI-baserade medicintekniska produkter. Förslaget till AI-ansvarsdirektiv (AILD) drogs tillbaka i mars 2025.[12] Även AILD föreskriver regler om utlämnande av bevis och presumtion för leverantörens bristande regelefterlevnad vid underlåtenhet att utlämna relevant bevisning. I AILD återfinns också en presumtionsregel som möjliggör för de nationella domstolarna att presumera ett orsakssamband mellan å ena sidan skadan, och å andra sidan AI-modellens underlåtenhet att producera korrekt ut-data. [13]
Förslag för en patientskadelag anpassad efter användningen av AI-baserade medicintekniska produkter
AILD och rPLD tycks erbjuda lösningar på flera av de utmaningar som ovan identifierats som centrala för när en patient skadats av en AI-baserad MTP. Som konstateras ovan har dock AILD dragits tillbaka. Samtidigt har rPLD trätt i kraft och inom de närmsta åren implementeras det i svensk rätt. rPLD omfattar endast skador orsakade av produkter med säkerhetsbrister. Det innebär att en implementering av rPLD i svensk rätt enbart får betydelse i de fall det rör sig om en skada orsakad av en säkerhetsbrist. Vid andra skador, exempelvis diagnosskador eller materialskador enligt PskL, skulle en implementering av rPLD inte innebära någon skillnad mot dagens regler.[14]
Med inspiration från AILD och rPLD samt med avstamp i de utmaningar jag identifierat för patienter som orsakats skada av en AI-baserad MTP presenterar jag två förslag på hur patientskadelagen skulle kunna anpassas för att stärka patientens möjlighet till ersättning vid skador orsakade av AI-baserade MTP.
Utlämnande av bevis
För att AI-förordningens krav på dokumentation, loggning och transparens ska få verklig betydelse för en skadelidande patient behöver patienten få tillgång till denna dokumentation. Det finns därför ett behov av regler om utlämnande av bevis.
I svensk rätt finns redan vissa regler om processuell edition i rättegångsbalken. Regeringen har under hösten 2024 gett en särskild utredare i uppdrag att undersöka om implementeringen av rPLD i svensk rätt innebär någon utvidgning av editionsplikten.[15] Eftersom rPLD enbart är tillämplig på skador orsakade av säkerhetsbrister skulle dock en eventuell utvidgning av editionsplikten alltså inte nödvändigtvis omfatta även situationer då en skada orsakats av ett ”fel” hos en AI-baserad MTP enligt 6 § 2p. PskL. Detta eftersom begreppet säkerhetsbrist i patientskadelagen är bredare än samma begrepp i PAL.[16] Mot bakgrund av de utmaningar som föreligger i förhållande till 6 § 2 och 3p. PskL anser jag det är påkallat att liknande regler om utlämning av bevis ska införas även i förhållande till diagnos- och materialskador. Detta är nödvändigt för att ge en skadad patient en reell möjlighet att bevisa sin skada.
För att reglerna om utlämning av bevis (i den mån de innebär en utvidgning av editionsplikten) ska få betydelse vid en prövning enligt PskL behöver reglerna föreskriva en möjlighet för domstolen att förelägga även andra än parterna att utlämna bevis. Detta motsvarar regeln i förslaget till AILD och innebär att en leverantör eller användare av en AI-produkt kan föreläggas att lämna ut material.
Presumtion för orsakssamband
Den så kallade ”svarta-lådan problematiken” får som konsekvens att orsakssamband och fel hos en AI-baserad MTP är närmast omöjliga för patienten att bevisa. I nya rPLD och det föreslagna AILD stadgas presumtionsregler för att underlätta bevisbördan för den skadelidande. Eftersom presumtionen är motbevisbar innebär det att bevisbördan i praktiken blir omvänd. Ur ett patientperspektiv är detta positivt. Det är också rimligt med hänsyn till AI-produkters tekniska komplexitet, eftersom en tekniskt kunnig tillverkare rimligen har bättre möjligheter än en patient att uppfylla beviskravet. Jag anser därför att en presumtionsregel liknande den som föreslås i AILD och rPLD behövs i patientskadelagen för att anpassa lagstiftningen till användningen av AI-baserade MTP.
* Linnea Sitell är jur. kand (Lunds universitet). Detta inlägg bygger på Linneas examensarbete “Patientskadeersättning i den artificiella intelligensens tidsålder – En rättsdogmatisk undersökning av säkerhetskrav, rättsliga utmaningar och reformbehov vid användningen av AI-baserade medicintekniska produkter” (2025).
[1] Smer (2020) ’Kort om Artificiell intelligens i hälso- och sjukvården’ https://smer.se/wp-content/uploads/2020/06/smer-2020-2-kort-om-artificiell-intelligens-i-halso-och-sjukvarden.pdf [hämtad 2025-10-13] s. 5 ff. och Karolinska Institutet (2025) AI istället för röntgenläkare i bröstcancervården? – AI inom medicin och hälsa. Publicerad ursprungligen i Medicinsk vetenskap nr 3/2020. https://ki.se/forskning/popularvetenskap-och-dialog/popularvetenskapliga-teman/tema-ai-inom-medicin-och-halsa/ai-istallet-for-rontgenlakare-i-brostcancervarden Senast uppdaterad 9 december 2020 [hämtad 2025-10-12].
[2] Ebers, Martin. (2024) ‘AI Robotics in Healthcare between the EU Medical Device Regulation and the Artificial Intelligence Act’, Oslo Law Review, 11(1), s. 5 f.
[3] Integritetskyddsmyndigheten (2024) ’Svarta lådan och rätten till information’ https://www.imy.se/verksamhet/dataskydd/innovationsportalen/vagledning-om-gdpr-och-ai/gdpr-och-ai/svarta-ladan-och-ratten-till-information/#:~:text=Den%20svarta%20l%C3%A5dan%20och%20informationsplikten,-Den%20metod%20som&text=Metoden%20kan%20behandla%20stora%20m%C3%A4ngder,personer%20att%20kartl%C3%A4gga%20och%20f%C3%B6rst%C3%A5. [hämtad 2025-02-18].
[4] R. Sullivan Hannah och J. Schweikart Scott (2019) ’Are current tort liability doctrines adequate for addressing injury caused by AI?’ AMA journal of etichs. Vol. 21 Nummer 2. s. 160.
[5] Den tidpunkt som är relevant vid bedömningen av om ett fel föreligger är tidpunkten då skadan inträffade.
[6] Mello, Michelle och Guha, Nell (2024) Understanding Liability Risk from Using Health Care Artificial Intelligence Tools. N Engl J Med. Jan 18;390(3) s. 271 och Läkemedelsverket (2023) s. 6 f.
[7] PskL 6 § 2 och 3p.
[8] R. Sullivan Hannah och J. Schweikart Scott (2019) ’Are current tort liability doctrines adequate for addressing injury caused by AI?’ AMA journal of etichs. Vol. 21 Nummer 2. s. 160 och Integritetskyddsmyndigheten (2024) ’Svarta lådan och rätten till information’ https://www.imy.se/verksamhet/dataskydd/innovationsportalen/vagledning-om-gdpr-och-ai/gdpr-och-ai/svarta-ladan-och-ratten-till-information/#:~:text=Den%20svarta%20l%C3%A5dan%20och%20informationsplikten,-Den%20metod%20som&text=Metoden%20kan%20behandla%20stora%20m%C3%A4ngder,personer%20att%20kartl%C3%A4gga%20och%20f%C3%B6rst%C3%A5. [hämtad 2025-02-18] .
[9] Se skäl 3 till PLD och Botero Arcila, Beatriz. (2024) ‘AI liability in Europe: How does it complement risk regulation and deal with the problem of human oversight?’, Computer Law & Security Review, vol. 54 s. 9.
[10] Artikel 9 och 10 rPLD.
[11] De Bruyne och Schollaert (2025) ‘Article 2 (9) Definition: duty of care’ i Pehlivan, Ceyhun Necati, Forgó, Nikolaus & Valcke, Peggy (red.) (2025) AI governance and liability in Europe. Alphen aan den Rijn: Wolters Kluwer s. 316.
[12] Bilagor till Commission Work Programme 2025: Moving Forward Together – A Bolder, Simpler, Faster Union, COM(2024) 700 final. s. 26.
[13] Artikel 3 AILD och Florence Danis, Gert-Jan Hendrix och Jasper Bellon (2025) ’Article 3 disclosure of evidence and rebuttable presumption of non-compliance’ i AI governance and liability in Europe (2025) Alphen aan den Rijn: Wolters Kluwer s. 345 f.
[14] Jfr artikel 5 rPLD.
[15] Dir. 2024:127 Nya regler om produktansvar.
[16] Jfr. prop. 1995/96:187 Patientskadelag m.m. s. 38 f. och Espersson, Carl & Hellbacher, Ulf (2016). Patientskadelagen: en kommentar m.m.. Stockholm: Carl Espersson s. 93.
