Skip to main content

LUP Student Papers

LUND UNIVERSITY LIBRARIES

Patientskadeersättning i den artificiella intelligensens tidsålder - En rättsdogmatisk undersökning av säkerhetskrav, rättsliga utmaningar och reformbehov vid användningen av AI-baserade medicintekniska produkter

Sitell, Linnea LU (2025) JURM02 20251
Department of Law
Faculty of Law
Abstract
The increasing use of artificial intelligence in healthcare raises several legal
issues. One of those is how patient injury compensation should be handled in
case of patient injuries caused by AI-based medical devices (MTP), for
example, when they are used to analyze mammography images. Although AI
technology has demonstrated a satisfactory level of ability to identify signs of
breast cancer, errors will inevitably occur at some point. When this happens
and a patient is misdiagnosed, the legal system needs to be clear on how to
deal with the damage.
The purpose of this thesis is to provide clarity on how patient injuries caused
by AI-based MTP should be managed legally. It focuses on situations where
AI is used to analyze... (More)
The increasing use of artificial intelligence in healthcare raises several legal
issues. One of those is how patient injury compensation should be handled in
case of patient injuries caused by AI-based medical devices (MTP), for
example, when they are used to analyze mammography images. Although AI
technology has demonstrated a satisfactory level of ability to identify signs of
breast cancer, errors will inevitably occur at some point. When this happens
and a patient is misdiagnosed, the legal system needs to be clear on how to
deal with the damage.
The purpose of this thesis is to provide clarity on how patient injuries caused
by AI-based MTP should be managed legally. It focuses on situations where
AI is used to analyze mammography images for signs of breast cancer. The
thesis is based on a legal dogmatic method and what I have chosen to call the
EU legal method. The study is conducted from a patient perspective, with the
injured patients' interests at the center.
The first question of the essay explores which additional requirements for AIbased MTP (specifically SaMD) the AI regulation adds in addition to the
requirements already imposed by the Medical Device Regulation (MDR). The
analysis shows that the adoption of the AI-regulation adds requirements, for
among other things, transparency, logging, and human oversight. The new
requirements are linked to the specific risks posed by the AI technology. The
second question concerns challenges that arise when the current patient
compensation rules are applied to cases of injuries caused by AI-based
medical devices. It can be concluded that there are several legal challenges
for the injured patient. The difficulties are mainly linked to the burden of
proof. The low transparency of AI systems, the “black-box problem”, renders
it difficult for the injured party to prove the existence of a defect in the AIbased medical device and that the defect caused the injury.
The third question explores what changes to the Swedish Patient Injury Act
[patientskadelagen] could be considered to better address injuries caused by
AI-based MPT. Inspired by the now withdrawn proposal for the AI-liability
directive (AILD) and the revised Product Liability Directive (PLD), a special
rule of presumption is proposed. In addition, it is proposed that the court
should be able to order the manufacturer of an AI-based MTP to provide logs
and technical documentation kept following the AI regulation, that can be
used by the injured party to prove fault or causation. I also suggest that the
“experienced specialist” [erfaren specialist] standard used in the assessment
of diagnostic injuries should be revised to reflect the fact that it is no longer
only human specialists who analyze medical data like for example
mammography images. (Less)
Abstract (Swedish)
Den ökade användningen av artificiell intelligens inom sjukvården väcker
flera rättsliga frågor. En av dessa är hur patientskadeersättning ska hanteras
vid patientskador orsakade av AI-baserade medicintekniska produkter
(MTP), exempelvis när dessa används för att analysera mammografibilder.
Även om AI-tekniken visat på god förmåga att identifiera tecken på
bröstcancer är det oundvikligt att fel någon gång uppstår. När så sker, och en
patient får en felaktig diagnos, måste rätten veta hur skadan ska hanteras.
Syftet med uppsatsen är att skapa klarhet i hur patientskador orsakade av AI-baserade medicintekniska produkter ska hanteras rättsligt. Särskilt fokus
ligger på situationer där AI används för att analysera mammografibilder... (More)
Den ökade användningen av artificiell intelligens inom sjukvården väcker
flera rättsliga frågor. En av dessa är hur patientskadeersättning ska hanteras
vid patientskador orsakade av AI-baserade medicintekniska produkter
(MTP), exempelvis när dessa används för att analysera mammografibilder.
Även om AI-tekniken visat på god förmåga att identifiera tecken på
bröstcancer är det oundvikligt att fel någon gång uppstår. När så sker, och en
patient får en felaktig diagnos, måste rätten veta hur skadan ska hanteras.
Syftet med uppsatsen är att skapa klarhet i hur patientskador orsakade av AI-baserade medicintekniska produkter ska hanteras rättsligt. Särskilt fokus
ligger på situationer där AI används för att analysera mammografibilder efter
tecken på bröstcancer. Uppsatsen bygger på en rättsdogmatisk metod samt
vad jag valt att benämna som EU-rättslig metod. Undersökningen genomförs
ur ett patientperspektiv, med den skadelidande patientens intresse i centrum.
Den första frågeställningen rör vilka ytterligare krav AI-förordningen innebär
för AI-baserade MTP (specifikt SaMD) utöver de krav som redan uppställs
enligt förordningen om medicintekniska produkter (MDR). Analysen visar att
det genom antagandet av AI-förordningen tillkommer krav på bland annat
transparens, loggning och mänsklig översyn. De regler som tillkommer är
kopplade till de särskilda risker som AI-tekniken medför. Den andra
frågeställningen rör vilka utmaningar som uppstår när dagens regler om
patientskadeersättning tillämpas på skador orsakade av AI-baserade MTP.
Det kan konstateras att flera rättsliga utmaningar för den skadelidande
patienten föreligger. Svårigheterna är till stor del kopplade till bevisbördan.
AI-systemens låga transparens, “svarta-lådan-problematiken”, innebär att det
är mycket svårt för den skadelidande att visa att ett fel i den AI-baserade
medicintekniska produkten föreligger och att felet orsakat skadan.
Den tredje frågeställningen utreder vilka förändringar av patientskadelagen
som skulle kunna övervägas för att bättre hantera skador orsakade av AI-baserade medicintekniska produkter. Med inspiration från, det numera
tillbakadragna, förslaget till AI-ansvarsdirektiv (AILD) och nya
produktansvarsdirektivet (PLD) föreslås bland annat en särskild
presumtionsregel. Därutöver föreslås en möjlighet för domstolen att förelägga
tillverkaren av en AI-baserad medicinteknisk produkt att lämna ut loggar och
teknisk dokumentation som förts i enlighet med AI-förordningen och som den
skadelidande kan använda för att styrka fel eller orsakssamband. Jag föreslår
även att bedömningsstandarden “erfaren specialist” som används vid
diagnosskador anpassas efter det faktum att det numera inte är enbart
mänskliga specialister som analyserar exempelvis mammografibilder. (Less)
Please use this url to cite or link to this publication:
author
Sitell, Linnea LU
supervisor
organization
alternative title
Patient Injury Compensation in the Age of Artificial Intelligence - A Legal Dogmatic Analysis of Safety Requirements, Legal Challenges, and the Need for Reform in the Use of AI-Based Medical Devices
course
JURM02 20251
year
type
H3 - Professional qualifications (4 Years - )
subject
keywords
EU-rätt, Medicinsk rätt, Artificiell intelligens, Patientskadeersättning, Patientskadelagen, AI-förordningen, AI-act, Medical Device Regulation, AI
language
Swedish
id
9189100
date added to LUP
2025-06-12 09:25:00
date last changed
2025-06-12 09:25:00
@misc{9189100,
  abstract     = {{The increasing use of artificial intelligence in healthcare raises several legal
issues. One of those is how patient injury compensation should be handled in
case of patient injuries caused by AI-based medical devices (MTP), for
example, when they are used to analyze mammography images. Although AI
technology has demonstrated a satisfactory level of ability to identify signs of
breast cancer, errors will inevitably occur at some point. When this happens
and a patient is misdiagnosed, the legal system needs to be clear on how to
deal with the damage.
The purpose of this thesis is to provide clarity on how patient injuries caused
by AI-based MTP should be managed legally. It focuses on situations where
AI is used to analyze mammography images for signs of breast cancer. The
thesis is based on a legal dogmatic method and what I have chosen to call the
EU legal method. The study is conducted from a patient perspective, with the
injured patients' interests at the center.
The first question of the essay explores which additional requirements for AIbased MTP (specifically SaMD) the AI regulation adds in addition to the
requirements already imposed by the Medical Device Regulation (MDR). The
analysis shows that the adoption of the AI-regulation adds requirements, for
among other things, transparency, logging, and human oversight. The new
requirements are linked to the specific risks posed by the AI technology. The
second question concerns challenges that arise when the current patient
compensation rules are applied to cases of injuries caused by AI-based
medical devices. It can be concluded that there are several legal challenges
for the injured patient. The difficulties are mainly linked to the burden of
proof. The low transparency of AI systems, the “black-box problem”, renders
it difficult for the injured party to prove the existence of a defect in the AIbased medical device and that the defect caused the injury.
The third question explores what changes to the Swedish Patient Injury Act
[patientskadelagen] could be considered to better address injuries caused by
AI-based MPT. Inspired by the now withdrawn proposal for the AI-liability
directive (AILD) and the revised Product Liability Directive (PLD), a special
rule of presumption is proposed. In addition, it is proposed that the court
should be able to order the manufacturer of an AI-based MTP to provide logs
and technical documentation kept following the AI regulation, that can be
used by the injured party to prove fault or causation. I also suggest that the
“experienced specialist” [erfaren specialist] standard used in the assessment
of diagnostic injuries should be revised to reflect the fact that it is no longer
only human specialists who analyze medical data like for example
mammography images.}},
  author       = {{Sitell, Linnea}},
  language     = {{swe}},
  note         = {{Student Paper}},
  title        = {{Patientskadeersättning i den artificiella intelligensens tidsålder - En rättsdogmatisk undersökning av säkerhetskrav, rättsliga utmaningar och reformbehov vid användningen av AI-baserade medicintekniska produkter}},
  year         = {{2025}},
}