Skip to main content

LUP Student Papers

LUND UNIVERSITY LIBRARIES

Hur bristande transparens påverkar individens rättigheter - AI-användning vid automatiserat beslutsfattande och profilering i enlighet med EU:s dataskyddsförordning.

Eliasson, Matilda LU (2024) JURM02 20241
Department of Law
Faculty of Law
Abstract (Swedish)
Uppsatsen syfte är att undersöka under vilka omständigheter det är möjligt att använda sig av AI vid automatiserat beslutsfattande och profilering i enlighet med dataskyddsförordningen, samt undersöka hur AI-systems bristande transparens påverkar de registrerades rättigheter i enlighet med dataskydds- förordningen. Artificiell intelligens (AI) är idag ett återkommande inslag i människans vardag och på grund av AI:s tekniska möjligheter är det enklare än någonsin att skapa profiler och fatta automatiserade beslut, något som vi människor utsätts dagligen för. På grund av AI:s komplexa natur har männi- skan ingen möjlighet att tyda eller förstå vad som händer i systemet mellan en input och en output samt spåra data. Systemen brister därmed i... (More)
Uppsatsen syfte är att undersöka under vilka omständigheter det är möjligt att använda sig av AI vid automatiserat beslutsfattande och profilering i enlighet med dataskyddsförordningen, samt undersöka hur AI-systems bristande transparens påverkar de registrerades rättigheter i enlighet med dataskydds- förordningen. Artificiell intelligens (AI) är idag ett återkommande inslag i människans vardag och på grund av AI:s tekniska möjligheter är det enklare än någonsin att skapa profiler och fatta automatiserade beslut, något som vi människor utsätts dagligen för. På grund av AI:s komplexa natur har männi- skan ingen möjlighet att tyda eller förstå vad som händer i systemet mellan en input och en output samt spåra data. Systemen brister därmed i transparen- sen. Det hela försvåras av att AI kan agera autonomt. När personuppgifter behandlas inom ramen för automatiserat beslutsfattande och profilering måste vissa rättigheter säkerställas. I denna uppsats har jag valt att titta närmare på rätten till information, rätten till rättelse, rätten till radering och rätten till begränsning. Utredningen visar att på grund av AI- systems bristande transparens är det svårt för personuppgiftsansvarig att sä- kerställa dessa rättigheter gentemot en registrerad. Exempelvis när det kom- mer till rätten till information i relation till automatiserat beslutsfattande, in- gripet profilering, uppställer dataskyddsförordningen krav på att kunna ge meningsfull information om den bakomliggande logiken. Omfattningen av denna informationsplikt är otydlig. Utredningen visar att vad meningsfull in- formation är, kan skifta från fall till fall, men på grund av AI:s komplexa natur och människans oförmåga att kunna tyda hur en AI kom fram till ett beslut finns det svårigheter att nå upp till detta krav. När det kommer till rätten till radering visar utredningen bland annat att det först och främst är svårt att identifiera var i systemet personuppgifterna ham- nar, men framför allt är det i princip omöjligt att fullständigt radera någonting i ett AI-system utan att äventyra dess funktionalitet. Lika så är det svårt för personuppgiftsansvarig att efterleva rätten till rättelse och rätten till begräns- ning då det är, på grund av AI:s bristande transparens, svårt att ha tillräckligt med insyn i systemet för att kunna identifiera var personuppgifterna den re- gistrerade vill rätta eller begränsa finns. (Less)
Abstract
The purpose of this thesis is to examine under what circumstances it is possi- ble to use AI for automated decision-making and profiling in accordance with the General Data Protection Regulation (GDPR) and to investigate how the lack of transparency in AI systems affects the rights of data subjects in ac- cordance with the GDPR. Artificial intelligence (AI) is now a recurring fea- ture in everyday human life, and due to AI's technical capabilities, it is easier than ever to create profiles and make automated decisions, something humans are subjected to daily. Because of AI's complex nature, humans have no abil- ity to understand what happens in the system between the input and the out- put, and to trace data. Thus, the systems lack... (More)
The purpose of this thesis is to examine under what circumstances it is possi- ble to use AI for automated decision-making and profiling in accordance with the General Data Protection Regulation (GDPR) and to investigate how the lack of transparency in AI systems affects the rights of data subjects in ac- cordance with the GDPR. Artificial intelligence (AI) is now a recurring fea- ture in everyday human life, and due to AI's technical capabilities, it is easier than ever to create profiles and make automated decisions, something humans are subjected to daily. Because of AI's complex nature, humans have no abil- ity to understand what happens in the system between the input and the out- put, and to trace data. Thus, the systems lack transparency. This issue is fur- ther complicated by the fact that AI can act autonomously. When personal data is processed within the framework of automated deci- sion-making and profiling, certain rights must be ensured. In this thesis, I have chosen to examine the right to information, the right to rectification, the right to erasure, and the right to restriction of processing. The investigation shows that due to the lack of transparency in AI systems, it is difficult for the data controller to ensure these rights for a data subject. For instance, when it comes to the right to information in relation to automated decision-making, including profiling, the GDPR requires the provision of meaningful infor- mation about the underlying logic. The extent of this information obligation is unclear. The investigation shows that what constitutes meaningful infor- mation can vary from case to case, but due to the complex nature of AI and humans' inability to understand how an AI reached a decision, it is challeng- ing to meet this requirement. Regarding the right to erasure, the investigation shows, among other things, that it is first and foremost difficult to identify where in the system the per- sonal data ends up, but above all, it is virtually impossible to completely erase anything in an AI system without jeopardizing its functionality. Similarly, it is difficult for the data controller to comply with the right to rectification and the right to restriction because, due to the lack of transparency in AI, it is challenging to have sufficient insight into the system to identify where the personal data that the data subject wants to rectify or restrict is located. (Less)
Please use this url to cite or link to this publication:
author
Eliasson, Matilda LU
supervisor
organization
alternative title
How lack of transparency affects individual rights - AI usage in automated decision-making and profiling in accordance with the EU General Data Protection Regulation.
course
JURM02 20241
year
type
H3 - Professional qualifications (4 Years - )
subject
keywords
EU-rätt, Dataskyddsförordningen, Profilering, Automatiserat beslutsfattande, AI, Transparens
language
Swedish
id
9153373
date added to LUP
2024-06-11 11:39:00
date last changed
2024-06-11 11:39:00
@misc{9153373,
  abstract     = {{The purpose of this thesis is to examine under what circumstances it is possi- ble to use AI for automated decision-making and profiling in accordance with the General Data Protection Regulation (GDPR) and to investigate how the lack of transparency in AI systems affects the rights of data subjects in ac- cordance with the GDPR. Artificial intelligence (AI) is now a recurring fea- ture in everyday human life, and due to AI's technical capabilities, it is easier than ever to create profiles and make automated decisions, something humans are subjected to daily. Because of AI's complex nature, humans have no abil- ity to understand what happens in the system between the input and the out- put, and to trace data. Thus, the systems lack transparency. This issue is fur- ther complicated by the fact that AI can act autonomously. When personal data is processed within the framework of automated deci- sion-making and profiling, certain rights must be ensured. In this thesis, I have chosen to examine the right to information, the right to rectification, the right to erasure, and the right to restriction of processing. The investigation shows that due to the lack of transparency in AI systems, it is difficult for the data controller to ensure these rights for a data subject. For instance, when it comes to the right to information in relation to automated decision-making, including profiling, the GDPR requires the provision of meaningful infor- mation about the underlying logic. The extent of this information obligation is unclear. The investigation shows that what constitutes meaningful infor- mation can vary from case to case, but due to the complex nature of AI and humans' inability to understand how an AI reached a decision, it is challeng- ing to meet this requirement. Regarding the right to erasure, the investigation shows, among other things, that it is first and foremost difficult to identify where in the system the per- sonal data ends up, but above all, it is virtually impossible to completely erase anything in an AI system without jeopardizing its functionality. Similarly, it is difficult for the data controller to comply with the right to rectification and the right to restriction because, due to the lack of transparency in AI, it is challenging to have sufficient insight into the system to identify where the personal data that the data subject wants to rectify or restrict is located.}},
  author       = {{Eliasson, Matilda}},
  language     = {{swe}},
  note         = {{Student Paper}},
  title        = {{Hur bristande transparens påverkar individens rättigheter - AI-användning vid automatiserat beslutsfattande och profilering i enlighet med EU:s dataskyddsförordning.}},
  year         = {{2024}},
}