Träffsäkra och icke-diskriminerande suicidbedömningar med hjälp av AI – är det (o)möjligt?
(2025) p.41-62- Abstract
- Ett välkänt problem med dagens suicidriskbedömningar är att de är så osäkra. Det finns tyvärr inget riskbedömningsverktyg som kan avgöra om patienter faktiskt kommer att avsluta sina liv om de inte får vård (Runesson et al, 2017). Ett annat problem, vilket inte uppmärksammats i suicidlitteraturen men som är i fokus i denna text, är att riskbedömningar missgynnar vissa grupper. Forskning om artificiell intelligens (AI) har visat att riskbedömningar som bygger på statistiska riskfaktorer inte kan vara lika träffsäkra för olika grupper och samtidigt fördela misstag (falska positiva och falskt negativa) lika mellan dessa grupper (Kleinberg et al., 2016). Ett riskbedömningsverktyg som har samma positiva prediktiva värde (PPV) för suicid... (More)
- Ett välkänt problem med dagens suicidriskbedömningar är att de är så osäkra. Det finns tyvärr inget riskbedömningsverktyg som kan avgöra om patienter faktiskt kommer att avsluta sina liv om de inte får vård (Runesson et al, 2017). Ett annat problem, vilket inte uppmärksammats i suicidlitteraturen men som är i fokus i denna text, är att riskbedömningar missgynnar vissa grupper. Forskning om artificiell intelligens (AI) har visat att riskbedömningar som bygger på statistiska riskfaktorer inte kan vara lika träffsäkra för olika grupper och samtidigt fördela misstag (falska positiva och falskt negativa) lika mellan dessa grupper (Kleinberg et al., 2016). Ett riskbedömningsverktyg som har samma positiva prediktiva värde (PPV) för suicid oavsett kön kommer att göra fler misstag i förhållande till något av könen. Om verktyget justeras för att fördela misstag lika mellan könen kommer det att förlora i tillförlitlighet. Detta kallas för omöjlighetsteoremet och beskrivs vidare i avsnitt tre.
Denna text diskuterar de diskrimineringsrättsliga implikationerna av omöjlighetsteoremet i relation till suicidriskbedömningar. Frågorna är högaktuella i ljuset av den digitaliseringstrend som pågår inom vården. Forskning pågår och redan idag finns ett antal AI-verktyg för suicidriskbedömningar som presterar lika bra eller bättre än riskbedömningar som utförs av psykiatriker utan hjälp av AI (Bernert et al., 2020; Lejeune et al., 2022). Avsnitt två ger en kort beskrivning av denna utveckling liksom av hur suicidriskbedömningar går till och dess begränsningar, vilket tjänar som en bakgrund till den kommande diskussionen. Avsnitt tre fördjupar sig i omöjlighetsteoremet och hur det påverkar just suicidriskbedömningar. I avsnitt fyra presenteras olika åtgärder för att minska de negativa effekterna av omöjlighetsteoremet. Därefter följer en analys av hur diskrimineringsrätten, inklusive relevanta regler i EU:s AI-förordning, påverkar utformning och användning av AI-baserade suicidriskbedömningsverktyg. Kapitlet avslutas med en reflektion över rättsutredningens relevans och giltighet i förhållande till andra riskbedömningar i tvångsvården.
(Less)
Please use this url to cite or link to this publication:
https://lup.lub.lu.se/record/28e54d32-41c0-4b51-b444-0b520806aaa3
- author
- Nilsson, Anna
LU
- organization
- publishing date
- 2025
- type
- Chapter in Book/Report/Conference proceeding
- publication status
- published
- subject
- keywords
- Hälsa- och sjukvård, Health law
- host publication
- Tvång på gott och ont - En forskningsantologi om tvång i välfärden
- editor
- Dahlin, Moa ; Juth, Niklas and Sjöström, Stefan
- pages
- 22 pages
- publisher
- Iustus förlag
- ISBN
- 9789177373216
- language
- Swedish
- LU publication?
- yes
- id
- 28e54d32-41c0-4b51-b444-0b520806aaa3
- date added to LUP
- 2025-09-18 12:22:10
- date last changed
- 2025-09-19 08:23:49
@inbook{28e54d32-41c0-4b51-b444-0b520806aaa3, abstract = {{Ett välkänt problem med dagens suicidriskbedömningar är att de är så osäkra. Det finns tyvärr inget riskbedömningsverktyg som kan avgöra om patienter faktiskt kommer att avsluta sina liv om de inte får vård (Runesson et al, 2017). Ett annat problem, vilket inte uppmärksammats i suicidlitteraturen men som är i fokus i denna text, är att riskbedömningar missgynnar vissa grupper. Forskning om artificiell intelligens (AI) har visat att riskbedömningar som bygger på statistiska riskfaktorer inte kan vara lika träffsäkra för olika grupper och samtidigt fördela misstag (falska positiva och falskt negativa) lika mellan dessa grupper (Kleinberg et al., 2016). Ett riskbedömningsverktyg som har samma positiva prediktiva värde (PPV) för suicid oavsett kön kommer att göra fler misstag i förhållande till något av könen. Om verktyget justeras för att fördela misstag lika mellan könen kommer det att förlora i tillförlitlighet. Detta kallas för omöjlighetsteoremet och beskrivs vidare i avsnitt tre. <br/>Denna text diskuterar de diskrimineringsrättsliga implikationerna av omöjlighetsteoremet i relation till suicidriskbedömningar. Frågorna är högaktuella i ljuset av den digitaliseringstrend som pågår inom vården. Forskning pågår och redan idag finns ett antal AI-verktyg för suicidriskbedömningar som presterar lika bra eller bättre än riskbedömningar som utförs av psykiatriker utan hjälp av AI (Bernert et al., 2020; Lejeune et al., 2022). Avsnitt två ger en kort beskrivning av denna utveckling liksom av hur suicidriskbedömningar går till och dess begränsningar, vilket tjänar som en bakgrund till den kommande diskussionen. Avsnitt tre fördjupar sig i omöjlighetsteoremet och hur det påverkar just suicidriskbedömningar. I avsnitt fyra presenteras olika åtgärder för att minska de negativa effekterna av omöjlighetsteoremet. Därefter följer en analys av hur diskrimineringsrätten, inklusive relevanta regler i EU:s AI-förordning, påverkar utformning och användning av AI-baserade suicidriskbedömningsverktyg. Kapitlet avslutas med en reflektion över rättsutredningens relevans och giltighet i förhållande till andra riskbedömningar i tvångsvården. <br/>}}, author = {{Nilsson, Anna}}, booktitle = {{Tvång på gott och ont - En forskningsantologi om tvång i välfärden}}, editor = {{Dahlin, Moa and Juth, Niklas and Sjöström, Stefan}}, isbn = {{9789177373216}}, keywords = {{Hälsa- och sjukvård; Health law}}, language = {{swe}}, pages = {{41--62}}, publisher = {{Iustus förlag}}, title = {{Träffsäkra och icke-diskriminerande suicidbedömningar med hjälp av AI – är det (o)möjligt?}}, year = {{2025}}, }