- Forskning
- Hälsa
Det skapas fler och fler appar som lovar lindring av psykisk ohälsa. Men, då många av dessa appar klassas som friskvård så skyddas inte sårbara användare av den nya EU-förordningen.
Forskare uppmanar därför användarna till försiktighet vid val av appar som inte utvecklats av vårdgivare. Det är många människor vilka är desperata efter hjälp som använder den här typen av appar.
Petra Müllerová, vid Lunds universitet, forskar om medicinsk rätt med inriktning på ny e-hälsoteknik och dess reglering på EU-nivå. Hon konstaterar att friskvårdsapparna befinner sig i en form av juridisk gråzon eftersom de kategoriseras just som friskvård.
Petra Müllerová säger vidare att det är bra att vi har den nya AI-förordningen, men den omfattar dessvärre bara en bråkdel av apparna som finns på marknaden. En majoritet av apparna befinner sig i en gråzon och låtsas att de inte har ett medicinskt fokus.
Många personer som lider av psykisk ohälsa väljer att ladda ned en app, antingen istället för att söka annan vård eller som komplement till mänskliga vårdkontakter.
Frånvaron av både kvalificerad sjukvårdspersonal och evidensbaserad vård i dessa appar, det vill säga vård baserad på vetenskaplig grund, är mycket problematiskt, enligt Petra Müllerová. Det är inte heller tillräckligt tydligt vilken typ av AI som används.
De som drabbats av psykisk ohälsa kan i många länder få vänta flera månader på vård. I väntan på att få träffa en läkare kanske dessa personer laddar ned en app baserat på sådant som pris och antal stjärnor. Men, om den som lider av psykisk ohälsa får okvalificerade råd kan det få mycket negativa konsekvenser.
Det finns idag omkring 70 000 appar som handlar om psykisk hälsa inom EU. Petra Müllerová uppger att hon själv har provat att prata med AI-modeller i ett urval av appar som finns ute på marknaden. Hon reagerade på att de försöker framstå som mänskliga. Hon frågade exempelvis hur AI-modellen mådde, och fick då svaret att den hade en bra dag. En AI-modell kan dock inte ha egna känslor eller uppfattningar på det sättet.
Tillverkarna av apparna är skyldiga att berätta för användaren att det handlar om AI och inte om människor. Till en början meddelar AI-modellen sitt namn samt att hen är en AI och säger ”jag kommer att vara din guide”. Efter detta låtsas AI-modellen vara människa. Det är ett effektivt sätt att få användaren att fortsätta använda appen. Man har då byggt en relation till sin AI-modell. Detta är dock högst oetiskt sett till WHO:s rekommendationer.
Vid testande av diverse appar av denna typ, simulerade Petra Müllerová till exempel en användare som uttryckte självmordstankar, som en sorts “värsta scenario”. Hon klargör att vid ett sådant läge bör en AI-modell identifiera att det här är ett allvarligt problem och uppmana användaren att ringa 112. Men, en som hon provade, frågade henne istället om hon ville lyssna på meditationsmusik.