AI vs GDPR – integritetskonsekvenserna av att använda AI-verktyg för läkemedelsföretag
Ingen kan ha missat den snabba utvecklingen av AI-verktyg, vilka blivit mer och mer avancerade inom en mycket kortare tidsperiod än någon hade kunnat förvänta sig. Men vad är egentligen integritetskonsekvenserna av detta? Setterwalls biträdande jurister Jonatan Blomqvist och Karolina Jivebäck Pap utvecklar vad detta innebär för företag som behandlar stora mängder känsliga personuppgifter, såsom läkemedelsföretag.
Under våren har olika AI-verktyg utvecklats till något mycket mer avancerat inom en mycket kortare tidsperiod än vad någon hade kunnat förvänta sig. Det mest ”hypade” AI-verktyget heter ChatGPT – ett AI-verktyg utvecklat av företaget OpenAI. På deras hemsida beskrivs verktyget på följande sätt:
”We’ve trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer follow-up questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests”
I grund och botten har de således utvecklat en AI som kan svara på en mängd olika frågor och följdfrågor. Men hur kan verktyget göra detta? ChatGPT är nämligen en så kallad ”Generativ AI”, vilket innebär att den kan generera svar på nästan vilken fråga som helst. AI:n har använt människor för att ge så kallade exempelsvar och använt människor för belöning av modellfunktion (på engelska kallad ”Reinforcement Learning from Human Feedback” [RLHF]) under sin upplärning. Denna träning gick i princip ut på att skrapa internet efter all slags information, inklusive personuppgifter, för att AI:n skulle kunna utvecklas till vad det är i dag.
Dessutom bör man ha i åtanke att allt som används som indata, det vill säga all information du förser AI:n med när du ställer en fråga, kan potentiellt komma att användas som utdata, det vill säga AI-verktygen kan eventuellt använda den information som den har fått av sina användare för sin egen utveckling och lärande. Detta gör AI:n smartare och möjliggör att den exempelvis kan svara på liknande frågor i framtiden.
De nya AI-verktygen har möjlighet att hjälpa alla typer av företag att öka effektiviteten genom att slutföra vissa uppgifter eller svara på vissa frågor mycket snabbare än någon anställd skulle kunna göra. Därför är det inte förvånande att de är i ropet och redan används i stor utsträckning över hela världen. Men även om de uppskattas medför de vissa konsekvenser, där integritetskonsekvenserna inte är de enda – det finns nämligen alltid en risk att få partisk eller till och med helt felaktig information. Ett exempel på en sådan partisk AI är den som United Health använde för att utvärdera patienters vårdbehov. AI:n var neutral vad gällde patienternas hudfärg och var därmed inte avsiktligt diskriminerande eller partisk. Problemet var istället att algoritmen baserades på vårdkostnaden för patienterna – inte själva sjukdomen – och på grund av det amerikanska sjukvårdssystemet med försäkringar och höga kostnader söker ljushyade patienter vård i större utsträckning och har därmed en högre vårdkostnad. Eftersom mindre pengar spenderas på mörkhyade patienter med samma behovsnivå, drog AI:n således den felaktiga slutsatsen att mörkhyade patienter var friskare än lika sjuka ljushyade patienter.