Vi använder cookies för att förbättra funktionaliteten på våra sajter, för att kunna rikta relevant innehåll och annonser till dig och för att vi ska kunna säkerställa att tjänsterna fungerar som de ska. Läs mer i vår cookiepolicy.

Debattinlägg: ”Istället för att skänka bort data bör sjukhus hålla järnkoll på tekniksektorn.”

Matematiska modeller för förutsägelser om framtiden är aldrig mer tillförlitliga än de data de bygger på. Det skriver Leeza Osipenko, universitetslektor vid institutionen för hälsopolitik vid London School of Economics and Political Science.

När algoritmer som ger feedback på data har tillämpats på baseball fungerar de bättre än väntat. Men när liknande modeller används inom finans, försäkring, rättsväsende och utbildning kan de vara diskriminerande och skadliga. Sjuk- och hälsovård är inget undantag, skriver Leeza Osipenko.Bild: Charlie Riedel
Detta är ett debattinlägg. Skribenterna svarar för åsikterna.
De flesta av USA:s stora teknikföretag, läkemedelsföretagen och många nystartade bolag har gett sig in på hälsoteknikområdet. Med hjälp av artificiell intelligens, AI, analys av enorma mängder data, big data, och andra nya metoder lovar de att sänka kostnaderna inom sjuk- och hälsovården och revolutionera hur läkare fattar medicinska beslut. Finns det något skäl att inte glädjas åt det? Ja, flera stycken, faktiskt.
I sin bok Weapons of Math Destruction ger matematikern Cathy O'Neil en rad exempel på hur algoritmer och data kan leda fel på oväntade sätt. När algoritmer som ger feedback på data har tillämpats på baseball fungerar de bättre än väntat. Men när liknande modeller används inom finans, försäkring, rättsväsende och utbildning kan de vara diskriminerande och skadliga.
Sjuk- och hälsovård är inget undantag. Enskilda människors medicinska data påverkas av läkares subjektiva beslut, av medicinska misstag och ny praxis. Kvalitén på stora datamängder försämras av uppgifter som saknas, av mätfel och brist på struktur och standardisering. Trots det lanseras big data-revolutionen inom hälso- och sjukvården som om inga begränsningar existerar. Vad värre är: många beslutsfattare ser inte igenom överdrifterna.
Det går att hävda att en ny lösning är motiverad om den medför en förbättring. Men utan stora välgjorda empiriska studier vet vi inte om dataanalys och AI förbättrar något alls. Ännu så länge saknas alla bevis, liksom den infrastruktur och de ramverk som kan få fram dem. Big data används alltså i sjukvården som om det vore riskfritt och uteslutande värdefullt.
Projekt Nightingale är ett exempel. Det är en överenskommelse om att dela medicinska data mellan Google Health och Ascension, ett av USA:s största vårdföretag, som utgår från katolsk värdegrund. Wall Street Journal avslöjade avtalet förra året och upprördheten blev stor över hur patientuppgifter och människors personliga integritet hanterades.
I vår tid när individens rätt till privatliv snarare blivit en lyx än en rättighet, är algoritmerna som allt mer styr våra liv oåtkomliga för att affärsintressen ska skyddas.
Många företag som ger sig in på hälsoteknikområdet gör det med goda avsikter, men saknar erfarenhet av hälso- och sjukvård. Branschens nuvarande hållning är grundläggande oetisk och okunnig. När beslutsfattare och vårdgivare inleder samarbeten med teknikföretag måste de alltså begripa vad hälsoteknik är och innebär.
Slutledningar utifrån big data grundas på statistik och matematik. När en algoritm till exempel upptäcker ett "samband” är det en information som kan vara värdefull i fortsatta undersökningar. Men för beslutsfattande är matematiska modeller som ska förutsäga framtiden aldrig mer tillförlitliga än de data de bygger på. Eftersom underlaget består av det redan kända kan det ge en bild av nuet och det som varit, men inte av framtiden.
Artificiell intelligens är ett annat komplicerat område. AI kräver en egen arkitektur, alltså regler och en grundläggande logik för hur systemet ska fungera, samt tillgång till stora mängder potentiellt känslig data. Målet är ett system som ”lär” sig komma med optimala problemlösningar. Men man ska komma ihåg att det är människor som skapar systemet, skriver reglerna och formulerar problemen, och att de är lika präglade av sina föreställningar och fördomar som alla andra. Precis som dataanalys bygger AI-systemen på data från dagens hälso- och sjukvård och är därför benägna att upprepa såväl framgångar som misslyckanden.
Att förbättra hälso- och sjukvården med big data och AI lär kräva mer experimenterande än teknikoptimisterna inser. Görs det öppet och transparent kan big data-projekt lära oss hur vi får fram framtidsinriktade högkvalitativa datauppsättningar. Av samma skäl bör algoritmerna göras tillgängliga åtminstone för de myndigheter och organisationer som använder dem.
Det är dags att vårdgivare och beslutsfattare tar av sig de rosafärgade glasögonen och ägnar kritisk tankemöda åt följderna av att i stort sett oprövade modeller införs i vården. Istället för att skänka bort patientjournaler och andra data bör sjukhus och tillsynsmyndigheter hålla järnkoll på dem i tekniksektorn som utvecklar de nya systemen. De behöver mycket mer feedback från olika håll och många fler ifrågasättanden av de underlag prototyperna bygger på. Och varje modell måste följas upp med kontrollerade försök som visar hur tekniken fungerar i den verkliga världen.
Vårdlösningar baserade på big data har, extremt överhajpade, kastats ut på en marknad där det saknas relevanta regelverk, transparens, standardisering, ansvarighet och till och med beprövade metoder för utvärdering. Patienter förtjänar vårdsystem och vårdgivare som skyddar dem och inte låter dem utnyttjas som dataleverantörer i vinstdrivna experiment.
Leeza Osipenko, universitetslektor vid institutionen för hälsopolitik vid London School of Economics and Political Science.
Översättning: Karen Söderberg
Project Syndicate
Gå till toppen