Plany Komisji Europejskiej dotyczące Europejskiej Przestrzeni Danych dot. Zdrowia (EHDS) przekraczają kilka granic etycznych, mówi etyczka Jessica Heesen w wywiadzie dla portalu Heise.de. Planowana przestrzeń ma, wedle polityków i przedstawicieli przemysłu, przyczynić się do rozwoju badań naukowych a - wraz z tym - polepszyć możliwości leczenia pacjentek i pacjentów. Niosą jednak ze sobą pewne niebezpieczeństwa. Poniżej tłumaczenie (miejscami wierne, miejscami luźne ale z zachowanym sensem) wywiadu. “Dane zdrowotne” stosuję naprzemiennie z “dane medyczne”, mam nadzieję, że to ok, ale znawczynią nie jestem.

Jessica Heesen kieruje działem badawczym “Etyka mediów i technologii informacyjnych” w Międzynarodowym Centrum Etyki w Naukach Ścisłych i Humanistycznych na Uniwersytecie w Tybindze. W różnych projektach badawczych zajmuje się kwestiami dot. rozwoju sztucznej inteligencji. Jest członkinią “Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt” (Forum Prywatności i Samostanowienia w Świecie Cyfrowym). Współprowadzi grupę roboczą “IT Security and Privacy, Law and Ethics” Platformy Systemów Nauczania Federalnego Ministerstwa Edukacji i Badań Naukowych.

Heise Online (HO): czy firmy ubezpieczeniowe mają prawo uzależniać swoje ceny od danych, które otrzymują od pacjentów?

Jessica Heesen (JH): z etycznego punktu widzenia - nie powinny. Stanowiłoby to zerwanie z zasadą solidarności w ubezpieczeniach zdrowotnych. Ale jeśli spojrzymy na cały pakiet dotyczący EHDS, to rzeczywiście istnieje takie niebezpieczeństwo. Nie chodzi tylko o dane dotyczące zdrowia, które mogą być przekazywane z ubezpieczenia zdrowotnego. Pacjenci i pacjentki coraz chętniej przekazują ubezpieczycielom zdrowotnym własne dane, np. dotyczące wskazówek dietetycznych. Firmy ubezpieczeniowe mogą wtedy ocenić zachowania szkodliwe dla zdrowia lub ryzykowne i ostatecznie dostosować stawki. Ale jeśli spojrzymy całościowo na pakiet dot. EHDS, rzeczywiście pojawia się takie niebezpieczeństwo. Nie chodzi tylko o dane dotyczące zdrowia przekazane z ubezpieczenia zdrowotnego. Pacjenci coraz częściej przekazują swoje dane, np. te dotyczące wskazówek dietetycznych. A firmy ubezpieczeniowe mogą wtedy dokonać oceny szkodliwych zachować i finalnie dostosować do nich stawki.

HO: Czy zatem projekt ustawy o EHDS powinien wykluczać indywidualne plany ubezpieczeń zdrowotnych związane z pozyskiwaniem danych?

JH: W każdym razie powinno się o tych aspektach wspomnieć, żeby odpowiednio wcześniej takie praktyki powstrzymać. W całej dyskusji dotyczącej udostępniania danych medycznych nie podoba mi się, że mówi się teraz tylko o stosunkowo dobrze uregulowanym sektorze zdrowia [publicznego] czy ogólnie o badaniach. A przecież największy postęp dokonuje się w sektorze prywatnym. Jeśli chodzi o badania, to bardzo duża jest gospodarka platform - z ich własnymi interesami biznesowymi, zwłaszcza w obszarze “zdrowie jako usługa”. To w końcu wspomniane firmy tylko wysyłają nam reklamy kremów do skóry, za które płacimy naszymi danymi medycznymi zebranymi przez aplikacje, czy chodzi też o poważne sukcesy w terapiach, którym to (sukcesom) należy się przyjrzeć?

HO: Czego tutaj oczekuje Pani od prawodawstwa europejskiego?

JH: Jak dotąd nie sformułowano żadnych żądań o dostęp do danych od dużych platform. Ostatecznie zawsze chodzi o to, czym pacjenci są skłonni się podzielić. Ale czym zgodzi się podzielić platforma mająca tak wiele danych o zdrowiu, które nie pochodzą z rynku podstawowej opieki zdrowotnej? To naprawdę jest skarbnica. Firmy z branży cyfrowej mogą prowadzić na ich podstawie badania, ale publiczny system opieki zdrowotnej czy szpitale uniwersyteckie zawsze muszą ładnie zapytać, czy wolno im wziąć te dane, czy nie. Brakuje równowagi.

HO: Czy powinno się w takim razie wyraźniej oddzielić badania komercyjne od badań na rzecz dobra wspólnego?

JH: Zdecydowanie. Może nie chciałabym brać udziału w badaniach Google’a, przez które firma zyskuje na znaczeniu w sektorze zdrowia. Może nie chcę, aby wysyłano mi spersonalizowane reklamy dopasowane do moich problemów zdrowotnych. W tym miejscu wchodzimy już w inne obszary europejskich regulacji, jak np. Digital Services Act. Trudno jest oddzielić, co tak naprawdę jest danymi medycznymi badanymi dla wspólnego dobra, a co tymi służącymi interesom handlowym

Rozróżnienie w zależności od celów badawczych

HO: “Dane pacjentów mają być dobrowolnie udostępniane do badań naukowych” - czy to wystarczy?

JH: to problem wyważenia różnych istotnych interesów: po jednej stronie mamy interesy badań naukowych, po drugiej interesy pacjentek i pacjentów. Jestem zdania, że zamiast stosować tego typu klauzule powinno się raczej różnicować wedle różnych celów - w szczególności między indywidualną terapią czy opieką a celami publicznej służby zdrowotnej. Powinna obowiązywać zasada: im mniej gromadzenie danych przyczynia się do bezpośredniej korzyści indywidualnego pacjenta, tym większy nacisk na uzasadnienie gromadzenia indywidualnych danych medycznych.

HO: Czy użytkownicy powinni mieć możliwość wykluczenia swojego udziału w określonych celach badawczych?

JH: To bardzo ważny temat. Jeżeli dane mają być ogólnie udostępnione do celów badawczych, nie mamy już kontroli nad tym, o jakie cele badawcze chodzi. Dlatego należy wprowadzić tu silniejsze rozróżnienie. Nie wszystkie badania są dobre - zwłaszcza w czasach narodowego socjalizmu dochodziło do licznych nadużyć.

Przywilej badawczy z perspektywy etycznej

HO: Ze względu na przywilej badawczy projekt Komisji nie przewiduje prawa do sprzeciwu. Czy to słuszne?

JH: odnośnie przywileju badawczego - nie można po prostu powiedzieć, że pacjentów w ogóle nie trzeba informować o wykorzystaniu danych. Z etycznego punktu widzenia to w ogóle niemożliwe. Także chcąc zachować zaufanie [społeczne] do systemu opieki medycznej nie można zdawać się na przywilej badawczy, tylko należy mimo to poinformować ludzi, że (i jak) dane służą uzasadnionym celom badawczym. W polityce i biznesie toczą się obecnie negocjacje dotyczące stworzenia europejskiej infrastruktury danych, zgodnej z regułami etycznymi i prawnymi. Ale, co dziwne, pomija się w tym kwestię baz danych do badań medycznych

HO: Projekt Parlamentu przewiduje już prawo do sprzeciwu. Jak laicy mogą oceniać projekty badań naukowych i ich następstwa?

JH: To wielkie wyzwanie. W strategii cyfryzacji Ministerstwa Zdrowia wiele mówiono o projektach partycypacyjnych. Jeśli teraz wszyscy wprowadzimy nasze dane do systemu ochrony zdrowia, możemy również oczekiwać, że otrzymamy coś w zamian. Można by na przykład zarejestrować się w określonych projektach badawczych, a następnie być informowanym o postępach w badaniach.

W razie potrzeby ludzie mogliby zgłaszać własne sugestie odnośnie tego, co warto zbadać. Podobne rozwiązania są obecne w krajach skandynawskich czy testowane w Kanadzie. Poprzez taką partycypację badania wiele zyskują, a jednocześnie oddają też coś ludziom, którzy dobrowolnie oddali na ich rzecz swoje dane.

Bezpieczeństwo IT ma priorytet

HO: Czy opt-out (prawo do odmowy) wystarczy w przypadku potencjalnie dyskryminujących danych genomowych, diagnoz psychiatrycznych lub rzadkich chorób?

JH: ciężko sprecyzować, co ma być postrzegane jako dyskryminujące. Oczywiście dane dot. genomu mogłyby zostać wykorzystane do śledzenia tożsamości. A te dotyczące aborcji czy choroby przewlekłej także mogłyby posłużyć do dyskryminacji.

Dlatego tak bardzo martwię się o bezpieczeństwo danych. Przecież jeśli nie zagwarantuje się bezpieczeństwa danych medycznych, to w ostatecznym rozrachunku wszystko na nic. Potencjalne zagrożenie czy to dla dobra powszechnego, czy to dla bezpieczeństwa poszczególnych pacjentów jest wtedy zbyt duże. W takiej sytuacji można już sobie darować dyskusję na temat prawa do patycypacji.

HO: nie obowiązują żadne standardy odnośnie anonimizacji, a w przypadku pseudonimizacji ograniczeniem ma być obecny stan rozwoju techniki. Czy to wystarczy?

JH: Ostatnio trwają prace nad docelowym spełnieniem tych wymogów bezpieczeństwa. Ale nie możemy w tej chwili stwierdzić, jak będzie wyglądało ich wdrożenie w poszczególnych placówkach. Jeśli dane z jakiegoś szpitala wylądują w internecie, przyniesie to katastrofalne skutki. Także to wciąż duże wyzwanie

Zróżnicowana klauzula opt-out (prawa do odmowy)

HO: Czy w świetle tych zagrożeń wystarczy prawo do odmowy, czy też wymagana byłaby zgoda zainteresowanych osób?

JH: Potrzebujemy zaawansowanego [systemu] zarządzania informacjami dla poszczególnych podmiotów, a nie ogólnej klauzuli. Stosowanie klauzuli opt-out jest uzasadnione - bez niej nie dałoby się uzyskać na potrzeby badań lepszego dostępu do danych medycznych. Ale opcje takiej klauzuli nie powinny być zbyt trudne i jednocześnie powinna ona być jak najbardziej zróżnicowana

HO: Czy zatem opt-out stanowi zmianę paradygmatu w tym sensie, że tajemnica pacjenta i tajemnica lekarska były wcześniej uznawane za absolutne?

JH: Tak, wraz z podejściem opt-out następuje pewna zmiana paradygmatu. Jednak tajemnica lekarska dotyczy konkretnej sytuacji badania lekarskiego na miejscu i tutaj na razie nic się nie zmieni.

Pod warunkiem, że pseudonimizacja i anonimizacja będą działać.

znów się całość nie zmieściła. Więc dalsza część będzie w komentarzu.

  • didlethOP
    link
    fedilink
    arrow-up
    1
    ·
    2 years ago

    Na drodze do całkowitej prewencji

    HO: Często podkreśla się, że pandemia COVID-19 ukazała, jak ważne jest, by w dowolnym momencie móc ocenić zdigitalizowane dane medyczne w czasie rzeczywistym. Czy można użyć tego argumentu, aby usprawiedliwić dostęp do wszystkich danych dot. zdrowia?

    JH: Nie, nie można tak uogólniać. Patrząc ponad granicami zobaczyliśmy, że w innych krajach, np. Korei, ostatecznie nie doprowadziło to do większych sukcesów również w dziedzinie zapobiegania rozprzestrzenianiu się koronawirusa.

    Ostatecznie musimy uważać, żeby nie popaść w szał gromadzenia danych. Dostrzegam tutaj niebezpieczeństwo płynące z jakiejś totalnej prewencji, jeśli wszelkie możliwe dane ze wszystkich obszarów byłyby zbierane w czasie rzeczywistym za pomocą aplikacji. Finalnie problemy związane ze zdrowotnością czy chorobami stałyby się kwestią stylu życia, ocenianego pod kątem osobistego ryzyka zachorowania.

    HO: A czy nie lepiej znać własne ryzyko chorobowe?

    JH: takie coś mogłoby doprowadzić do zindywidualizowanych [planów] ubezpieczeń, ale także do ciągłego lęku czy nawet ciągłych prób optymalizacji w obszarze swojego życia. A temu powinniśmy za wszelką cenę zapobiec. Trzeba więc bardzo wyraźnie rozdzielić to, co jest “istotnymi danymi” od tego, co jest po prostu naszym stylem życia. To właśnie tu widzę niebezpieczeństwo związane z wymieszaniem tych obszarów.

    HO: Co to skupienie się na dostępności do danych medycznych zmieni w nas samych?

    JH: Stoimy na początku stałego [procesu] rozwoju, w którym jako pacjenci i pacjentki mamy w sposób naturalny dostęp do danych dotyczących naszego zdrowia. W ślad za tym pójdą adekwatne usługi, które obliczą nasze ryzyko [chorobowe] lub udzielą nam wskazówek, jak możemy lepiej zadbać o nasze zdrowie. Gospodarka zorientowana na dane kreatywnie sobie z tym poradzi.

    HO: Gdzie widzi Pani granice “dobra powszechnego”?

    JH: Ogólnie rzecz biorąc, granice dobra powszechnego są przekraczane tam, gdzie używam tego argumentu, aby zniszczyć struktury ostatecznie stojące za prawami człowieka i wolną demokracją. Jeśli więc muszę udostępnić swoje dane dla wspólnego i nie mogę w zamian skorzystać z prawa do informacyjnego samostanowienia, albo jeśli ludzie nie chcą już swobodnie wyrażać się publicznie w obawie, że ktoś powie im, że mają chorobę psychiczną, to granica dobra powszechnego została przekroczona.

    HO: I odwrotnie: gdzie widzi Pani granice dobrobytu jednostki?

    JH: Oczywiście nie każdy może osiąść na swoich danych, jeśli są co do tego jakieś uzasadnione zastrzeżenia. Granicę będzie tu stanowić to, że jednostki nie działają już w swoim jasnym własnym interesie. Innymi słowy wszyscy powinni zrozumieć, że powinni być gotowi zrezygnować z części swoich danych, aby w ostatecznym rozrachunku przyczynić się do rozwoju badań medycznych dla dobra ogółu. Najlepsza byłaby oczywiście solidarna postawa - w zgodności z ochroną danych i bezpieczną opieką zdrowotną.

    Skupienie się na całym systemie opieki medycznej

    HO: Czy dobro pacjenta w ogóle stanowi główny punkt projektu Komisji?

    JH: Trzeba zatroszczyć się o to, aby projekt brał pod uwagę cały system opieki zdrowotnej. Nie wystarczą rozwiązania z obszaru technologii, jak sztuczna inteligencja, big data czy wykorzystanie danych do badań, aby na pierwszym planie znalazło się dobro pacjenta.

    Powinniśmy też pamiętać, że komunikacja funkcjonuje na miejscu. Dla wielu osób problem stanowi nie samo gromadzenie ich danych a to, że tymi informacjami nikt [mimo potrzeby] się dalej nie dzieli. W drodze z jednego szpitala do drugiego, od jednego lekarza do innego brakuje czasu na komunikację. To kwestie pragmatyczne, które można ulepszyć nawet pomijając wszystkie badania nad sektorem opieki zdrowotnej, a które następnie można by realnie wykorzystać z korzyścią dla pacjenta.

    w temacie: Europejska przestrzeń danych dotyczących zdrowia: https://health.ec.europa.eu/ehealth-digital-health-and-care/european-health-data-space_pl Więcej praw dla pacjentów w ramach Europejskiej Przestrzeni Danych dot. Zdrowia - artykuł w heise.de: https://www.heise.de/news/EU-Parlament-Mehr-Rechte-fuer-die-Patienten-im-Europaeischen-Gesundheitsdatenraum-7534925.html