Partner serwisu
10 września 2019

Prawo nie nadąża za rozwojem sztucznej inteligencji w medycynie

Kategoria: Z życia branży

Sztuczna inteligencja (ang. AI – Artificial Intelligence) dynamicznie się rozwija i stanowi przyszłość medycyny. Już doskonale sprawdza się przy diagnozowaniu różnych schorzeń oraz przewidywaniu potencjalnego ryzyka dla życia lub zdrowia. Wszystko dzięki wieloletnim badaniom i wdrożeniu procesu „głębokiego uczenia” u maszyn wyposażonych w AI.

Prawo nie nadąża za rozwojem sztucznej inteligencji w medycynie

Wyzwaniem pozostaje poznanie toku myślenia, na podstawie którego dochodzą one do określonych stwierdzeń. Ponadto, nadal brakuje regulacji na poziomie międzynarodowym – zwłaszcza legalnej definicji – określających sztuczną inteligencję i, co się z tym wiąże, jasności co do kwestii odpowiedzialności za ewentualne błędy lekarskie, które powstały przy stosowaniu sprzętu wspomaganego przez AI.

Potencjał AI w medycynie

Narzędzia diagnostyczne, które są wspierane przez sztuczną inteligencję podnoszą jakość i efektywność opieki zdrowotnej. Wykorzystuje się je przede wszystkim przy przeprowadzaniu wywiadu z pacjentem, analizie wyników badań, monitorowaniu stanu leczonej osoby i wykonywaniu wielu innych czynności przez lekarza w celu postawienia odpowiedniej diagnozy. Ich prawidłowe funkcjonowanie zależy głównie od dużej ilości zróżnicowanych informacji, w tym danych szczególnych dotyczących pacjentów.

Niekontrolowany dostęp do takich informacji może doprowadzić do szkód w indywidualnym interesie jednostki. Sceptycznie wypowiadają się na temat kumulacji danych ośrodki oferujące prywatną opiekę zdrowotną, które nie chcą dzielić się posiadanymi zasobami informacji o swoich pacjentach.

Konrad Jagocha, Associate, Kancelaria Prawna Chałas i Wspólnicy

Obecnie w medycynie korzysta się już z kilku systemów AI. Jednym z nich jest DXplain – program, który po przeanalizowaniu zestawu objawów zaobserwowanych u pacjenta przedstawia listę możliwych diagnoz. Ostateczny wybór pozostawia on jednak lekarzowi. Warto zwrócić uwagę także na Germwatcher. Jest to laboratoryjny system informacyjny, który wykrywa, śledzi oraz bada możliwość występowania zakażeń u osób hospitalizowanych.

Zdecydowanie przełomem było wprowadzenie zrobotyzowanych systemów chirurgicznych. Przy wykorzystaniu systemu DaVinci z robotycznymi ramionami, precyzyjnym ruchem i magnetycznym wzrokiem, lekarze są w stanie przeprowadzić operacje, które nie byłyby możliwe przy wykorzystywaniu standardowych procedur.

Potrzeba regulacji

Parlament Europejski wraz z Europejskim Komitetem Ekonomiczno-Społecznym wskazuje, że konieczne jest wypracowanie precyzyjnej definicji sztucznej inteligencji. Powinna spełniać wymogi dużej ostrości, a co się z tym wiąże nie wprowadzać dodatkowych niejasności, wątpliwości bądź luk prawnych, oraz być na tyle „otwarta” technologicznie, aby nie hamować w przyszłości potencjalnego rozwoju technologii AI.

Definicja legalnej sztucznej inteligencji pozwoliłaby na określenie, kto odpowiada za ewentualne błędy lekarskie, które powstały przy stosowaniu maszyn wspomaganych przez AI.

Kierując się przepisami prawa cywilnego, aby móc przypisać odpowiedzialność danemu podmiotowi musi zaistnieć, m.in. jedna z przesłanek, adekwatny związek przyczynowy pomiędzy jego działaniem lub zaniechaniem a zdarzeniem, w wyniku którego powstała szkoda. Przypisanie odpowiedzialności cywilnej podmiotowi za działanie powstałe na skutek sztucznej inteligencji wydaje się bardzo trudne. Lekarz nie jest w stanie przewidzieć intencji autonomicznej jednostki. Jest to problem, na który zwracają uwagę zwłaszcza przeciwnicy wykorzystywania AI w medycynie.

Konrad Jagocha, Associate, Kancelaria Prawna Chałas i Wspólnicy

Warto również zwrócić uwagę na to, że opracowywanie diagnoz przez maszyny z zasobami sztucznej inteligencji jest statystycznie skuteczniejsze i szybsze niż przez lekarzy. Eksperci podkreślają jednak, że AI w medycynie powinna być pod ciągłym nadzorem człowieka ze względu na wagę skutków, jakie może przynieść jakiekolwiek zakłócenie. W takim duchu dla przykładu działa amerykańska rządowa Agencja Żywności i Leków (FDA, US Food and Drug Administration) zezwalającą lekarzom na prowadzenie jedynie takich badań z zastosowaniem AI, które cechuje niskie ryzyko.

źródło: informacja prasowa
fot. 123rf/zdjęcie ilustracyjne
Nie ma jeszcze komentarzy...
CAPTCHA Image


Zaloguj się do profilu / utwórz profil
Strona używa plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies. OK, AKCEPTUJĘ