Józef Kielar: Mamy znakomitych programistów zdobywających tytuły mistrzów świata, jednak jako kraj jesteśmy bardziej znani z produkcji... jabłek i węgla. Dlaczego nie wykorzystujemy ich potencjału intelektualnego w tworzeniu sztucznej inteligencji (Artificial Inteigence - AI) np. w medycynie, tak jak robią to Amerykanie, Brytyjczycy, Chińczycy, czy Japończycy?
Justyna Zajdel–Całkowska: Myślę, że wykorzystujemy potencjał, ale nie umiemy nim odpowiednio zarządzać. W mojej opinii, to przede wszystkim brak tzw. „marketingu naukowego”. Tak naprawdę kluczowe jest nie tyle opracowanie algorytmów działania, ale umiejętność ich sprzedania, a co za tym idzie wykorzystania w praktyce. Można wymyślić najlepszy przepis na świąteczne ciasto, ale jeśli się go odpowiednio nie rozpowszechni, nikt nie będzie mógł z niego skorzystać.
Proszę podać przykłady, w jakich obszarach medycyny może być wykorzystywana sztuczna inteligencja i kto na tym najbardziej korzysta?
W zasadzie trudno jest podać przykłady dziedzin, w których sztuczna inteligencja nie mogłaby znaleźć zastosowania. Obecnie wykorzystuje się ją w różnych dziedzinach, przy czym nie istnieje żaden rejestr dzięki któremu można byłoby weryfikować zakres podejmowanych działań jak i ich skuteczność. Sztuczna inteligencja, to bardzo złożone pojęcie. Ze względu na swoją charakterystyczną budowę (przetwarzanie danych w sposób rozproszony i równoległy), w diagnostyce medycznej zastosowanie znajduje najczęściej sztuczna sieć neuronowa (SSN). Sztuczne sieci neuronowe (SSN) wykorzystywane są między innymi do analizy obrazów rezonansu magnetycznego, tomografii komputerowej, klasycznej i endo-skopowej ultrasonografii oraz kolonoskopii. Czym innym jest z kolei wymiar AI polegający na uczeniu się maszyn. Od ponad dwudziestu lat terapia z wykorzystaniem inteligentnych robotów wykorzystywana jest w leczeniu autyzmu. W celach terapeutycznych stosuje się zarówno humanoidalne (lalki), jak i niehumanoidalne (mobilne) lub zoomorficzne (pies, kot) roboty skonstruowane na potrzeby stymulacji konkretnych poznawczych i emocjonowano-społecznych funkcji.
Czytaj: Nowe technologie potrzebują adekwatnego otoczenia prawnego>>
Czy sztuczna inteligencja może pomóc w zwalczaniu COVID–19?
Już pomaga. Jeden z chińskich instytutów badawczych (Damo Academy, należący do chińskiego giganta e-commerce Alibaba), opracował algorytm dla sztucznej inteligencji, który aż z 96-proc. skutecznością pozwala wykryć zakażenie koronawirusem. Algorytm przeanalizował dane 5 tys. osób z pozytywnym wynikiem testu – cały proces trwał zaledwie 20 sekund! Poza tym, należy zwrócić uwagę na bardziej przyziemne rozwiązania, np. stetoskop obsługiwany przez algorytm sztucznej inteligencji. Użycie takiego urządzenia pozwala na eliminowanie bezpośredniego kontaktu pacjenta z personelem medycznym, co ma szczególne znaczenie, np. w przypadku osób objętych kwarantanną lub izolacją w warunkach domowych.
Maszyna jednak nie zawsze może zastąpić człowieka...
Czasem trudno się zgodzić z powszechną prawdą, że nie ma ludzi i rzeczy niezastąpionych. Przed modyfikacją dotychczasowych rozwiązań i nawyków powstrzymuje nas najczęściej strach przed zmianą, ale prędzej czy później ktoś się odważa zaryzykować. W wielu sytuacjach AI dorównuje lekarzowi z wieloletnim doświadczeniem. Tak jest w przypadku systemu sztucznej inteligencji opracowanego przez firmę Google, który okazał się równie skuteczny, podczas analizy wyników badania mammograficznego. W Wielkiej Brytanii przeprowadzono eksperymenty dotyczące diagnozowania raka piersi przez algorytmy AI. Wyniki badań wskazały, że diagnostyka ta jest dokładniejsza, niż efektywność opisów wykonywanych przez lekarzy radiologów (eksperyment Google Health- firmy Deep Mind, amerykańskiej uczelni Northwestern University oraz brytyjskiego ośrodka badań nad rakiem Cancer Research UK Imperial Centre). Innym przykładem jest algorytm opracowany przez naukowców ze Stanford University. Zaledwie w ciągu dwóch miesięcy nauczył się on rozpoznawać 14 chorób na podstawie zdjęć RTG płuc. Z diagnozą zapalenia płuc poradził sobie lepiej, niż radiolodzy.
Czyli maszyna uczy się szybciej, niż człowiek?
Ależ oczywiście. W przypadku opisywania badań obrazowych (rezonans, tomograf), AI uczy się kilka tysięcy razy szybciej, niż my. Po „przedstawieniu jej” wyników badań radiologicznych (prawidłowego i negatywnego obrazu) jest ona w stanie dokonać prawidłowego opisu po krótkim cyklu szkolenia. Natomiast lekarz, żeby przeanalizować wyniki, zapamiętać co jest prawidłowe, a co patologiczne, a w konsekwencji bezbłędnie dokonywać rozróżnienia, musi uczy się przez wiele lat AI może to robić nie tylko szybciej, ale i dokładniej ze względu na wprowadzenie odpowiednich algorytmów jej uczenia. Użycie AI na szeroką skalę mogłoby zmniejszyć kolejki, zwiększyć dostępność badań diagnostycznych i ułatwić wykonywanie badań przesiewowych.
Pacjent oczekuje bardzo często rozmowy z lekarzem, a maszyna tego nie potrafi.
To prawda. Istnieją dziedziny medycyny, które wymagają osobistego kontaktu na płaszczyźnie lekarz – pacjent. Poza tym, maszyna nie wykaże się zdolnościami empatycznymi, których tak bardzo potrzebuje chory. Z drugiej jednak strony sztuczna inteligencja ma przewagę nad człowiekiem, bo nie ulega ludzkim słabościom: dekoncentracji, pogorszeniu pamięci, znużeniu, przemęczeniu, czy emocjom.
Czy sztuczna inteligencja może również ustalić, jakie leki powinien zażywać pacjent?
Jest to możliwe w oparciu o uprzednią analizę stanu jego zdrowia. Wiąże się to z dwuetapowym działaniem AI, w tym z koniecznością dokonania oceny stanu zdrowia chorego i następczym wyborem produktów leczniczych w zależności od zmiennych wyjściowych. Mogłoby być to stosowane zarówno w odniesieniu do osób leczonych z powodu chorób przewlekłych, jak i mających incydentalny kontakt z opieką medyczną. W tym kontekście koniecznym jest wskazanie prawnych podstaw umożliwiających dokonanie oceny stanu zdrowia i postawienia rozpoznania przez sztuczną inteligencję. Pełna automatyzacja świadczenia w czasie rzeczywistym - tj. wykonanie go bez udziału personelu medycznego na wszystkich etapach, począwszy od oceny stanu zdrowia, a skończywszy na wyborze produktów leczniczych, wymaga oceny aktualnych i możliwych rozwiązań prawnych zarówno w obszarze prawa medycznego, jak i farmaceutycznego, a także dziedzin pokrewnych.
Czytaj także: Technologia coraz bardziej obecna w pracy prawników>>
W jakich przypadkach może mieć jeszcze zastosowanie sztuczna inteligencja?
Można wykorzystać ją na etapie podejmowania decyzji o wstępnej kwalifikacji do procedur medycznych. Przykładem może być kwalifikacja potencjalnych dawców przeszczepu ex vivo (np. szpiku kostnego), decyzja o zabezpieczenia komórek rozrodczych i zainicjowaniu procedury sztucznie wspomaganej prokreacji. Bardzo ważnym jest również fakt, że dzięki AI, lekarze mogą otrzymać wsparcie umożliwiające wykrycie choroby we wczesnej fazie jej rozwoju, co ma pierwszorzędne znaczenie. Dotyczy to m.in. diagnozowania kardiologicznego, onkologicznego, leczenia psychiatrycznego a także np. precyzyjności zabiegów chirurgicznych. Poza tym, co jeszcze kilka lat temu wydawało się zupełną abstrakcją, AI może sterować dronami, które już teraz wykorzystane są do transportu próbek materiałów biologicznych, szczepionek, leków. Pierwszy lot testowy drona, bez wzrokowego udziału operatora, odbył się w Warszawie w listopadzie tego roku. Może kolejnym krokiem jest wyeliminowanie udziału człowieka, przeniesienia transportu medycznego w przestrzeń powietrzną i powierzenie jego obsługi sztucznej inteligencji?
Kto w sensie prawnym odpowiada za sztuczna inteligencję - ona sama, czy ktoś, kto opracował jej algorytm uczenia się?
Analizując aspekt prawny należy rozpocząć od stwierdzenia, że na gruncie polskiego prawa nie zdefiniowano pojęcia sztucznej inteligencji. Zwrot ten pojawia się m.in. w ustawie z 17 stycznia 2019 roku o Fundacji Platforma Przemysłu Przyszłości (Dz.U.2019.229), a także w rozporządzeniu Rady Ministrów z 7 czerwca 2017 r. w sprawie nadania Naukowej i Akademickiej Sieci Komputerowej statusu państwowego instytutu badawczego (Dz.U.2017.1193).
Definicji jednak nie ma, dlatego nie jest oczywiste, czy sztuczną inteligencję należy traktować jako zwierzę, rzecz, czy nieokreślony bliżej byt. Budowa przepisów prawa nawiązujących do wykorzystania sztucznej inteligencji w krajach europejskich zmierza do wypracowania wspólnych ram odniesienia, w oparciu o które w obszarze ochrony zdrowia mogłaby ona funkcjonować na zunifikowanych zasadach.
Realizacja zamierzonych celów wpisuje się w polską politykę rozwoju AI na lata 2019-2027 oraz założenia Białej Księgi Komisji Europejskiej z 19 lutego 2020 roku. W sensie prawnym najwięcej wątpliwości budzi odpowiedzialność sztucznej inteligencji. Kto za nią odpowiada? Pojawiły się już koncepcje trzeciej osobowości prawnej - tj. obok osób fizycznych i osób prawnych wyróżniania jest również koncepcja osób elektronicznych (robotów sterowanych przez AI). W Rezolucji Parlamentu Europejskiego z 16 lutego 2017 roku pojawiła się koncepcja „nadania robotom specjalnego statusu prawnego w perspektywie długoterminowej” oraz stosowanie osobowości elektronicznej w przypadku podejmowania przez roboty autonomicznej decyzji lub ich niezależnych interakcji z osobami trzecimi”. Oznacza to potencjalne powołanie nowej kategorii prawnej, odmiennej od osób fizycznych, osób prawnych czy ułomnych osób prawnych – „osób elektronicznych”. W trend upodmiotowiania wpisuje się nadanie przez Arabię Saudyjską w październiku 2017 roku, obywatelstwa robotowi Sofia. Ale jak nie upodmiotowić robota, który dokonuje oceny i uczy się w sposób, który pozwala mu być mądrzejszym wraz z upływem czasu? To co jeszcze nie tak dawno wydawało się wyłącznie sceną z kongresu futurologicznego Stanisława Lema, stało się obecnie rzeczywistością.
Kto ponosi odpowiedzialność za autonomiczną decyzję robota podjętą w wyniku procesu uczenia się?
Jeśli nauczymy czegoś maszynę, to uzyska ona możliwość podejmowania decyzji. W przypadku stworzenia błędnego algorytmu uczenia, odpowiedzialność za szkody wyrządzone przez AI będzie ponosił twórca kodu źródłowego. Ale pozostaje jeszcze kwestia niepoczytalności sztucznej inteligencji, czyli sytuacji, w której dojdzie do ataku hakerskiego na jej zasoby. Zewnętrzne zakłócenie algorytmów AI spowoduje, że podejmie ona niewłaściwą decyzję mimo, że nauczyła się czegoś zupełnie odmiennego. Z punktu widzenia prawa, moglibyśmy przyjąć, że w takiej sytuacji AI jest niepoczytalna, a tym samym nie ponosi odpowiedzialności za negatywne skutki swoich działań. Żeby jednak przyjąć, że AI była niepoczytalna musielibyśmy najpierw uznać jej podmiotowość.
Jakie widzi pani perspektywy rozwoju AI medycznej na świecie i w Polsce?
Wszystko zależy od zmiany nastawienia do wykorzystywania AI w medycynie na co dzień. Nie tak dawno nie wyobrażaliśmy sobie pobierania świadczeń udzielnych z wykorzystaniem teleinformatycznych środków przekazu, nie mówiąc już o ich realizacji za pośrednictwem AI. Być może pandemia spowoduje, że nie będziemy mieli innego wyjścia i rozwiązania z AI w roli głównej wejdą do codziennego scenariusza świadczeń medycznych. Należy jednak pamiętać, że tak jak wszystko AI ma również swoją ciemną stronę. Stewen Hawking mawiał, że sztuczna inteligencja będzie sobie świetni radziła z osiąganiem celów, ale jeśli nie będą one spójne z naszymi – wtedy pojawi się prawdziwy problem. Pozostaje zatem wierzyć, że AI będzie wielkim osiągnięciem ludzkości, a nie jej problemem.