SzukajSzukaj
dołącz do nasFacebookGoogleLinkedinTwitter

Nie wiadomo, kto ponosi odpowiedzialność za błędy sztucznej inteligencji

Jednym z wyzwań korzystania ze sztucznej inteligencji (AI) w medycynie jest brak regulacji prawnych. Może to spowodować szereg problemów - powiedziała PAP prof. Justyna Król-Całkowska, Kierownik Katedry Prawa Międzynarodowego i Europejskiego Uczelni Łazarskiego w Warszawie, członek Rady Ekspertów przy Rzeczniku Praw Pacjenta.

Sztuczna inteligencja ma szerokie zastosowanie w medycynie. Może być efektywnym sposobem na przyspieszenie i usprawnienie procesu rozpoznania chorób oraz na podniesienie jakości opieki medycznej. Pojawia się jednak problem - "kwestie dotyczące sztucznej inteligencji w polskim prawie nie są w ogóle uregulowane" - powiedziała PAP prof. Justyna Król-Całkowska.

"To jest podstawowy problem, ponieważ my czerpiemy z "regulacji unijnych", natomiast nie mamy regulacji, które bezpośrednio odnosiłyby się do sztucznej inteligencji i do błędów, jakie wyniknęły podczas jej działania" - zaznaczyła.

Sztuczna inteligencja w w medycynie

W medycynie, jak powiedziała ekspertka, ze sztuczną inteligencją mamy do czynienia wtedy, kiedy złożony algorytm, podobny do sieci neuronowych człowieka, jest w stanie podjąć indywidualną decyzję w oparciu o zmienne, które mu dostarczono. Znajduje ona zastosowanie przede wszystkim w diagnostyce - zwłaszcza w diagnostyce obrazowej. "Program sztucznej inteligencji obrazuje np. zdjęcia RTG i w oparciu o dane, czyli to, czego się nauczył, stwierdza, czy obraz jest prawidłowy czy patologiczny" - wytłumaczyła profesor. Ponadto AI stosowana jest także w radiologii, psychiatrii, dermatologii czy diagnostyce nowotworów.

Zawód lekarza jest obarczony dużą odpowiedzialnością, ale co, jeśli to sztuczna inteligencja popełni błąd? "Możemy przyjąć, że musimy obarczyć odpowiedzialnością osobę, która programuje tę sztuczną inteligencję i nie przewidziała, że w oparciu o zmienne, których będzie się jej dostarczać, będzie ona mogła podjąć złą decyzję" - stwierdziła ekspertka. Z drugiej strony, odpowiedzialność operatora, który dokonał zaprogramowania, wydaje się jej nad wyraz szeroka. AI jest tworzona po to, aby podejmować autonomiczne decyzje, co w oczywisty sposób wiąże się pewnym z ryzykiem. Drugą koncepcją jest przypisywanie odpowiedzialności za błędy użytkownikowi AI, ale to z kolei ograniczy poziom zaufania i chęć korzystania ze sztucznej inteligencji w opiece zdrowotnej.

"Trudno jest dzisiaj powiedzieć, kto ostatecznie ponosi odpowiedzialność i która z tych koncepcji jest optymalna" - stwierdziła Król-Całkowska. Wiadomo natomiast, że prawo jest jednym z narzędzi, które zapewni, że odpowiedzialność istnieje. Dodatkowo może ograniczyć lęk, zarówno lekarzy jak i pacjentów, przed używaniem AI.

Brak regulacji prawnych

Polska nie jest jedynym krajem, który nie ma indywidualnych regulacji prawnych w zakresie sztucznej inteligencji. Kraje członkowskie Unii Europejskiej mierzą się z tym samym problemem. Proponowane są rozwiązania, szczególnie w rozporządzeniu parlamentu europejskiego, "ale co z tego, że są one proponowane i niektóre są naprawdę całkiem dobre, skoro nie są implementowane do porządków prawnych poszczególnych państw" - zauważyła profesor.

Zaufanie do sztucznej inteligencji jest jeszcze ograniczone, "ponieważ z jednej strony bardzo dużo się mówi o AI, a z drugiej - kompletnie nie wiadomo, co i jak ją reguluje" - zaznaczyła ekspertka. Dodatkowo ludzie obawiają się braku udziału człowieka w leczeniu, gdyż to jego uważają za mniej omylnego. Zdaniem Król-Całkowskiej jest to złudne przekonanie. Przeprowadzone badania pokazały, że przeciętny, młody radiolog myli się trzykrotnie częściej, niż algorytm sztucznej inteligencji, który uczył się tylko przez dwa miesiące. "Regulacje prawne dadzą poczucie stabilności ludziom, którzy będą korzystać z AI" - dodała.

"Po stronie pacjentów ten lęk nie powinien istnieć, ale lekarze czy personel medyczny powinien tę obawę mieć, ponieważ jeśli sztuczna inteligencja popełni błąd, a jednocześnie nie dojdzie do ostatecznego zweryfikowania przez człowieka - można mówić o niedołożeniu należytej staranności, a to jest podstawa odpowiedzialności w prawie medycznym" - podsumowała.

Kiedy więc można spodziewać się zmian w prawie? Zdaniem prof. Justyny Król-Całkowskiej dopiero wtedy, kiedy błędy staną się zauważalne i problematyczne. "Ludzie najczęściej reagują, gdy coś się wydarzy. Wprowadzają regulacje wtedy, kiedy już z czymś jest problem i - niestety - myślę, że tak będzie w przypadku sztucznej inteligencji" - stwierdziła. Sposobem, aby nie doszło do tragedii jest zaproponowanie jednoznacznych, krajowych regulacji, które będą dotyczyły odpowiedzialności za działania AI. "Bez tego może dojść do sytuacji, w której zareagujemy zbyt późno" - zaznaczyła.

"My już wiemy, co może się może stać i odwlekanie w czasie wprowadzenia regulacji jest ogromnym błędem" - ostrzegła ekspertka.

Dołącz do dyskusji: Nie wiadomo, kto ponosi odpowiedzialność za błędy sztucznej inteligencji

4 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiekz postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
drizzly
Właściciel majątkowo.
W przypadku korporacji, CEO i CTO majątkowo i osobiście,.
Innej opcji nie ma.

Nie ma za co!
odpowiedź
User
Sztuczna Inteligencja
SOR, XXIw..
Pacjent oddziału psychiatrycznego
Problem: przeciwnik dobrodziejstwa – polityki obecnego ustawodawcy
Zalecenie: pobrać narządy, zakuć w egzoszkielet i słuchawki, podłączyć do drukarki i komputera
Lekarz przyjmujący: Bio Rca Na Ha Ju, bez odpowiedzialności
odpowiedź
User
Psor
Od tego roku na medycynę rekrutowana będzie sztuczna inteligencja.
odpowiedź