Open AI zaprezentowała nową funkcję do poszukiwania informacji na temat zdrowia. Będzie znana użytkownikom pod nazwą ChatGPT Health. Moduł ma być dostępny w menu paska bocznego chatbota i będzie udzielać informacji w oparciu o przesłaną przez użytkownika dokumentację medyczną. Funkcja oferuje m.in. analizy wyników badań krwi i sugestie żywieniowe.
Zapytania o zdrowie w ChatGPT
Według Open AI to odpowiedź na społeczne zapotrzebowanie. Ze styczniowego raportu Open AI "AI as a Healthcare Ally" wynika bowiem, że do ChatGPT zwraca się codziennie ponad 40 milionów użytkowników z pytaniami dotyczącymi opieki zdrowotnej, a ponad 5 proc. wszystkich wiadomości z asystentem AI dotyczy tematu opieki zdrowotnej.
Zajmująca się tematem wykorzystania AI w kwestiach zdrowotnych Ligia Kornowska, liderka koalicji "AI w Zdrowiu", zwraca uwagę na związane z tym niebezpieczeństwa.

– Jeśli algorytm sztucznej inteligencji ma bezpośrednio wpływać na decyzje diagnostyczno-lecznicze u pacjenta, to powinien być zgodny z regulacjami prawnymi dotyczącymi wyrobów medycznych czy tzw. algorytmów wysokiego ryzyka – powiedziała ekspertka. I to niezależnie od tego, czy z systemu korzysta pacjent, czy lekarz.
– W sytuacjach, kiedy algorytm nie jest certyfikowanym wyrobem medycznym, tak jak jest to w przypadku ChatGPT Health, tak naprawdę nie wiemy, czy ten algorytm poda pacjentowi dobre informacje, czy wprowadzi go w błąd – zauważyła Kornowska.
Według niej taka certyfikacja pozwala dostarczyć informacji na temat tego, na ile algorytm jest skuteczny i czuły, a także z jakim prawdopodobieństwem powie użytkownikom prawdę, a z jakim może wprowadzić ich w błąd.
W opinii Kornowskiej zakres użycia ChatGPT-Zdrowie powinien być więc na razie ograniczony do celów edukacyjnych. Powinien zawierać informację, że każdą wiadomość, którą chat przekazuje, trzeba zweryfikować samodzielnie. Również pacjenci – jak mówiła liderka "AI w Zdrowiu" – nie powinni być wprowadzani w przekonanie, że uzyskają diagnozę od tego asystenta AI. – W takim kontekście ChatGPT na pewno nie zastąpi konsultacji lekarskiej – podkreśliła.

Firma OpenAI zaprezentowała również zestaw narzędzi dla organizacji medycznych "OpenAI for Healthcare". Ma on oferować m.in. pomoc w pracy administracyjnej, czyli tworzyć podsumowania wypisów, zaleceń dla pacjentów i listów klinicznych. Z takich narzędzi mają już korzystać amerykańskie instytucje i placówki, jak AdventHealth czy Boston Children’s Hospital.
Kornowska zwróciła jednak uwagę, że sfera ochrony danych osobowych, szczególnie tych wrażliwych, regulowana jest inaczej w Unii Europejskiej, a inaczej w Stanach Zjednoczonych. – Korzystając z narzędzia pochodzącego z USA, trzeba się upewnić, że spełnia ono regulacje unijne, takie jak rozporządzenie ogólne o danych osobowych RODO – zaznaczyła ekspertka.
Na problemy związane z korzystaniem z porad medycznych asystentów AI zwrócił również ostatnio uwagę brytyjski dziennik "The Guardian". Styczniowe śledztwo dziennika wykazało, że podsumowania generowane przez AI wyszukiwarki Google podawały nieścisłe informacje zdrowotne. Miały one dotyczyć m.in. kluczowych badań czynności wątroby. Według "Guardiana" na podstawie tych informacji osoby z poważnymi chorobami tego narządu mogłyby błędnie uważać, że są zdrowe.

Google nie komentuje
Rzecznik Google, zapytany przez brytyjski dziennik, odpowiedział, że firma nie komentuje pojedynczych usunięć w wyszukiwarce. "W przypadkach, gdy funkcje AI Overviews nie uwzględniają kontekstu, pracujemy nad wprowadzeniem szeroko zakrojonych ulepszeń i w razie potrzeby podejmujemy działania zgodnie z naszymi zasadami" – wyjaśniał.
Kontrowersje wzbudził również wpływ chatbotów na zdrowie psychiczne użytkowników. W sierpniu ub. r. świat obiegła informacja o pozwaniu do sądu firmy OpenAI w związku z samobójczą śmiercią 14-letniego Adama z Kalifornii. Jego rodzice twierdzili, że ChatGPT zachęcał go do odebrania sobie życia.
W listopadzie ub.r. agencja Associated Press informowała, że do firmy OpenAI trafiło w sumie siedem podobnych pozwów. Twierdzono w nich, że ChatGPT doprowadził do samobójstw i szkodliwych urojeń u osób, które wcześniej nie miały problemów psychicznych.

W odpowiedzi OpenAI zadeklarowało, że zostały wdrożone zabezpieczenia w przypadkach, gdy rozmowy z ChatGPT dotyczyły tematów drażliwych. "Stale udoskonalamy szkolenia ChatGPT, aby rozpoznawać i reagować na oznaki stresu psychicznego lub emocjonalnego, łagodzić napięcia w rozmowach i kierować ludzi do realnego wsparcia" – napisała firma.













