Poprawiają ChatGPT. Lepiej zadba o twój dobrostan psychiczny

Asystentom AI, w tym ChatGPT od OpenAI, ufamy coraz bardziej. Pytamy ich o bardzo intymne i złożone aspekty naszego życia. Jednak asystenci nie zawsze są w stanie sobie poradzić z meandrami ludzkiej psychiki i udzielić prawidłowej odpowiedzi. Z tym właśnie problemem postanowił się zmierzyć OpenAI wprowadzając zmiany do swojej głównej usługi jaką jest ChatGPT.

Artur Roguski
Artur Roguski
Udostępnij artykuł:
Poprawiają ChatGPT. Lepiej zadba o twój dobrostan psychiczny
Foto: unsplash.com

Ciężko jest dopasować modele AI do użytkowników. Czasami są zbyt uległe i bezpieczne, a czasami są zbyt bezpośrednie jak to miało miejsce w przypadku aktualizacji Groka 3. Z każdym miesiącem coraz dłuższa robi się lista badań, które pokazują negatywny wpływ korzystania z AI na społeczeństwo. Mimo to rośnie liczba osób, które świadomie bądź nie, traktuje asystentów jak psychologów, psychiatrów  powierzając im swoje zdrowie bądź zdrowie swoich bliskich.

Sztuczna inteligencja nie jest dobrym psychologiem

I jeszcze długo nim nie będzie. Ma problemy z rozpoznaniem kontekstu wypowiedzi, a co ważniejsze nie jest w stanie zbudować zdrowej relacji człowiekiem. Mimo to wybieramy chociażby ChatGPT, zamiast wizyty u specjalisty, bo jest taniej, szybciej, towarzyszy temu mniejszy stres, a sama usługa ma większą dostępność. Problem jest na tyle poważny, że OpenAI postanowiło działać i zmodyfikować swoją flagową usługę, tak aby poprawiała nasz dobrostan psychiczny i przynajmniej nie pogłębiała chorób, z którymi musimy się zmagać każdego dnia.

Oświadczenie OpenAI, które ciężko się czyta

Zmiany i modyfikacje zostały ogłoszone na oficjalnej stronie firmy na początku sierpnia. Może to z mojej strony trącić hipokryzją, ale to oświadczenie z wyjaśnieniami nie brzmi dobrze. Jakbym czytał pracę zaliczeniową swojego studenta w 2023 roku napisaną przez ChatGPT, a potem jeszcze nie do końca poprawnie przetłumaczoną na język polski. Nie będę się pastwił już nad formą, ale mam pewien niedosyt i czuje rozczarowanie. Tak zaawansowane narzędzie jak ChatGPT nie potrafi napisać sprawnie prostego tekstu, więc jak ma zadbać o zdrowie psychiczne swoich użytkowników? 

OpenAI zapewnia, że pracuje nad trzema zmianami. Pierwsza jest dosyć tajemnicza, ale wydaje się, że chodzi o lepsze rozpoznawanie użytkowników, którzy przejawiają problemy w sferze mentalnej. Brzmi to tak: 

„Wsparcie w trudnych chwilach. ChatGPT jest trenowany tak, aby odpowiadać z uczciwością i rzetelnością. Zdarzały się przypadki, w których nasz model 4o nie był w stanie rozpoznać oznak urojenia lub uzależnienia emocjonalnego. Choć zdarza się to rzadko, nieustannie udoskonalamy nasze modele i opracowujemy narzędzia, które mają pomóc w skuteczniejszym wykrywaniu oznak stresu psychicznego lub emocjonalnego. Dzięki temu ChatGPT może odpowiednio reagować i w razie potrzeby wskazywać użytkownikom zasoby oparte na dowodach.”

Na szczęście druga zmiana jest oczywista i polega na zwracaniu użytkownikom uwagi, gdy za długo i zbyt intensywnie korzystają z ChatGPT.

Trzecia zmiana dotyczy rozwiązywania problemów osobistych takich jak „czy mam zerwać ze swoim chłopakiem”. ChatGPT raczej na takie i podobne pytania nie będzie udzielał odpowiedzi. W zamian będzie pomagał przemyśleć kwestie osobiste i razem z użytkownikiem przeanalizować wszelkie argumenty za i przeciw. 

OpenAI ze wsparciem specjalistów

W oświadczeniu zapowiedziano też współpracę z 90 lekarzami z 30 krajów z różnych dziedzin. Poza tym OpenAI będzie współpracował z ekspertami zajmującymi się interakcjami na linii człowiek-komputer oraz zwoła grupę badawczą złożoną ze specjalistów różnych dziedzin. Niestety zabrakło konkretów w postaci nazwisk lekarzy czy specjalistów, ich doświadczenia, zadań, których się podejmą czy sposobu, w jaki sposób będzie działała grupa doradcza.

Wyzwania, z którymi mierzy się nie tylko OpenAI, ale też inne firmy rozwijające asystentów AI, są bardzo trudne w realizacji. Głównie dlatego, że do tej pory jeszcze nie zgłębiliśmy wszystkich sekretów naszej biologii i psychiki, więc ciężko myśleć w tym przypadku o dograniu ich z dynamicznie rozwijającą się sztuczną inteligencją. Podobnie jak w przypadku mediów społecznościowych na szali tego wyzwania leży zdrowie i dobrostan psychiczny milionów ludzi. Nie wyobrażam sobie też sytuacji, w której big techy nie biorą pełnej odpowiedzialności za nietrafione czy szkodliwe „porady”, których udziela rozwijana przez nich sztuczna inteligencja.

PRACA.WIRTUALNEMEDIA.PL

NAJNOWSZE WIADOMOŚCI

KRRiT przedłuża koncesje. Chodzi m.in. o stacje Polsatu i Canal+

KRRiT przedłuża koncesje. Chodzi m.in. o stacje Polsatu i Canal+

Polsat Box udostępnił za darmo wiele kanałów

Polsat Box udostępnił za darmo wiele kanałów

Współpracownica Agory bez pieniędzy po porodzie? Firma odpowiada "Solidarności"

Współpracownica Agory bez pieniędzy po porodzie? Firma odpowiada "Solidarności"

KRRiT zaakceptowała plany mediów publicznych. Co z likwidacją kanałów TVP?

KRRiT zaakceptowała plany mediów publicznych. Co z likwidacją kanałów TVP?

Dwa nowe tytuły w ofercie InPostu. Zamówisz je do Paczkomatu

Dwa nowe tytuły w ofercie InPostu. Zamówisz je do Paczkomatu

Nowa prezeska wydawcy "Pisma"

Nowa prezeska wydawcy "Pisma"