Jak twierdzą autorzy listu opublikowanego na stronach ośrodka Future of Life Institute, zaawansowana sztuczna inteligencja może stanowić "głęboką zmianę w historii życia na Ziemi" i do jej rozwoju powinno się podchodzić z ostrożnością.
##NEWS https://www.wirtualnemedia.pl/chatgpt-zarty-naukowcy-raport-brak-do-smiechu,7169672979945089a ##
- Niestety, do tego poziomu planowania i zarządzania nie dochodzi, mimo że w ostatnich miesiącach widzieliśmy laboratoria AI zaangażowane w niekontrolowany wyścig, by rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt - w tym nawet ich twórcy - nie potrafi zrozumieć, przewidzieć, czy porządnie kontrolować - czytamy w liście.
Ostrzeżenie przed skutkami AI bez kontroli
Pismo ostrzega, że niekontrolowane podejście do rozwoju AI grozi zalewem dezinformacji, masową automatyzacją pracy, a nawet zastąpieniem ludzi przez maszyny i "utratą kontroli nad cywilizacją".

- Silne systemy AI powinny być rozwijane dopiero kiedy będziemy pewni, że ich efekty będą pozytywne, a ich ryzyka możliwe do kontrolowania - uważają autorzy.
Wzywają przy tym do sześciomiesięcznej przerwy w trenowaniu systemów przewyższających wypuszczony niedawno przez firmę OpenAI GPT-4, który m.in. zdolny jest do zdawania testów różnego rodzaju na poziomie zbliżonym do najlepszych zdających ludzi. Apelują też o wdrożenie kompleksowych rządowych regulacji i nadzoru nad nowymi modelami.
##NEWS https://www.wirtualnemedia.pl/google-bard-jak-dziala-chatbot-lamda,7169671434250369a ##
Wśród sygnatariuszy listu jest m.in. miliarder Elon Musk, współzałożyciel firmy Apple Steve Wozniak, szef Stability AI Emad Mostaque (producenta generatora obrazów Stable Diffusion) oraz badacze sztucznej inteligencji z uniwersytetów Stanforda, Massachusetts Institute of Technology (MIT) i innych uczelni i laboratoriów AI.











