SzukajSzukaj
dołącz do nasFacebookGoogleLinkedinTwitter

Moralna sztuczna inteligencja odległa. "Nadal nie ma samoświadomości"

Tworzenie moralnej sztucznej inteligencji jest nadal odległą wizją, bo wciąż nie ma ona samoświadomości - zauważył w rozmowie z  ekspert grupy roboczej ds. sztucznej inteligencji przy Kancelarii Prezesa Rady Ministrów Maciej Chojnowski.

Wraz z gwałtownym rozwojem sztucznej inteligencji (SI) w ostatnich latach, eksperci i naukowcy zwracają uwagę na problemy etyczne związane z jej użytkowaniem. Dlatego coraz częściej dyskutuje się na temat wprowadzenia odpowiednich wytycznych.

"Nie jest możliwe nauczenie sztucznej inteligencji zachowań etycznych i moralności, bo ciągle nie jest ona samoświadoma. Nadal nam do tego momentu daleko - to jest science-fiction" - ocenił w rozmowie z PAP dyrektor programowy i współtwórca Centrum Etyki Technologii w Instytucie Humanites oraz członek grupy roboczej ds. sztucznej inteligencji przy KPRM, Maciej Chojnowski.

"Dlatego, gdy mówimy o etyce sztucznej inteligencji, należy pamiętać o tym, że nie mamy na myśli zaprogramowania etyki w maszynach czy wyposażenia robotów w moralność, ale stworzenie takich reguł, takich wskazówek, które pozwoliłyby osobom rozwijającym te systemy robić to w sposób odpowiedzialny" - dodał Chojnowski.

Ekspert zwrócił uwagę na to, że istnieje ścisły związek między etyką a prawem dotyczącym SI. "Ważną rolą etyki sztucznej inteligencji będzie dostarczanie konkretnych narzędzi umożliwiających realizację wymogów zapisanych w prawie" - zaznaczył Chojnowski.

Zapytany o to, czy w Europie obowiązują jakieś regulacje dotyczące SI, zwrócił uwagę na przykład na RODO - Ogólne rozporządzenie o ochronie danych.

"RODO może dotyczyć także SI, bo korzysta ona z dużych zbiorów danych. To podstawa uczenia maszynowego, które jest dominującą formą współczesnej SI" - zauważył.

Chojnowski powiedział, że zasadniczym aktem prawnym, który będzie dotyczył SI będzie AI Act (z ang. Artificial Intelligence). To rozporządzenie o sztucznej inteligencji zostało zaproponowane przez Komisję Europejską w kwietniu 2021 r. Chodzi o stworzenie wspólnych ram regulacyjnych i prawnych dla sztucznej inteligencji. Swoim zakresem obejmuje wszystkie sektory (z wyjątkiem wojska) i wszystkie rodzaje sztucznej inteligencji.

Projekt KE ma być odpowiedzią na ryzyka generowane przez określone zastosowania sztucznej inteligencji za pomocą zestawu uzupełniających się, proporcjonalnych i elastycznych przepisów. Zaproponowane ramy prawne dotyczące sztucznej inteligencji proponują podejście oparte na czterech różnych poziomach ryzyka: ryzyko niedopuszczalne, ryzyko wysokie, ryzyko ograniczone i ryzyko minimalne.

"Okazało się, że zapisy w tym dokumencie należy zmodyfikować w związku z szybkim postępem prac nad SI i pojawieniem się SI ogólnego zastosowania (ang. general purpose AI), jak np. Chat GPT. Ze względu na wielorakie, trudne do przewidzenia zastosowania, może być to narzędzie niebezpieczne" - zaznaczył Chojnowski. Chat GPT opracowała amerykańska firma OpenAI. Służy m.in. do tworzenia odpowiedzi na pytanie lub polecenia wprowadzane przez użytkownika. Potrafi też wykonać bardziej złożone zadania, na przykład napisać opowiadanie lub fragment kodu, czyli programu.

Ekspert zapytany o prace w interdyscyplinarnym gronie ekspertów działającym w ramach grupy roboczej ds. sztucznej inteligencji przy KPRM w zakresie etyki powiedział, że są one zgodne z koncepcją SI godnej zaufania (ang. Trustworthy AI). Wypracowała ją grupa robocza powołana przez Komisję Europejską. Wśród wytycznych napisano, że systemy SI należy opracowywać, wdrażać i wykorzystywać w sposób zgodny z następującymi zasadami etycznymi: poszanowaniem autonomii człowieka, zapobieganiem szkodom, zapewnieniem sprawiedliwości i możliwości wyjaśnienia ich działania.

"Pracujemy m.in. nad rekomendacjami dotyczącymi etycznego zastosowania AI w sektorze publicznym, by korzystano z tego typu narzędzi w sposób świadomy i odpowiedzialny" - podkreślił.

Zwrócił uwagę na to, że zgodnie z polityką rozwoju SI w Polsce, sektor publiczny ma do odegrania w dziedzinie wdrażania SI rolę wzorcotwórczą.

"Właśnie podsumowujemy nasze prace i rozpoczynamy przygotowywanie raportu, który będzie zawierał zarys podstawowych problemów. Będą tam opisane narzędzia i wskazania" - zapewnił.

Dodał, że w przypadku wytycznych z zakresu etyki chodzi m.in. o zapewnienie przewodniej i nadzorczej roli człowieka w przypadku systemów SI. "Człowiek nie może zostać zdominowany przez maszyny, musi móc nimi ostatecznie zarządzać" - wyjaśnił.

Szef Google ostrzega

Nie tylko w Europie eksperci zastanawiają się nad kontrolą SI. Szef Google Sundar Pichai przyznał w wywiadzie udzielonym w kwietniu telewizji CBS, że pożądane byłoby stworzenia dla SI globalnych ram regulacyjnych, podobnych do Układu o nierozprzestrzenianiu broni jądrowej. Chojnowski komentując tę wypowiedź stwierdził: "Poszczególne jurysdykcje będą tworzyć swoje rozwiązania. Uważam, że Europa ma do odegrania rolę pioniera, który wytyczy szlaki dla innych".

Dołącz do dyskusji: Moralna sztuczna inteligencja odległa. "Nadal nie ma samoświadomości"

0 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiekz postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl