"Umiejętności Jutra: AI" to bezpłatny program szkoleniowy Google, realizowany we współpracy z SGH Szkołą Główną Handlową w Warszawie, która jest współodpowiedzialna za część merytoryczną kursu. Kurs kierowany jest do właścicieli i pracowników małych oraz średnich przedsiębiorstw, studentów oraz ekspertów, którzy chcą rozwinąć swoją wiedzę na temat sztucznej inteligencji.
W dwóch edycjach szkolenia wzięło udział około 60 tysięcy uczestników, choć zainteresowanych było niemal dwa razy tyle. Obecna edycja "Umiejętności Jutra: AI" to pięć tygodni intensywnej nauki (25 kursów, w tym 19 obowiązkowych), zwieńczonej egzaminem.

Dziennikarka krytycznie o kursie Google i SGH. "Etyka, prywatność, bezpieczeństwo – kwiatkiem do kożucha"
Program "Umiejętności Jutra: AI" ma w sieci i mediach społecznościowych wielu zwolenników i zadowolonych uczestników, którzy chętnie dzielą się zdobytym certyfikatem. Obok pochwał pojawiają się i głosy krytyczne.
W negatywnym tonie o kursie wypowiedziała się w mediach społecznościowych Gosia Fraser, dziennikarka zajmująca się tematyką technologiczną m.in. w redakcjach PAP, następnie CyberDefence. Obecnie prowadzi niezależną działalność dziennikarską, jest autorką podcastu o filozofii technologii Techspresso.cafe.
Fraser była uczestniczką tegorocznej edycji kursu. "Kwestie prywatności i bezpieczeństwa oraz etyka, są kwiatkiem do kożucha" – pisze dziennikarka.
Jeden z "wykładowców" bez mrugnięcia okiem pokazywał, jak generuje się naturalistycznie wyglądające wideo i zachęcał, aby treści tego typu wykorzystywać do marketingu (…). Podczas "wykładu" nie było nawet jednego zawahania nad tym, czy to etyczne czy nie - było za to bardzo dużo zachęt, aby generować treści na media społecznościowe, bo dzisiaj coraz trudniej przyciągnąć uwagę ludzi, a AI pozwala to skutecznie i niskim kosztem" – opisuje Gosia Fraser.

Dziennikarce zabrakło także ostrzeżeń "by do LLM-ów nie ładować wrażliwych danych, aby nie przekazywać im prywatnych informacji" a wręcz "zachęcano" by z produktem Gemini "rozwiązywać problemy w swojej firmie lub organizacji" – wynika z wpisu twórczyni Techspresso.cafe.
"Uczy się zatem korzystania z produktu bez informowania o tym, że ten produkt może naprawdę wywoływać w długiej perspektywie szkody dla użytkowników" - oceniała Gosia Fraser.
Według dziennikarki od lat zajmującej się tematyką nowych technologii, w jej krytyce nie chodzi o to, by odrzucać narzędzia AI jako takie. "Twierdzę, że Google hoduje sobie tym kursem wyznawców, kolonizuje sferę umiejętności w zakresie korzystania z AI, a dodatkowo robi to tak skutecznie, że mogłoby zwolnić cały dział marketingu w Polsce".

"Twierdzę też, że dziś dla firm technologicznych największym zagrożeniem są ludzie informujący o ryzyku związanym z ich technologiami i produktami, ani nie ci, którzy piszą o lobbingu i wałach prawnych" – podsumowuje we wpisie Gosia Fraser.
Fraser: odpowiedzialność za produkty AI spychana całkowicie na użytkownika
Gosia Fraser w rozmowie z Wirtualnemedia.pl przyznaje, że na kurs "Umiejętności Jutra" Google i SGH zapisała się, wiedziona dziennikarską ciekawością.
– Nie chodziło mi o to, by go ukończyć ani zdobyć certyfikat, lecz żeby zobaczyć, czego Big Tech, który szumnie chwali się inwestowaniem 5 milionów dolarów w cyfrową edukację Polaków, chce nas nauczyć. Nie ma zbyt wielu szeroko zakrojonych programów, które pomagałyby Polakom podnosić kwalifikacje technologiczne. Kurs Google’a na tym tle się przebija, ponieważ towarzyszy mu marketing uprawiany oddolnie przez uczestników. Chciałam zobaczyć, co tam się dzieje – przyznaje dziennikarka.

Pierwsze wrażenie? – Przede wszystkim zauważyłam, że kwestia odpowiedzialności za korzystanie z tych narzędzi, za bezpieczeństwo danych, jest całkowicie przerzucana na użytkownika. W części poświęconej aspektom prawnym panie związane z firmą Google oczywiście tłumaczyły, że regulamin korzystania z usługi jest zawsze rzeczą ważną i konieczną do prześledzenia. Ale umowy te są pisane bardzo skomplikowanym językiem. Użytkownik ma prawo jej nie rozumieć. Mimo tego, za skutki odpowiada tylko on, bo teoretycznie zobowiązał się do wywiązania z umowy.
W ocenie naszej rozmówczyni to klasyczny mechanizm przerzucania całej odpowiedzialności za ewentualne niepowodzenia lub problemy wynikające z wdrożenia AI na użytkownika.
– Jeśli mówimy o wdrażaniu sztucznej inteligencji w przedsiębiorstwie, bo taki jest między innymi target tego kursu, zapewne istnieje tam dział prawny, który to skonsultuje. Ale co mają powiedzieć np. ludzie prowadzący jednoosobową działalność gospodarczą? Albo osoby wdrażające narzędzia AI od Google lub innych firm na poziomie administracji samorządowej? Odpowiedzialność ma brać użytkownik, ale nie bigtech, który ten kurs organizuje – opisuje dziennikarka prowadząca projekt medialny TECHSPRESSO.CAFE.

Oczywiście pojawiał się na kursie moduł zachęcający do krytycznego myślenia –opisuje Gosia Fraser. – Jednak był jednym wielkim disclaimerem odnośnie do tego, że sztuczna inteligencja nie służy do tego, żeby wypluwać zawsze prawdziwe wyniki. Powstało założenie, że to odbiorca tych wyników ma być zdolny do przeprowadzenia ich weryfikacji.
Obok tego podczas słuchania kolejnych wykładów z kursu Gosi Fraser rzuciło się w oczy liberalne podejście niektórych wykładowców do kwestii etyki i bezpieczeństwa danych użytkowników.
– Etyka w mojej ocenie jest poruszona wyłącznie po to, aby służyła jako listek figowy. Wygłaszano ostrzeżenia w stylu: "nie kopiujmy głosu bez zgody posiadacza", "nie wgrywajmy danych wrażliwych, bo jesteśmy za to odpowiedzialni". Ale na kursie w ogóle nie wychodzimy w temat szeroko dyskutowanych zagrożeń lub etycznego użycia AI. Jeden z wykładowców nawet żartował z uczulania na temat etyki, mówiąc: "przecież państwo widzicie, że tu nie ma żadnych zagrożeń. Opowiadają wam w mediach straszne rzeczy na temat sztucznej inteligencji, a ja wam pokażę, że tu nie ma nic strasznego" – relacjonuje Gosia Fraser.

"O złych stronach AI się nie mówi"
Nasza rozmówczyni twierdzi też, że przekazywane na kursie treści w pewnych obszarach sobie zaprzeczały. Na przykład o ryzykach dzielenia się z czatbotem danymi firmy kursanci słyszeli na jednym wykładzie: "nie wpisywać wrażliwych danych na temat firmy ani tajemnic przedsiębiorstwa, bo model wykorzystujący te dane do dalszego trenowania może doprowadzić do naruszenia ich bezpieczeństwa".
Z drugiej strony, jeden z wykładowców zachęcał, aby ładować absolutnie wszystkie dane do czatbota, bo jest to genialne narzędzie, które rozwiąże wszystkie nasze problemy
Z jakimi wnioskami wyszła nasza rozmówczyni? – To jest kurs, który uczy korzystania z produktów Google’a, ale przy bardzo małej dozie przekazu na temat odpowiedzialności. Kurs, organizowany przez bigtech, który jest dysponentem bardzo popularnych produktów sztucznej inteligencji, ma na celu nauczenie odbiorców korzystania z nich i promocję ich wdrożenia. To nie jest kurs na temat etyki AI, świadomego korzystania z AI – czyli takiego obejmującego zarówno dobre, jak i złe strony tej technologii. O tych złych stronach de facto w ogóle się tutaj nie mówi – podsumowuje Gosia Fraser.

Google: do etyki podchodzimy odpowiedzialnie, uczulamy wykładowców
– Odpowiedzialne podejście do wykorzystywania narzędzi AI, w tym kwestie związane z etyką, bezpieczeństwem i prywatnością danych, są fundamentalnym i integralnym elementem naszego programu. Zagadnienia te są podnoszone przez trenerów na przestrzeni całego programu – mówi portalowi Wirtualnemedia.pl Olga Sztuba z polskiego oddziału Google.
Ekspertka podaje, że kursanci wysoko cenią zdobytą podczas programu wiedzę: jego średnia ocena wyniosła 4,9. – Z przedstawicieli firm, które rozpoczęły naukę, aż 86 proc. (17 031) zrealizowało przynajmniej jeden kurs, a 74 proc. (14 733) ukończyło cały program. Tuż po zakończeniu programu aż 71 proc. absolwentów i absolwentek deklarowało już, że wykorzystuje nowo zdobyte umiejętności w swojej codziennej pracy – informuje Olga Sztuba z Google.

Jak traktowana jest etyka i bezpieczeństwo na kursie Google o sztucznej inteligencji? Olga Sztuba mówi, że wymienione kwestie są wplecione w cały program zajęć, trudno zatem określić, ile czasu dokładnie poświęca się im na kursach.
–Wiele lekcji, które z pozoru mają charakter techniczny, zawiera osadzone w treści sekcje poświęcone ryzyku i odpowiedzialnemu wykorzystaniu AI
Przedstawicielka organizatora "Umiejętności jutra: AI" podkreśla też w rozmowie z naszym serwisem, że wszyscy wykładowcy kursu są uczulani zarówno przez Google, jak i SGH, do zwracania uwagi na kwestie etyki, bezpieczeństwa odbiorców oraz wyzwania związane z danymi wrażliwymi. Program szkoleniowy "szczegółowo omawia ryzyka i prezentuje konkretne rozwiązania technologiczne, które podnoszą poziom bezpieczeństwa".
Olga Sztuba wymienia tu choćby zagrożenia związane z halucynacjami AI, prompt injection, denial of wallet czy inne ryzyka związane z agentami AI.

– Nie odnotowaliśmy żadnych skarg na treść kursu związanych ze wspomnianymi kwestiami. Wręcz przeciwnie - spotykamy się ogromnym zainteresowaniem i wysokimi ocenami merytoryki programu, zarówno ze strony uczestników, jak i ekspertów. Sami uczestnicy dotychczas wystawili 478 949 ocen lekcji na platformie, a wszystkie lekcje uzyskały średnią ocenę 4.88 w skali od 1 do 5 – podsumowuje Olga Sztuba z Google w odpowiedzi na pytania Wirtualnemedia.pl.











