AI slopy to najprościej mówiąc, "pomyje internetu". Te wszystkie "śmieszne", a gdy głębiej o tym pomyśleć – bezużyteczne, durne do granic możliwości treści – teksty, zdjęcia i wideo, które tylko z pozoru mają nas "rozbawić", "wyluzować", "odstresować".
Częściej, nazwijmy to po imieniu, robią nam z mózgu papkę. Ich prawdziwym celem jest bowiem nakarmienie algorytmów gigantów sieci. Ich wspólny mianownik to obok miałkości, sposób kreacji – za pomocą narzędzi sztucznej inteligencji.
Do opisu tej rzeczywistości dobrze nadają się dwa pojęcia.
Pierwsze to "enshittification" – "gównowacenie" internetu i usług cyfrowych. Zjawisko opisał kanadyjski pisarz i dziennikarz Cory Doctorow. W książce Enshittification: Why Everything Suddenly Got Worse and What to Do About It opisuje, dlaczego i kto psuje jakość wszystkiego, z czym stykamy się w przestrzeni cyfrowej. Wielkie platformy zastępują treści użytkowników wspomnianą "mamałygą" ze sztucznej inteligencji.

Drugie pojęcie to objaw pierwszego "brainrot", czyli "gnicie mózgu". Uznane za słowo roku w 2024 według Oxford University Press słowo nazywa stan, w jaki wpada człowiek przesycony "pomyjami AI". Wydawca największego anglojęzycznego słownika na świecie ową "zgnilizną mózgu" nazywa pogorszenie się stanu psychicznego lub intelektualnego osoby, która w nadmiarze konsumowała miałkie treści np. z mediów społecznościowych.
Istota AI slop. Treści dla algorytmów, nie dla ludzi
– Treści AI slop zamieniły internet w fabrykę bezwartościowego contentu generowanego dla robotów Google'a, nie dla ludzi – wskazuje w rozmowie z Wirtualnemedia.pl Mateusz Solecki, CEO Przedsiębiorcze Trójmiasto, AI Business Consultant i członek AI Chamber.
– Każdy artykuł zaczyna się od "Od zarania dziejów człowiek..." zanim w końcu dojdzie do meritum - bo przecież tak kazał SeoGPT agent, ekspert od bycia w TOP10 na konkretne frazy. Wartościowe, eksperckie treści toną w oceanie generycznych materiałów pisanych przez ChatGPT za 3 centy od tysiąca słów. Ironią losu jest to, że teraz dodajemy "reddit" do każdego zapytania w Google, bo szukamy opinii prawdziwych ludzi, nie algorytmicznych halucynacji. Oczywiście AI jako "pomocnik" spełnia swoją rolę przy tworzeniu treści, będąc gigantycznym skokiem produktywności czy jakości, ale do tego nie możemy używać promptów takich jak "napisz mi artykuł na temat X" – mówi nam Solecki, specjalizujący się w sztucznej inteligencji.

Skąd w ostatnich latach ten przyrost miałkich treści? Jacek Treder, head of AI w Digitree Group, odpowiedzi każe szukać w wykładniczym tempie rozwoju technologii.
Od 2023 roku efektywność algorytmów AI wzrosła wykładniczo, a legislacja porusza się małymi kroczkami
Zdaniem naszego rozmówcy, najbardziej rozpowszechnione "slopy AI" to jednak teksty – ich jakość jest już niemal nie do odróżnienia od treści organicznych.
– W tym obszarze główną bolączkę stanowi możliwość powstania fake newsa – mówi Jacek Treder.

Na zagrożenia slopów AI związane z dezinformacją w rozmowie z Wirtualnemedia.pl zwraca uwagę Natalia Ząber, SEO content manager w Insightland.
AI slop to jedno z najpoważniejszych obecnie wyzwań dla jakości internetu. To woda na młyn dezinformacji – fałszywe treści można dziś tworzyć szybciej i taniej niż kiedykolwiek. Deepfake’i i zmanipulowane obrazy są coraz trudniejsze do odróżnienia, co sprzyja oszustwom, manipulacji opinią publiczną czy dezinformacji politycznej. Pojawia się też efekt "liar’s dividend": nawet autentyczne dowody można podważyć, twierdząc, że to dzieło AI
Jacek Treder: – O wiele łatwiejszym do dostrzeżenia jest audiowizualny AI slop, który zalewa platformy social mediowe. Algorytmy tego typu poczyniły ogromne postępy w jakości swoich produkcji, ale nadal dość szybko zauważyć można sztuczność ich wytworów. Profile oparte o generowane grafiki powstają niczym grzyby po deszczu i zacierają granice tego co realne w sieci. W efekcie można zaobserwować trend zamykania kont społecznościowych i wzrost takich ruchów jak "digital detox".
AI slop szkodzi nie tylko na mózg
Nie tylko nasz dobrostan emocjonalny i duchowy może ucierpieć z powodu kontaktów z "pomyjami AI". Jak wskazuje Przemysław Barankiewicz, szef Finax na Polskę (specjalizuje się w doradztwie finansowym), slopy generowane w narzędziach sztucznej inteligencji mogą powodować poważne szkody w inwestycjach.

AI slop staje się jednak realnym zagrożeniem dla inwestorów, zwłaszcza początkujących. Coraz częściej obserwujemy sztucznie podbijane narracje rynkowe, fałszywe prognozy czy wręcz scamowe projekty inwestycyjne wspierane generatywnym contentem
Klasycznym przykładem są kryptowaluty – dodaje ekspert: artykuły i filmy obiecujące "pewne zyski" czy "kolejnego bitcoina" powstają masowo za sprawą algorytmów i w krótkim czasie zdobywają popularność, wywierając presję na inwestorów indywidualnych, którzy bez rzetelnej analizy podejmują ryzykowne decyzje i narażają się na poważne straty finansowe – opisuje dla Wirtalnemedia.pl szef Finax na Polskę.
Jak okiełznać slop AI
Eksperci, z którymi rozmawialiśmy, twierdzą, że nie jesteśmy w sytuacji bez wyjścia. Odpowiedzią na zalew treści z AI może być przede wszystkim budowanie świadomości.
Przemysław Barankiewicz: - Rozwiązanie leży u podstaw. To m.in. ciągła edukacja i podnoszenie świadomości w zakresie ryzyk związanych ze wszechobecną AI. W Finax uczymy inwestorów krytycznego podejścia do źródeł i pokazujemy, jak rozpoznawać sygnały ostrzegawcze w obietnicach szybkich zysków. W świecie, w którym każdy może wygenerować "ekspercką analizę" w kilka sekund, rzetelna wiedza i ostatecznie doświadczenie "żywego" doradcy pozostają największą przewagą.

Natalia Ząber pokazuje, że na rynku już pojawiają się rozwiązania chroniące przed "zalewem treści" – znaki wodne, systemy oznaczania materiałów AI czy algorytmy wykrywające deepfake’i. Rośnie też świadomość użytkowników, którzy uczą się krytycznie podchodzić do źródeł. W efekcie internet niekoniecznie straci wiarygodność – może stać się dojrzalszy, a rozwój AI paradoksalnie wzmocni fundamenty zaufania do informacji.
Z kolei Jacek Treder mówi, że potrzebujemy szerokiej społecznej debaty o slopach AI,"inaczej Internet zacznie się zamieniać w cyfrową pustynię".
W sieci od lat funkcjonuje spiskowa "teoria martwego internetu", która mówi, że cyfrowi giganci celowo filtrują i ograniczają wyniki, tworząc tylko iluzję dostępności treści i kontrolując, co użytkownik może zobaczyć. W praktyce ruch w sieci jest więc w dużej mierze generowany przez boty, a nie ludzi.

Rozwój sztucznej inteligencji może jednak sprawić, że teoria spiskowa stanie się bliższa rzeczywistości.
Tworzone obecnie deepfake'i są tak dobre, że dla większości ludzi "spoza bańki AI" to prawdziwe wideo. Prawda stała się luksusem dla tych, którzy mają czas i kompetencje do weryfikacji. Stworzenie contentu przy użyciu AI kosztuje grosze i działa 24/7, ale jego weryfikacja lub jakościowe sprawdzenie wymaga ludzi, czasu i zasobów finansowych
Ekspert twierdzi, że "jeśli nie nastąpią zmiany, "Dead Internet Theory" przestanie być teorią".
– Oczywiście brzmi to trochę jak sci-fi i należy mieć nadzieję, że do tego nie dojdzie, ale jak przy każdej tego typu innowacji, która rozwija się szybciej niż regulacje i standardy działania - musimy uzbroić się w cierpliwość i dbać o jakość rozwiązań – podsumowuje Mateusz Solecki.











