Raport: AI ma się rozwijać, ale nie kosztem twórców i mediów
Główne przesłanie raportu jest jednoznaczne: rozwój AI jest pożądany, lecz nie może odbywać się kosztem twórców. Parlament jasno sygnalizuje, że obecny model, w którym globalni dostawcy technologii czerpią rosnące korzyści, podczas gdy twórcy ponoszą koszty i ryzyko prawne, jest nie do utrzymania.
Taki jest podstawowy wniosek raportu. Punktem wyjścia jest diagnoza, że sztuczna inteligencja bazuje w ogromnym stopniu na treściach chronionych. Mowa o tekstach, zdjęciach, muzyce czy wideo). Obecne reguły (w szczególności wyjątek "text and data mining") nie były projektowane pod realia masowego trenowania modeli generatywnej AI.
Po jednej stronie znajdują się globalni dostawcy narzędzi AI, dysponujący kapitałem, technologią i skalą, po drugiej zaś twórcy, wydawcy i media, którzy tracą kontrolę nad wykorzystaniem swoich treści.

Kluczowe postulaty raportu JURI
1. Wynagrodzenie za wykorzystywanie treści do modeli AI
Raport wprost wskazuje na konieczność wprowadzenia na poziomie unijnym mechanizmów uczciwej rekompensaty dla uprawnionych, których treści są wykorzystywane do uczenia modeli generatywnej AI. Bez wynagrodzenia trudno mówić o równowadze interesów i trwałości europejskiego ekosystemu medialnego.
2. Realna, a nie iluzoryczna transparentność
Parlament postuluje znaczące zwiększenie przejrzystości modeli AI, w tym obowiązek informowania o materiałach wykorzystanych przez modele językowe oraz o praktykach pozyskiwania treści (crawlingu). Bez takiej wiedzy twórcy i wydawcy nie są w stanie skutecznie egzekwować swoich praw.

3. Skuteczny i praktyczny opt-out
Raport wzmacnia stanowisko, zgodnie z którym uprawnieni muszą mieć realną możliwość wyłączenia swoich treści z użycia przez modele językowe. Mechanizm opt-out powinien być prosty i faktycznie skuteczny, a nie jedynie teoretyczny.
4. Konsekwencje za brak przejrzystości po stronie dostawców AI
Dokument idzie dalej niż miękkie rekomendacje. Sugeruje, że niewywiązywanie się z obowiązków transparentności powinno prowadzić do poważnych konsekwencji prawnych, w tym przeniesienia ciężaru ryzyka i odpowiedzialności na dostawców narzędzi AI. To element, który może realnie wpłynąć na rynkowe praktyki.
5. Brak ochrony prawnoautorskiej dla treści w pełni generowanych przez AI
Raport potwierdza utrwalone europejskie podejście oparte na zasadzie "human authorship". Treści stworzone wyłącznie przez systemy AI nie powinny korzystać z ochrony prawa autorskiego.

6. Szczególna rola prasy i pluralizmu informacji
Autorzy raportu zwracają uwagę na znaczenie sektora prasowego dla demokracji. Podkreślają ryzyko, że generatywna AI – zwłaszcza zintegrowana z wyszukiwarkami i asystentami – może przejmować funkcje dystrybucji informacji, ograniczać widoczność źródeł i w efekcie substytuować treści wydawców.
Co dalej z raportem Parlamentu Europejskiego?

Przyjęcie dokumentu przez komisję JURI oznacza formalne zatwierdzenie stanowiska komisji i ważny etap w procesie parlamentarnym. Kolejnym krokiem może być głosowanie na posiedzeniu plenarnym Parlamentu Europejskiego.
Jeżeli raport zostanie przyjęty w formie rezolucji, nie zmieni on bezpośrednio obowiązującego prawa, ale jego znaczenie praktyczne będzie istotne. Rezolucja:
- wyznaczy oficjalną linię polityczną Parlamentu wobec Komisji Europejskiej i państw członkowskich,
- zwiększy presję na Komisję, by przedstawiła konkretne propozycje legislacyjne lub wytyczne,
- da mandat do dalszych prac nad doprecyzowaniem zasad trenowania generatywnej AI,
- może wpływać na interpretację i egzekwowanie prawa przez organy krajowe i sądy,
- stanie się punktem odniesienia w negocjacjach rynkowych dotyczących licencji i standardów współpracy z dostawcami AI.
Choć dokument nie wprowadza natychmiast nowych obowiązków, wyraźnie profiluje debatę i zwiększa prawdopodobieństwo, że kolejnym krokiem Komisji Europejskiej będzie pogłębiona refleksja nad wynagrodzeniem, transparentnością modeli AI oraz realną kontrolą twórców nad wykorzystaniem ich treści.











