Postulaty wydawców do Polityki rozwoju AI w Polsce

Działania

Postulaty wydawców do Polityki rozwoju AI w Polsce

Opublikowano: 30.06.2025

Ministerstwo Cyfryzacji przygotowało projekt nowej Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku, który trafił w czerwcu 2025 roku do konsultacji. Stowarzyszenie Dziennikarzy i Wydawców Repropol i Izba Wydawców Prasy zgłosiły postulaty do tego dokumentu.

Projekt „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 r.” stanowi ważny krok w kierunku kształtowania przyszłości cyfrowej Polski. Dokument w sposób kompleksowy omawia szanse i wyzwania związane z rozwojem AI, odwołując się do standardów międzynarodowych i europejskich. Zauważono, że przedstawiona do konsultacji polityka nie dostrzega w wystarczającym stopniu jednego z kluczowych wyzwań współczesnej polityki innowacyjności: potrzeby zapewnienia symetrycznego, sprawiedliwego i zrównoważonego rozwoju AI, który nie prowadzi do koncentracji korzyści w rękach technologicznie uprzywilejo­wanych podmiotów kosztem twórców czy producentów dóbr kultury. Konieczne jest jednoznaczne zakwestionowania fałszywej narracji Big Tech istnienia opozycji między rozwojem technologicznym a ochroną „ludzkiej” kultury. Istotne jest, aby byli równoprawnymi uczestnikami procesu transformacji cyfrowej a sztuczna inteligencja powinna być narzędziem wspierającym człowieka, nigdy zaś jego substytutem. Takie podejście jest spójne z międzynarodowymi standardami oraz opiniami środowisk eksperckich. Wydawcy opowiadają się za tym, że treści generowane przez AI nie powinny podlegać ochronie prawa autorskiego z uwagi na brak wkładu człowieka. Niezbędne jest poszanowanie twórczości i brak zgody na masowe kopiowanie cudzych utworów.

Wymieniono szereg praktycznych i bardzo istotnych problemów prawnych:

  1. wykluczenie TDM nie było projektowane z myślą o specyfice i skali działania generatywnej AI, co czyni wyjątek TDM nieadekwatnym wobec współczesnych modeli generatywnej AI,
  2. modele generatywnej AI są trenowane na ogromnych zbiorach zawierających chronione utwory bez możliwości wyrażenia sprzeciwu albo zgody i bez  wynagrodzenia dla uprawnionych,
  3. trenowanie AI wiąże się z techniczną reprodukcją utworów po etapie trenowania, co budzi oczywiste wątpliwości w świetle prawa autorskiego,
  4. mechanizm opt-out jest nieskuteczny wobec masowego pozyskiwania utworów z sieci internetowej (web-scraping),
  5. brak systemu wynagradzania twórców za wykorzystanie ich utworów podczas trenowania AI powoduje value gap (olbrzymia wartość ekonomiczna generowana przez modele AI na podstawie cudzej twórczości paradoksalnie nie staje się w żaden sposób udziałem twórców),
  6. dalsze zagrożenia: koncentracja rynku AI i  marginalizacją twórców.

Najważniejsze postulaty prawne wydawców:

  1. TDM nie powinien mieć zastosowania do trenowania modeli generatywnej AI,
  2. konieczna jest transparentność źródeł używanych do trenowania i jednoznaczne oznaczanie treści syntetycznych,
  3. wprowadzenie odwrócenia ciężaru dowodu,
  4. korzystanie z utworu powinno być możliwe wyłącznie po udzielonej zgodzie lub uiszczeniu uczciwego wynagrodzenia (fair remuneration), może to się odbywać poprzez mechanizmy licencjonowania zbiorowego przy wsparciu negocjacji mechanizmami skutecznego arbitrażu w Polsce i EU,
  5. twórcom i wydawcom należy się rzetelne rozliczenie szkody wynikłej w przeszłości z powodu bezumownego korzystania z ich twórczości.

Organizacje wydawców podkreślają, że niezbędny jest pluralizm informacyjny i jakość wiedzy w dobie sztucznej inteligencji:

„Należy zapewnić, że rozwój i wdrażanie sztucznej inteligencji w Polsce, zwłaszcza modeli generatywnych, wspiera dostęp obywateli do wiarygodnych, zróżnicowanych i transparentnych źródeł informacji, nie narusza warunków funkcjonowania niezależnych mediów, instytucji naukowych i edukacyjnych, oraz przeciwdziała rozprzestrzenianiu treści dezinformujących, nieprawdziwych lub zmanipulowanych. Cel ten obejmuje zarówno ochronę niezależnych źródeł informacji i instytucji edukacyjnych, jak i wprowadzenie rozwiązań umożliwiających uczciwy podział korzyści z wykorzystania treści tworzonych przez ludzi w systemach AI. Obejmuje on również rozwój umiejętności krytycznego myślenia i świadomego korzystania z mediów w społeczeństwie oraz wspieranie wysokich standardów jakości, przejrzystości źródeł i odpowiedzialności za treści generowane cyfrowo.”

Pełny dokument przesłany do Ministerstwa Cyfryzacji

Stanowisko zostało zaprezentowane także na posiedzeniu Międzyresortowego Zespołu ds. przeciwdziałania naruszeniom prawa autorskiego i praw pokrewnych, które odbyło się w piątek 27 czerwca w siedzibie MKiDN na którym stronę rządową reprezentowali przedstawiciele Ministerstwa Kultury i Dziedzictwa Narodowego, Ministerstwa Sprawiedliwości, Ministerstwa Finansów, Ministerstwa Cyfryzacji, Policji, Urzędu Komunikacji Elektronicznej, Krajowej Administracji Skarbowej i innych organów.

Nasza strona korzysta z plików cookies. Szczegóły w dokumencie: Polityka prywatności (RODO)