Postulaty wydawców do Polityki rozwoju AI w Polsce

Działania

Postulaty wydawców do Polityki rozwoju AI w Polsce

Opublikowano: 30.06.2025

Ministerstwo Cyfryzacji przygotowało projekt nowej Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku, który trafił w czerwcu 2025 roku do konsultacji. Stowarzyszenia Dziennikarzy i Wydawców Repropol i Izba Wydawców prasy zgłosimy postulaty do tego dokumentu.

Projekt „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 r.” stanowi ważny krok w kierunku kształtowania przyszłości cyfrowej Polski. Dokument w sposób kompleksowy omawia szanse i wyzwania związane z rozwojem AI, odwołując się do standardów międzynarodowych i europejskich. Zauważono, że przedstawiona do konsultacji polityka nie dostrzega w wystarczającym stopniu jednego z kluczowych wyzwań współczesnej polityki innowacyjności: potrzeby zapewnienia symetrycznego, sprawiedliwego i zrównoważonego rozwoju AI, który nie prowadzi do koncentracji korzyści w rękach technologicznie uprzywilejo­wanych podmiotów kosztem twórców czy producentów dóbr kultury. Konieczne jest jednoznaczne zakwestionowania fałszywej narracji Big Tech istnienia opozycji między rozwojem technologicznym a ochroną „ludzkiej” kultury. Istotne jest, aby byli równoprawnymi uczestnikami procesu transformacji cyfrowej a sztuczna inteligencja powinna być narzędziem wspierającym człowieka, nigdy zaś jego substytutem. Takie podejście jest spójne z międzynarodowymi standardami oraz opiniami środowisk eksperckich. Wydawcy opowiadają się za tym, że treści generowane przez AI nie powinny podlegać ochronie prawa autorskiego z uwagi na brak wkładu człowieka. Niezbędne jest poszanowanie twórczości i brak zgody na masowe kopiowanie cudzych utworów.

Wymieniono szereg praktycznych i bardzo istotnych problemów prawnych:

  1. wykluczenie TDM nie było projektowane z myślą o specyfice i skali działania generatywnej AI, co czyni wyjątek TDM nieadekwatnym wobec współczesnych modeli generatywnej AI.
  2. modele generatywnej AI są trenowane na ogromnych zbiorach zawierających chronione utwory bez możliwości wyrażenia sprzeciwu albo zgody i bez  wynagrodzenia dla uprawnionych.
  3. trenowanie AI wiąże się z techniczną reprodukcją utworów po etapie trenowania, co budzi oczywiste wątpliwości w świetle prawa autorskiego.
  4. mechanizm opt-out jest nieskuteczny wobec masowego pozyskiwania utworów z sieci internetowej (web-scraping).
  5. brak systemu wynagradzania twórców za wykorzystanie ich utworów podczas trenowania AI powoduje value gap (olbrzymia wartość ekonomiczna generowana przez modele AI na podstawie cudzej twórczości paradoksalnie nie staje się w żaden sposób udziałem twórców),
  6. dalsze zagrożenia: koncentracja rynku AI i  marginalizacją twórców

Najważniejsze postulaty prawne wydawców:

  1. TDM nie powinien mieć zastosowania do trenowania modeli generatywnej AI,
  2. konieczna jest transparentność źródeł używanych do trenowania i jednoznaczne oznaczanie treści syntetycznych,
  3. pomocne byłoby wprowadzenie odwrócenia ciężaru dowodu,
  4. korzystanie z utworu powinno być możliwe wyłącznie po udzielonej zgodzie lub uiszczeniu uczciwego wynagrodzenia (fair remuneration), mechanizmy licencjonowania zbiorowego dla trenowania AI oraz mechanizmy skutecznego arbitrażu w Polsce i EU,
  5. rzetelne rozliczenie szkody wynikłej w przeszłości z powodu bezumownego korzystania z cudzej twórczości.

Organizacje wydawców podkreślają, że niezbędny jest pluralizm informacyjny i jakość wiedzy w dobie sztucznej inteligencji:

„Należy zapewnić, że rozwój i wdrażanie sztucznej inteligencji w Polsce, zwłaszcza modeli generatywnych, wspiera dostęp obywateli do wiarygodnych, zróżnicowanych i transparentnych źródeł informacji, nie narusza warunków funkcjonowania niezależnych mediów, instytucji naukowych i edukacyjnych, oraz przeciwdziała rozprzestrzenianiu treści dezinformujących, nieprawdziwych lub zmanipulowanych. Cel ten obejmuje zarówno ochronę niezależnych źródeł informacji i instytucji edukacyjnych, jak i wprowadzenie rozwiązań umożliwiających uczciwy podział korzyści z wykorzystania treści tworzonych przez ludzi w systemach AI. Obejmuje on również rozwój umiejętności krytycznego myślenia i świadomego korzystania z mediów w społeczeństwie oraz wspieranie wysokich standardów jakości, przejrzystości źródeł i odpowiedzialności za treści generowane cyfrowo.”

Pełny dokument przesłany do Ministerstwa Cyfryzacji

Nasza strona korzysta z plików cookies. Szczegóły w dokumencie: Polityka prywatności (RODO)