Sąd federalny w Nowym Jorku wydał orzeczenie zmuszające OpenAI do przekazania 20 milionów zanonimizowanych logów rozmów z ChatGPT w ramach toczącego się procesu o naruszenie praw autorskich. Decyzja sędziego Sidneya H. Steina z 6 stycznia 2026 roku stanowi istotny precedens w sporze między twórcą sztucznej inteligencji a największymi wydawcami medialnymi w Stanach Zjednoczonych, w tym The New York Times i Chicago Tribune.
Kontrowersyjna sprawa o prawa autorskie
Sprawa zaczęła się w grudniu 2023 roku, gdy The New York Times pozwał OpenAI oraz Microsoft o wykorzystanie milionów artykułów prasowych do trenowania modeli językowych bez zgody ani rekompensaty. Pozew został później rozszerzony i połączony z 15 innymi sprawami wytoczonymi przez wydawców takich jak New York Daily News czy Center for Investigative Reporting. Wydawcy twierdzą, że ChatGPT regularnie reprodukuje fragmenty chronionych prawem autorskim treści, co stanowi bezpośrednie naruszenie ich praw.
OpenAI początkowo zgodziło się na przekazanie 20 milionów logów rozmów, co stanowi zaledwie 0,5 procent wszystkich zachowanych danych. Jednak w październiku 2025 roku firma zmieniła zdanie i zaproponowała przeszukanie bazy danych oraz dostarczenie jedynie wyników wyszukiwania zamiast pełnych logów. Wydawcy odrzucili tę propozycję i złożyli wniosek o nakaz sądowy, który został uwzględniony przez sędzię Onę T. Wang w listopadzie 2025 roku.
Prywatność użytkowników kontra dowody w sprawie
OpenAI argumentowało, że przekazanie logów naruszy prywatność użytkowników ChatGPT, nawet jeśli dane zostaną zanonimizowane. Firma zwracała uwagę na fakt, że rozmowy mogą zawierać informacje osobiste, zawodowe czy wrażliwe dyskusje niezwiązane z przedmiotem sporu. W odpowiedzi na nakaz sądowy prezes ds. bezpieczeństwa informacji OpenAI, Dane Stuckey, opublikował wpis na blogu firmowym zatytułowany „Walka z inwazją na prywatność użytkowników przez New York Times”.
Sędzia Stein odrzucił jednak te argumenty, podkreślając istotną różnicę między obecną sprawą a przypadkami, na które powoływało się OpenAI. W przeciwieństwie do podsłuchów telefonicznych, gdzie rozmówcy nie wiedzieli o nagrywaniu, użytkownicy ChatGPT dobrowolnie przekazali swoje komunikaty firmie. Sąd uznał również, że zanonimizowane dane wraz z wprowadzonym nakazem ochrony danych wystarczająco zabezpieczają prywatność użytkowników.
Implikacje dla branży sztucznej inteligencji w Polsce i na świecie
Orzeczenie ma szerokie konsekwencje nie tylko dla OpenAI, ale dla całej branży sztucznej inteligencji. Dr Kolochenko z firmy ImmuniWeb określił tę decyzję jako „debakl dla bezpieczeństwa”, przewidując, że może ona zainspirować podobne działania w innych sprawach. Decyzja ta pokazuje, że sądy są gotowe nakazać firmom AI ujawnienie danych użytkowników w ramach postępowań sądowych, pod warunkiem ich odpowiedniej anonimizacji.
W Polsce, gdzie prawo autorskie jest regulowane przez ustawę z dnia 4 lutego 1994 roku o prawie autorskim i prawach pokrewnych, podobne spory mogą pojawić się w przyszłości. Polscy wydawcy prasowi oraz twórcy treści obserwują rozwój sytuacji w Stanach Zjednoczonych, gdyż wyrok może wpłynąć na sposób, w jaki prawa autorskie będą egzekwowane wobec firm zajmujących się sztuczną inteligencją również w Europie.
Eksperci z dziedziny prawa autorskiego wskazują, że sprawa OpenAI może stać się precedensem określającym, jak doktryna dozwolonego użytku (fair use) będzie stosowana do trenowania modeli AI. Jeśli sąd orzeknie, że OpenAI naruszyło prawa autorskie, może to skutkować wielomiliardowymi odszkodowaniami oraz koniecznością zmiany modelu biznesowego firm rozwijających duże modele językowe.

