Treści generowane przez sztuczną inteligencję. Czy i jak należy oznaczać treści stworzone przez AI?
Coraz częściej w sieci spotykamy treści generowane przez AI – od artykułów i postów w social media, po opisy produktów czy krótkie filmy. Zjawisko to jest tak powszechne, że coraz trudniej odróżnić treści stworzone przez człowieka od tych wygenerowanych przez sztuczną inteligencję. W związku z tym pojawia się pytanie: czy trzeba oznaczać treści wygenerowane przez AI? Jak oznaczać treści generowane przez sztuczną inteligencję, aby spełnić wymogi prawne i etyczne?
Zakazane praktyki AI w UE – co przewiduje AI ACT i wytyczne Komisji Europejskiej
Od 2 lutego 2025 roku obowiązują pierwsze przepisy unijnego rozporządzenia AI ACT, które mają na celu zapewnienie bezpiecznego i etycznego stosowania sztucznej inteligencji w Europie. Do najważniejszych kwestii regulowanych przez AI ACT należą:
I. REGULACJE UE DOTYCZĄCE SZTUCZNEJ INTELIGENCJI – AI ACT
rozporządzenie ustanawia jednolite ramy prawne dla systemów AI w UE, obejmujące rozwój, wprowadzanie na rynek, użytkowanie i bezpieczeństwo AI
celem AI ACT jest ochrona zdrowia, bezpieczeństwa, praw podstawowych, demokracji i środowiska, a także budowanie zaufania do sztucznej inteligencji
II. ZAKAZANE PRAKTYKI AI (ARTYKUŁ 5 AI ACT)
manipulacja i techniki podprogowe ograniczające świadome decyzje;
wykorzystanie słabości osób ze względu na wiek, niepełnosprawność lub trudną sytuację społeczną do szkodliwych celów;
scoring społeczny i profilowanie kryminalne bez obiektywnych dowodów;
masowe zbieranie danych biometrycznych (wizerunki twarzy, nagrania CCTV);
analiza emocji w pracy i edukacji – chyba że dotyczy kwestii medycznych lub bezpieczeństw;
biometryczne kategoryzowanie osób według rasy, poglądów politycznych, religii czy orientacji seksualnej;
zdalna identyfikacja biometryczna w przestrzeni publicznej – z wyjątkiem działań związanych ze ściganiem przestępstw i przy spełnieniu określonych warunków (zezwolenie, ograniczenia czasowe i miejscowe, ocena skutków dla praw podstawowych).
III. WYTYCZNE KOMISJI EUROPEJSKIEJ
wytyczne mają na celu wyjaśnienie, jak stosować zakazy w praktyce;
nie są prawnie wiążące – ostateczna wykładnia należy do Trybunału Sprawiedliwości UE (TSUE).
IV. KARY ZA NARUSZENIE PRZEPISÓW
dla firm: do 35 mln EUR lub 7% rocznego obrotu globalnego, w zależności od tego, która kwota jest wyższa;
dla publicznych organów: kary administracyjne według prawa krajowego;
dla instytucji UE: do 1,5 mln EUR.
Więcej o zakazanych praktykach w zakresie sztucznej inteligencji przeczytasz w tym artykule.
Treści generowane przez sztuczną inteligencję
Od sierpnia 2026 roku w życie wejdą obowiązki przejrzystości dotyczące treści generowanych przez sztuczną inteligencję, określone w przepisie art. 50 ustawy o sztucznej inteligencji (rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r.). Mają one na celu zapewnienie, że odbiorcy będą mogli rozpoznać treści wygenerowane lub zmanipulowane przez AI, w tym m.in. deepfake, oraz ochronę przed oszustwami i manipulacją w przestrzeni cyfrowej. W tym kontekście został opracowywany „Kodeks postępowania w zakresie oznaczania i etykietowania treści generowanych przez sztuczną inteligencję”, który ma wspierać zarówno dostawców, jak i użytkowników systemów generatywnych w spełnianiu tych obowiązków.
Na oficjalnej stronie Komisji Europejskiej można zapoznać się z projektem Kodeksu postępowania dotyczącego przejrzystości treści generowanych przez AI, z którego płyną następujące wnioski:
DLACZEGO NALEŻY OZNACZAĆ TREŚCI GENEROWANE PRZEZ AI?
Projekt Kodeksu Praktyk dotyczącego przejrzystości treści generowanych przez sztuczną inteligencję jasno wskazuje, że obowiązek oznaczania takich treści nie ma charakteru czysto formalnego.
Jego celem jest ochrona odbiorców i stabilności ekosystemu informacyjnego w warunkach, w których coraz trudniej odróżnić treści syntetyczne od autentycznych.
Po pierwsze, chodzi o budowanie zaufania – przejrzystość w zakresie pochodzenia treści jest kluczowa dla utrzymania wiarygodności informacji, zwłaszcza w mediach cyfrowych i social mediach, gdzie AI generuje obrazy, dźwięk i tekst niemal nieodróżnialne od materiałów tworzonych przez ludzi.
Po drugie, regulacje mają służyć ochronie przed manipulacją – oznaczanie treści AI ma przeciwdziałać dezinformacji na dużą skalę, oszustwom, podszywaniu się pod inne osoby (w tym z wykorzystaniem deepfake’ów) oraz wprowadzaniu konsumentów i użytkowników w błąd.
Po trzecie, obowiązki przejrzystości są powiązane z ochroną praw podstawowych, w tym zdrowia, bezpieczeństwa, demokracji i praworządności.
Nieoznaczone treści syntetyczne mogą realnie wpływać na procesy społeczne, polityczne i gospodarcze, dlatego ustawodawca unijny traktuje je jako obszar podwyższonego ryzyka.
KTO MA OBOWIĄZEK OZNACZANIA TREŚCI AI?
Projekt Kodeksu Praktyk rozróżnia dwie główne grupy podmiotów, na których spoczywają odmienne, ale komplementarne obowiązki.
Dostawcy systemów AI (Providers):
dostawcy technologii – czyli podmioty tworzące i udostępniające modele generatywne (np. modele tekstowe, graficzne, audio lub wideo) muszą zapewnić, aby wyjścia z ich systemów były odpowiednio oznaczone w sposób odczytywalny maszynowo i możliwy do wykrycia (obowiązek ten dotyczy wszystkich form treści: tekstu, obrazu, dźwięku i wideo).
Wdrażający systemy AI (Deployers)
podmioty wykorzystujące AI w praktyce – takie jak redakcje, marketerzy, influencerzy, platformy czy firmy, mają obowiązek ujawniać odbiorcom, że dana treść została wygenerowana lub zmanipulowana przez AI. Jest to szczególnie istotne w przypadku:
deepfake’ów,
treści dotyczących spraw interesu publicznego,
materiałów informacyjnych i opiniotwórczych.
JAK TECHNICZNIE OZNACZAĆ TREŚCI GENEROWANE PRZEZ AI?
Kodeks Praktyk jednoznacznie wskazuje, że nie istnieje jedna w pełni skuteczna metoda oznaczania treści AI.
Dlatego rekomendowane jest podejście wielowarstwowe, polegające na łączeniu kilku technik jednocześnie – najważniejsze z nich to:
metadane i podpisy cyfrowe – dodawanie do plików informacji o pochodzeniu treści oraz cyfrowego podpisu systemu ai (np. w obrazach, wideo, dokumentach),
znaki wodne (watermarking) – trwałe, niewidoczne dla człowieka oznaczenia wplecione bezpośrednio w strukturę treści, odporne na kompresję, zmianę rozmiaru czy podstawową edycję,
certyfikaty pochodzenia (manifesty) – cyfrowo podpisane dokumenty potwierdzające źródło treści, stosowane zwłaszcza tam, gdzie nie da się bezpiecznie osadzić metadanych (np. w tekście),
fingerprinting i logowanie – tworzenie „odcisków palców” treści lub rejestrowanie danych generowanych przez modele AI, co umożliwia późniejszą weryfikację ich autentyczności.
JAK INFORMOWAĆ UŻYTKOWNIKA O TREŚCIACH WYTWORZONYCH PRZEZ AI?
Oprócz technicznego znakowania treści, Kodeks Praktyk dużą wagę przykłada do czytelnej komunikacji z odbiorcą końcowym – rekomendowane rozwiązania obejmują:
wspólną ikonę UE – ustandaryzowane oznaczenie graficzne rozpoznawalne w całej Unii Europejskiej. Do czasu jego wprowadzenia dopuszcza się stosowanie skrótów typu „AI”, „KI” lub „IA”.
zasadę pierwszego kontaktu – informacja o użyciu AI powinna być widoczna najpóźniej w momencie pierwszego zetknięcia się użytkownika z treścią.
jasną taksonomię treści, obejmującą:
treści w pełni wygenerowane przez AI (bez udziału człowieka),
treści wspomagane przez AI (AI-assisted), w których sztuczna inteligencja znacząco wpłynęła na sens, ton lub fakty (np. podmiana twarzy, głosu, usuwanie obiektów)
dostępność – oznaczenia muszą być zrozumiałe także dla osób z niepełnosprawnościami (np. obsługa czytników ekranu, napisy, alternatywne opisy, sygnały dźwiękowe)
WYJĄTKI I SZCZEGÓLNE PRZYPADKI
Kodeks przewiduje również istotne wyłączenia i złagodzenia obowiązków:
twórczość artystyczna, satyra i fikcja – oznaczanie powinno być proporcjonalne i nieinwazyjne. Nie może niszczyć odbioru dzieła, ale powinno w jakiejś formie informować o użyciu AI (np. w opisie lub napisach końcowych);
odpowiedzialność redakcyjna – obowiązek oznaczania tekstów nie ma zastosowania, jeżeli treść przeszła proces ludzkiej redakcji, a człowiek ponosi za nią pełną odpowiedzialność;
bezpieczeństwo publiczne – wyjątki dotyczą działań uprawnionych służb w celu wykrywania lub ścigania przestępstw.
ODPOWIEDZIALNOŚĆ W ŁAŃCUCHU WARTOŚCI
Projekt Kodeksu Praktyk podkreśla, że odpowiedzialność za przejrzystość treści AI jest rozłożona w całym łańcuchu wartości.
Dostawcy modeli powinni wdrażać mechanizmy znakowania już na poziomie technologii, aby ułatwić spełnienie obowiązków przez podmioty, które korzystają z ich rozwiązań w praktyce (np. twórców aplikacji czy platform).
WAŻNE – Dostawcy systemów AI muszą oznaczać wyniki generatywne w formacie czytelnym dla maszyn, zapewniając niezawodność i interoperacyjność. użytkownicy systemów AI mają obowiązek ujawniać, że treść jest wygenerowana lub zmanipulowana (deepfake) oraz oznaczać teksty istotne dla opinii publicznej, chyba że podlegają one odpowiedzialności redakcyjnej. Obowiązki te wchodzą w życie od sierpnia 2026 r. i będą uzupełniać przepisy dotyczące systemów AI wysokiego ryzyka oraz modeli AI ogólnego przeznaczenia.
Czy trzeba oznaczać treści wygenerowane przez AI?
Co do zasady tak, ale zakres obowiązku zależy od rodzaju treści, kontekstu jej wykorzystania oraz roli podmiotu publikującego.
Zgodnie z AI Act (art. 50 ustawy o sztucznej inteligencji, tj. rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r.) oraz projektem Kodeksu Praktyk, oznaczanie jest wymagane w szczególności wtedy, gdy:
treść została w całości wygenerowana przez AI lub istotnie zmodyfikowana przez AI,
treść może wpływać na odbiorców, ich decyzje lub opinię (np. social media, marketing, media, komunikacja publiczna),
mamy do czynienia z deepfake’ami, syntetycznym głosem, wizerunkiem lub obrazem osoby,
treść dotyczy spraw interesu publicznego.
Wyjątek dotyczy m.in.:
tekstów objętych odpowiedzialnością redakcyjną człowieka,
twórczości artystycznej i satyrycznej (oznaczenie powinno być proporcjonalne i nieinwazyjne).
Jak podpisać zdjęcie wygenerowane przez AI?
Zdjęcie wygenerowane przez AI powinno być oznaczone w sposób jasny i czytelny dla odbiorcy, najlepiej już przy pierwszym kontakcie z treścią.
Przykładowe, prawidłowe formy oznaczenia:
„Grafika wygenerowana przez AI”
„Obraz stworzony przy użyciu sztucznej inteligencji”
„Zdjęcie wygenerowane przez AI (nie przedstawia rzeczywistej osoby)”
„AI-generated image” / „Image created with AI” (w treściach anglojęzycznych)
W social mediach oznaczenie może znaleźć się:
w opisie posta
bezpośrednio na grafice (np. ikoną „AI”)
w formie hashtagu (#AI, #AIGenerated), o ile jest on czytelny i jednoznaczny
Należy pamiętać, że samo dodanie hashtagu nie zawsze będzie wystarczające, jeśli może wprowadzać odbiorców w błąd.
Jak oznaczać treści generowane przez sztuczną inteligencję?
Oznaczanie treści AI powinno mieć dwie warstwy: techniczną i informacyjną:
I. WARSTWA INFORMACYJNA (DLA ODBIORCY)
wyraźna informacja, że treść została:
w pełni wygenerowana przez AI lub
wspomagana przez AI (AI-assisted),
oznaczenie widoczne najpóźniej przy pierwszym kontakcie z treścią,
stosowanie jasnych sformułowań lub jednolitej ikony „AI”.
II. WARSTWA TECHNICZNA (DLA SYSTEMÓW I PLATFORM)
Zalecane jest podejście wielowarstwowe, obejmujące m.in.:
metadane i podpisy cyfrowe wskazujące na pochodzenie treści,
niewidoczne znaki wodne (watermarking) w obrazach, wideo i audio,
certyfikaty pochodzenia (np. dla tekstu),
fingerprinting i logowanie wygenerowanych treści.
Podsumowanie
Rosnąca obecność treści generowanych przez sztuczną inteligencję sprawia, że przejrzystość staje się kluczowym standardem, a nie tylko dobrą praktyką. AI Act oraz projekt Kodeksu Praktyk jasno wskazują, że odbiorca powinien mieć możliwość rozpoznania, kiedy ma do czynienia z treścią wygenerowaną lub istotnie zmodyfikowaną przez AI. Obowiązek oznaczania treści generowanie przez AI ma na celu budowanie zaufania, ochronę przed dezinformacją i manipulacją oraz zabezpieczenie praw podstawowych. Regulacje nie eliminują korzystania z AI, lecz wymagają odpowiedzialnego i jawnego jej użycia -zarówno po stronie dostawców technologii, jak i podmiotów publikujących treści. Dla firm i twórców oznacza to konieczność wdrożenia prostych, ale czytelnych zasad oznaczania treści AI już teraz!
Autorka tekstów prawnych na ifirma.pl. Prawnik posiadająca wieloletnie doświadczenie w doradztwie prawnym oraz podatkowym. Na co dzień swoją wiedzę i doświadczenie poszerza dzięki pracy jako specjalista do spraw prawnych, a czas wolny poświęca na podnoszenie kwalifikacji w zakresie aspektów prawnych w e-commerce i social mediach oraz szeroko pojętym prawie autorskim.
Zachęcamy do komentowania naszych artykułów. Wyraź swoje zdanie i włącz się w dyskusje z innymi czytelnikami. Na indywidualne pytania (z zakresu podatków i księgowości) użytkowników ifirma.pl odpowiadamy przez e-mail, czat lub telefon – skontaktuj się z nami.
Administratorem Twoich danych osobowych jest IFIRMA S.A. z siedzibą we Wrocławiu. Dodając komentarz na blogu, przekazujesz nam swoje dane: imię i nazwisko, adres e-mail oraz treść komentarza. W systemie odnotowywany jest także adres IP, z wykorzystaniem którego dodałeś komentarz. Dane zostają zapisane w bazie systemu WordPress. Twoje dane są przetwarzane na podstawie Twojej zgody, wynikającej z dodania komentarza. Dane są przetwarzane w celu opublikowania komentarza na blogu, jak również w celu obrony lub dochodzenia roszczeń. Dane w bazie systemu WordPress są w niej przechowywane przez okres funkcjonowania bloga.
O szczegółach przetwarzania danych przez IFIRMA S.A dowiesz się ze strony polityki prywatności serwisu ifirma.pl.
Zastanawiasz się, kto pomaga firmom stanąć na nogi, gdy grozi im upadłość? To właśnie doradca restrukturyzacyjny. Jego zadaniem jest wsparcie przedsiębiorców w poprawie ich trudnej sytuacji finansowej i tym samym uniknięciu upadłości.
Czy wiesz, że aż 65% firm, które tworzą persony, osiąga wyższy ROI z kampanii marketingowych? Poznanie idealnego klienta to dziś nie wybór, a prawdziwa konieczność. Jeżeli chcesz tworzyć skuteczne kampanie, lepiej dopasowane oferty i treści, które angażują – musisz poznać swoją personę, a nasz artykuł Ci w tym pomoże.
Nowości/ulepszenia: data zmiana 28.05.2025 Faktury vat marża i zaliczkowe w walucie rozliczane metodą kasową Autopay – płatność w transzach za zobowiązania na kwotę większą niż limit płatności jednorazowej autopay Możliwość usuwania różnic kursowych ze szczegółów faktur Wyświetlanie kwot brutto w zestawieniu wydatków samochodowych Poprawki w udostępnianiu dokumentów – notatki dla dodawanych e-dokumentów Aktualizacja towaru z […]
Klauzula informacyjna –
kontakt
telefoniczny marketing
Jeżeli wyrazisz zgodę, zadzwonimy do Ciebie, aby przybliżyć Ci naszą
ofertę. Wyrażoną zgodę możesz wycofać w dowolnym momencie, wysyłając
wiadomość e-mail na adres iod@ifirma.pl. Administratorem Twoich
danych
osobowych będzie IFIRMA SA z siedzibą we Wrocławiu przy ul.
Grabiszyńskiej 241G, 53-234 Wrocław. Więcej o tym, jak chronimy
Twoje
dane dowiesz się na stronie: https://www.ifirma.pl/rodo