Ochrona wizerunku w dobie AI – o czym warto pamiętać?

🎭 Sztuczne zmartwychwstanie George’a Carlina

źrodło: copyrightlately.com za „dudesy”

Zaczęło się jak żart. Podcast „Dudesy”, prowadzony przez Willa Sasso (znanego z MADtv) i Chada Kultgena, ogłosił, że stworzyli — z pomocą AI — nowy stand-up George’a Carlina. Tak, tego George’a Carlina, który zmarł w 2008 roku, ale wcześniej zdążył sprawić, iż jego straszliwe, błyskotliwe monologi na zawsze zapisały się w historii komedii.

Sztuczna inteligencja miała „nauczyć się” jego stylu na podstawie archiwalnych występów i wygenerować godzinny materiał zatytułowany: „I’m Glad I’m Dead”.

W styczniu 2024 nagranie pojawiło się na YouTube. Było niepokojąco realistyczne – AI odtworzyła głos Carlina, rytm jego wypowiedzi, a nawet charakterystyczne gesty.

Nie minęły dwa dni, a Kelly Carlin — córka komika i zarządczyni jego praw osobistych — zapowiedziała pozew. Twórcy podcastu zostali pozwani przed sądem federalnym w Kalifornii o bezprawne wykorzystanie wizerunku, głosu i stylu zmarłego artysty. W kwietniu 2024 roku sprawa zakończyła się ugodą. Materiał zniknął z sieci, a twórcy obiecali, że więcej nie „ożywią” Carlina.

Kelly Carlin podsumowała sprawę jednym zdaniem:

„No machine will ever replace his genius.”

To była tylko zapowiedź tego, co ma nadejść.

Czy AI może mówić moim głosem? Lehrman i Sage vs. Lovo (Nowy Jork, 2025)

Źródło: Elianel Clinton/The New York Times/Redux za edition.cnn.com

W czerwcu 2025 roku Paul Skye Lehrman i Linnea Sage – dwoje zawodowych lektorów – wniosło pozew przeciwko firmie Lovo Inc., znanej z komercyjnej platformy oferującej „syntetyczne głosy” dla potrzeb reklam, podcastów i mediów wideo.

Jak się okazało, Lovo wykorzystało próbki ich głosów — pierwotnie nagrane dla anonimowych klientów na Fiverr — do stworzenia modeli AI nazwanych „Kyle Snow” i „Sally Coleman”. Modele te były oferowane użytkownikom jako gotowe, skomercjalizowane narzędzia głosowe.

Pozew złożono w sądzie federalnym w Nowym Jorku. Sąd uznał, że głos może podlegać ochronie w ramach prawa do wizerunku (right of publicity), a także, że wykorzystanie nagrań w procesie treningowym dla AI może naruszać prawa autorskie.

Sprawa trwa, ale już teraz uznawana jest za precedensową – bo pokazuje, że głos, podobnie jak twarz, to nośnik tożsamości, który nie powinien być replikowany bez świadomej zgody.

🎸 ELVIS Act – jak Elvis pośmiertnie zatrząsł światem (prawnym)

Źródło: www.guinnessworldrecords.com

Rok 2024 przyniósł także pierwszy akt prawny, który bezpośrednio mierzy się z problemem „AI-reinkarnacji”. Chodzi o ELVIS Act (Ensuring Likeness, Voice and Image Security Act), który wszedł w życie 1 lipca 2024 roku w stanie Tennessee.

Pomysłodawcą był Gebre Waddell, założyciel firmy Sound Credit, który zorganizował pokaz dla lokalnych ustawodawców. Zaprezentował, jak łatwo AI może odtworzyć głos Elvisa Presleya — a następnie głosy innych, jeszcze żyjących artystów. Zabawny eksperyment szybko zmienił się w źródło uzasadnionego niepokoju: AI w rękach każdego oznacza możliwość generowania dowolnych „występów”, bez zgody, bez wynagrodzenia, bez kontroli.

Pod wpływem presji branży muzycznej uchwalono ustawę, która:

  • wprowadza sankcje za nieautoryzowane wykorzystanie AI-klonów głosu i wizerunku,
  • chroni twórców przed wykorzystaniem ich tożsamości w deepfake’ach i cyfrowych rekonstrukcjach,
  • ustanawia nowe standardy zgody i licencjonowania dla twórców.

Dziś Tennessee jest pierwszym stanem, który realnie zabezpiecza „cyfrowe ja” artystów. I wszystko wskazuje na to, że nie ostatnim.

Jak bezpiecznie zawierać umowy w dobie wszechobecnej technologii AI?

W obliczu tych historii coraz trudniej zignorować fakt, że klasyczne formuły „zgody na wykorzystanie wizerunku w Internecie” po prostu już nie wystarczają.

AI zmienia naturę eksploatacji:

  • Wizerunek może być przekształcony w animowany awatar.
  • Głos może zostać poddany klonowaniu.
  • Twarz może zostać zmodyfikowana w kontekście seksualnym lub politycznym.
  • AI może stworzyć wersję osoby, która nigdy nie powiedziała ani nie zrobiła tego, co widzi odbiorca.

Dlatego w umowach warto rozważyć wprowadzenie klauzul, które:

  1. Ustalą zakres modyfikacji AI, np:


    „Strony uzgadniają, że jakakolwiek cyfrowa modyfikacja wizerunku osoby, w tym generowana z użyciem narzędzi sztucznej inteligencji, nie może obejmować zmiany proporcji ciała, rysów twarzy, mimiki, ekspresji emocjonalnej ani nadawania charakteru erotycznego lub satyrycznego bez pisemnej zgody.”

  2. Wprowadzą zakaz wykorzystywania wizerunku/głosu w określonych kontekstach, np:


    „Zamawiający nie jest uprawniony do wykorzystywania wizerunku lub głosu osoby w kontekście erotycznym, pornograficznym, politycznym, ideologicznym, religijnym lub medycznym bez uprzedniego pisemnego zezwolenia.”

  3. Regulują kwestie tworzenia animowanych awatarów i deepfake, np:


    „Stworzenie animowanego awatara lub modelu generatywnego na podstawie wizerunku lub głosu osoby wymaga osobnej, wyraźnej zgody, określającej cel, czas trwania i zasięg licencji.”

  4. Uprawniają do udziału w zyskach z wykorzystania wizerunku/głosu przez AI,np:


    „W przypadku komercyjnego wykorzystania wygenerowanego materiału AI z udziałem wizerunku lub głosu osoby, przysługuje jej udział w przychodach na zasadach określonych w odrębnym aneksie.”

Wprowadzają prawo kontroli i sprzeciwu, np:


„Zamawiający ma obowiązek uzyskać akceptację Influencera każdorazowo przed wykorzystaniem materiału zawierającego jego wizerunek/głos zmodyfikowany przy użyciu technologii AI.  W wypadku nieuzyskania akceptacji przez Zamawiającego przed publikacją takich materiałów, Influencer ma prawo, w każdym czasie, zgłosić sprzeciw wobec konkretnego sposobu wykorzystania swojego wizerunku/głosu. W takim przypadku Zamawiający zobowiązuje się do niezwłocznego wstrzymania dystrybucji materiału i jego usunięcia.”

Podsumowanie

To pytanie brzmi dramatycznie, ale dziś jesteśmy świadkami powstawania takich możliwości – dzień po dniu – w świecie, który zmienia ludzkie cechy w dane, a osobowość w pakiet eksportowy. Głos, mimika, styl wypowiedzi, powiedzonka… wszystko to można dziś zapisać, zsyntetyzować, zreplikować. A skoro można to zreplikować, można też skopiować. Skoro można skopiować – można też wykraść. Czasem bez naszej wiedzy, czasem pod pretekstem, a czasem… za naszą zgodą, podpisaną w pośpiechu, bo „tak się teraz robi”.

Sprzedaż wizerunku to nie jest nowy wynalazek. Ale jego digitalna forma to już nie tylko „czyjaś twarz na plakacie”. To może być cała Twoja istota: głos mówiący coś, czego nigdy nie powiedziałeś; ciało poruszające się w sposób, który Cię ośmiesza; twarz wyginająca się w sztucznym śmiechu generowanym przez algorytm uczący się Twojego tik-toka.

A może najgroźniejsze jest to, że sztuczny „Ty” będzie sprzedawał się lepiej niż prawdziwy?

Nie można zabezpieczyć się przed wszystkim, co nadejdzie. AI jest jak rzeka – nie zatrzymasz jej ręką. Ale możesz wybudować tamę. Albo przynajmniej śluzę.

Taką śluzą może być umowa. Dobrze napisana. Przemyślana. Uczciwa. Umowa, która mówi: na to się zgadzam, a na to – nie. Umowa, która pozwala Ci cofnąć zgodę, zastrzec kontekst, chronić to, co w Tobie najważniejsze.

Prawo nie nadąży za technologią. Ale umowa może wyprzedzić pułapkę.

Dlatego nie pytaj tylko: czy chcę być w kampanii. Pytaj:

Czy chcę, by moje cyfrowe odbicie żyło dalej beze mnie?
Czy chcę, by ktoś inny pisał moje dowcipy, mówił moim głosem i gestykulował moimi dłońmi?

Jeśli odpowiedź brzmi „nie wiem” – to nie podpisuj.
Jeśli brzmi „może” – to dopisz warunki.
Jeśli brzmi „tak” – to bądź świadomy na co się godzisz.