Zaczęło się jak żart. Podcast „Dudesy”, prowadzony przez Willa Sasso (znanego z MADtv) i Chada Kultgena, ogłosił, że stworzyli — z pomocą AI — nowy stand-up George’a Carlina. Tak, tego George’a Carlina, który zmarł w 2008 roku, ale wcześniej zdążył sprawić, iż jego straszliwe, błyskotliwe monologi na zawsze zapisały się w historii komedii.
Sztuczna inteligencja miała „nauczyć się” jego stylu na podstawie archiwalnych występów i wygenerować godzinny materiał zatytułowany: „I’m Glad I’m Dead”.
W styczniu 2024 nagranie pojawiło się na YouTube. Było niepokojąco realistyczne – AI odtworzyła głos Carlina, rytm jego wypowiedzi, a nawet charakterystyczne gesty.
Nie minęły dwa dni, a Kelly Carlin — córka komika i zarządczyni jego praw osobistych — zapowiedziała pozew. Twórcy podcastu zostali pozwani przed sądem federalnym w Kalifornii o bezprawne wykorzystanie wizerunku, głosu i stylu zmarłego artysty. W kwietniu 2024 roku sprawa zakończyła się ugodą. Materiał zniknął z sieci, a twórcy obiecali, że więcej nie „ożywią” Carlina.
Kelly Carlin podsumowała sprawę jednym zdaniem:
„No machine will ever replace his genius.”
To była tylko zapowiedź tego, co ma nadejść.
W czerwcu 2025 roku Paul Skye Lehrman i Linnea Sage – dwoje zawodowych lektorów – wniosło pozew przeciwko firmie Lovo Inc., znanej z komercyjnej platformy oferującej „syntetyczne głosy” dla potrzeb reklam, podcastów i mediów wideo.
Jak się okazało, Lovo wykorzystało próbki ich głosów — pierwotnie nagrane dla anonimowych klientów na Fiverr — do stworzenia modeli AI nazwanych „Kyle Snow” i „Sally Coleman”. Modele te były oferowane użytkownikom jako gotowe, skomercjalizowane narzędzia głosowe.
Pozew złożono w sądzie federalnym w Nowym Jorku. Sąd uznał, że głos może podlegać ochronie w ramach prawa do wizerunku (right of publicity), a także, że wykorzystanie nagrań w procesie treningowym dla AI może naruszać prawa autorskie.
Sprawa trwa, ale już teraz uznawana jest za precedensową – bo pokazuje, że głos, podobnie jak twarz, to nośnik tożsamości, który nie powinien być replikowany bez świadomej zgody.
Rok 2024 przyniósł także pierwszy akt prawny, który bezpośrednio mierzy się z problemem „AI-reinkarnacji”. Chodzi o ELVIS Act (Ensuring Likeness, Voice and Image Security Act), który wszedł w życie 1 lipca 2024 roku w stanie Tennessee.
Pomysłodawcą był Gebre Waddell, założyciel firmy Sound Credit, który zorganizował pokaz dla lokalnych ustawodawców. Zaprezentował, jak łatwo AI może odtworzyć głos Elvisa Presleya — a następnie głosy innych, jeszcze żyjących artystów. Zabawny eksperyment szybko zmienił się w źródło uzasadnionego niepokoju: AI w rękach każdego oznacza możliwość generowania dowolnych „występów”, bez zgody, bez wynagrodzenia, bez kontroli.
Pod wpływem presji branży muzycznej uchwalono ustawę, która:
Dziś Tennessee jest pierwszym stanem, który realnie zabezpiecza „cyfrowe ja” artystów. I wszystko wskazuje na to, że nie ostatnim.
W obliczu tych historii coraz trudniej zignorować fakt, że klasyczne formuły „zgody na wykorzystanie wizerunku w Internecie” po prostu już nie wystarczają.
AI zmienia naturę eksploatacji:
Dlatego w umowach warto rozważyć wprowadzenie klauzul, które:
Wprowadzają prawo kontroli i sprzeciwu, np:
„Zamawiający ma obowiązek uzyskać akceptację Influencera każdorazowo przed wykorzystaniem materiału zawierającego jego wizerunek/głos zmodyfikowany przy użyciu technologii AI. W wypadku nieuzyskania akceptacji przez Zamawiającego przed publikacją takich materiałów, Influencer ma prawo, w każdym czasie, zgłosić sprzeciw wobec konkretnego sposobu wykorzystania swojego wizerunku/głosu. W takim przypadku Zamawiający zobowiązuje się do niezwłocznego wstrzymania dystrybucji materiału i jego usunięcia.”
To pytanie brzmi dramatycznie, ale dziś jesteśmy świadkami powstawania takich możliwości – dzień po dniu – w świecie, który zmienia ludzkie cechy w dane, a osobowość w pakiet eksportowy. Głos, mimika, styl wypowiedzi, powiedzonka… wszystko to można dziś zapisać, zsyntetyzować, zreplikować. A skoro można to zreplikować, można też skopiować. Skoro można skopiować – można też wykraść. Czasem bez naszej wiedzy, czasem pod pretekstem, a czasem… za naszą zgodą, podpisaną w pośpiechu, bo „tak się teraz robi”.
Sprzedaż wizerunku to nie jest nowy wynalazek. Ale jego digitalna forma to już nie tylko „czyjaś twarz na plakacie”. To może być cała Twoja istota: głos mówiący coś, czego nigdy nie powiedziałeś; ciało poruszające się w sposób, który Cię ośmiesza; twarz wyginająca się w sztucznym śmiechu generowanym przez algorytm uczący się Twojego tik-toka.
A może najgroźniejsze jest to, że sztuczny „Ty” będzie sprzedawał się lepiej niż prawdziwy?
Nie można zabezpieczyć się przed wszystkim, co nadejdzie. AI jest jak rzeka – nie zatrzymasz jej ręką. Ale możesz wybudować tamę. Albo przynajmniej śluzę.
Taką śluzą może być umowa. Dobrze napisana. Przemyślana. Uczciwa. Umowa, która mówi: na to się zgadzam, a na to – nie. Umowa, która pozwala Ci cofnąć zgodę, zastrzec kontekst, chronić to, co w Tobie najważniejsze.
Prawo nie nadąży za technologią. Ale umowa może wyprzedzić pułapkę.
Dlatego nie pytaj tylko: czy chcę być w kampanii. Pytaj:
Czy chcę, by moje cyfrowe odbicie żyło dalej beze mnie?
Czy chcę, by ktoś inny pisał moje dowcipy, mówił moim głosem i gestykulował moimi dłońmi?
Jeśli odpowiedź brzmi „nie wiem” – to nie podpisuj.
Jeśli brzmi „może” – to dopisz warunki.
Jeśli brzmi „tak” – to bądź świadomy na co się godzisz.