10 stanów uchwaliło ustawodawstwo kryminalizujące tworzenie lub rozpowszechnianie deepfake'ów. Indiana prawdopodobnie wkrótce dołączy do rosnącej listy poprzez rozszerzenie10 stanów uchwaliło ustawodawstwo kryminalizujące tworzenie lub rozpowszechnianie deepfake'ów. Indiana prawdopodobnie wkrótce dołączy do rosnącej listy poprzez rozszerzenie

Nieprzyzwolona pornografia AI uczyni z nas wszystkich ofiary: Czy prawo nadąży?

2025/12/20 05:43

Ten artykuł został opublikowany wspólnie z The 19th, non-profit redakcją zajmującą się kwestiami płci, polityki i polityki publicznej. Zapisz się na newsletter The 19th tutaj.

\ Ponad dwudziestu uczniów Westfield High School w New Jersey było przerażonych w zeszłym roku, gdy dowiedzieli się, że nagie zdjęcia ich samych krążą wśród rówieśników. Według szkoły, niektórzy uczniowie wykorzystali sztuczną inteligencję (AI) do stworzenia pornograficznych obrazów innych osób z oryginalnych zdjęć. I nie są jedynymi nastolatkami padającymi ofiarą fałszywych nagich zdjęć: uczniowie w stanie Waszyngton i Kanadzie również zgłaszali podobne sytuacje, ponieważ możliwość realistycznej modyfikacji zdjęć staje się coraz bardziej dostępna dzięki stronom internetowym i aplikacjom.

\ Rosnący alarm wokół deepfake'ów—obrazów lub filmów generowanych przez AI—został jeszcze bardziej wzmocniony w styczniu, gdy jeden z nich dotyczący supergwiazdy Taylor Swift błyskawicznie rozprzestrzenił się w mediach społecznościowych.

\ Carrie Goldberg, prawniczka reprezentująca ofiary pornografii bez zgody—powszechnie określanej jako pornografia zemsty—od ponad dekady, powiedziała, że dopiero niedawno zaczęła słyszeć od ofiar obrazów generowanych komputerowo.

\ "Moja kancelaria spotyka się z ofiarami deepfake'ów od około pięciu lat i głównie były to osoby znane," powiedziała Goldberg. "Teraz staje się to problemem dzieci robiących to dzieciom, aby być złośliwymi. Jest to prawdopodobnie mocno niedoszacowane, ponieważ ofiary mogą nie wiedzieć, że istnieje droga prawna, i nie zawsze jest jasne, czy taka istnieje."

\ Organy zarządzające próbują nadążyć. W ciągu mniej więcej ostatniego roku 10 stanów uchwaliło przepisy kryminalizujące konkretnie tworzenie lub rozpowszechnianie deepfake'ów. Te stany—w tym Kalifornia, Floryda, Georgia, Hawaje, Illinois, Minnesota, Nowy Jork, Dakota Południowa, Teksas i Wirginia—określiły kary od grzywien po więzienie. Indiana prawdopodobnie wkrótce dołączy do rosnącej listy, rozszerzając swoje obecne prawo dotyczące pornografii bez zgody.

\ Reprezentantka Indiany Sharon Negele, republikanka, jest autorką proponowanego rozszerzenia. Istniejące prawo definiuje "pornografię zemsty" jako ujawnianie intymnego obrazu, takiego jak każdy przedstawiający stosunek płciowy, odkryte genitalia, pośladki lub kobiecą pierś, bez zgody osoby przedstawionej na obrazie. Proponowany przez Negele projekt ustawy przeszedł przez obie izby i obecnie oczekuje na podpis gubernatora.

\ Negele powiedziała, że zmotywowała ją do aktualizacji kodeksu karnego Indiany historia nauczycielki liceum, która odkryła, że niektórzy z jej uczniów rozpowszechniali deepfake'owe obrazy jej osoby. Było to "niesamowicie destrukcyjne" dla osobistego życia nauczycielki, a Negele była zaskoczona, widząc, że sprawcy nie mogą być ścigani na mocy obecnego prawa.

\ "Zaczęło się od mojej edukacji w zrozumieniu technologii, która jest teraz dostępna i czytania o incydencie po incydencie ludzi, których twarze są przypisywane do zmyślonych ciał, które wyglądają niewiarygodnie prawdziwie i realistycznie," powiedziała Negele. "To po prostu niepokojące. Będąc mamą i babcią i myśląc o tym, co może się stać mojej rodzinie i mnie samej—to szokujące. Musimy wyprzedzić tego typu rzeczy."

\ Goldberg, której kancelaria specjalizuje się w przestępstwach seksualnych, powiedziała, że spodziewa się, iż więcej stanów będzie kontynuować rozszerzanie swoich istniejących przepisów, aby uwzględnić język dotyczący AI.

\ "Dziesięć lat temu tylko trzy stany miały przepisy dotyczące pornografii zemsty lub nadużyć seksualnych opartych na obrazach," powiedziała Goldberg. "Teraz 48 stanów zakazało pornografii zemsty i naprawdę stworzyło to ogromne zmniejszenie pornografii zemsty—co nie jest zaskakujące—dokładnie tak, jak mówiliśmy my, rzecznicy. Cały rozwój deepfake'ów wypełnił luki jako nowy sposób na seksualne upokorzenie kogoś."

\ W 2023 roku opublikowano online ponad 143 000 nowych filmów generowanych przez AI, według The Associated Press. To ogromny skok w stosunku do 2019 roku, kiedy strony internetowe lub aplikacje "nudify" były mniej powszechne, a mimo to było prawie 15 000 takich fałszywych filmów online, według raportu Deeptrace Labs, firmy zajmującej się wywiadem zagrożeń wizualnych. Nawet wtedy te filmy—z których 96 procent stanowiła pornografia bez zgody kobiet—zgromadziły ponad 100 milionów wyświetleń.

\ Goldberg powiedziała, że decydenci polityczni i opinia publiczna wydają się być bardziej zmotywowani do zakazania nagich obrazów generowanych przez AI konkretnie dlatego, że praktycznie każdy może być ofiarą. Jest więcej empatii.

\ "W przypadku pornografii zemsty, w pierwszej fali dyskusji, wszyscy obwiniali ofiarę i sprawiali, że wydawała się być jakimś zboczeńcem za zrobienie zdjęcia lub głupcami za udostępnienie go innej osobie," powiedziała Goldberg. "W przypadku deepfake'ów nie można naprawdę winić ofiary, ponieważ jedyne, co zrobiła, to miała ciało."

\ Amanda Manyame, doradca ds. praw cyfrowych z siedzibą w Republice Południowej Afryki dla Equality Now, międzynarodowej organizacji praw człowieka skupiającej się na pomocy kobietom i dziewczętom, powiedziała, że w Stanach Zjednoczonych praktycznie nie ma ochrony dla ofiar deepfake'ów. Manyame bada polityki i prawa na całym świecie, analizuje, co działa i udziela porad prawnych dotyczących praw cyfrowych, szczególnie w zakresie wykorzystywania i nadużyć seksualnych wspomaganych technologią.

\ "Największą luką jest to, że Stany Zjednoczone nie mają prawa federalnego," powiedziała Manyame. "Wyzwaniem jest to, że kwestia ta jest regulowana stan po stanie i naturalnie nie ma jednolitości ani koordynacji, jeśli chodzi o ochronę."

\ Jest jednak obecnie push na Kapitolu: dwupartyjna grupa senatorów przedstawiła w styczniu ustawę Disrupt Explicit Forged Images and Non-Consensual Edits Act z 2024 roku—znaną również jako ustawa DEFIANCE. Proponowane prawodawstwo ma na celu zatrzymanie rozprzestrzeniania się treści seksualnie jednoznacznych bez zgody.

\ "Nikt—ani celebryci, ani zwykli Amerykanie—nie powinien nigdy znaleźć się w pornografii AI," powiedział w oświadczeniu republikański senator Josh Hawley, współsponsor ustawy. "Niewinne osoby mają prawo bronić swojej reputacji i pociągać sprawców do odpowiedzialności w sądzie." Reprezentantka Alexandria Ocasio-Cortez przedstawiła ustawę partnerską w Izbie Reprezentantów.

\ Według nowego sondażu Data for Progress, 85 procent prawdopodobnych wyborców w całym spektrum politycznym powiedziało, że popiera proponowaną ustawę DEFIANCE—z 72 procentami kobiet silnie popierających w porównaniu do 62 procent mężczyzn.

\ Ale młodsi mężczyźni są bardziej skłonni sprzeciwiać się ustawie DEFIANCE, przy czym około jeden na pięciu mężczyzn poniżej 45 roku życia (22 procent) mówi, że zdecydowanie lub w pewnym stopniu sprzeciwia się prawodawstwu pozwalającemu osobom przedstawionym w jednoznacznych deepfake'ach bez zgody pozwać twórcę.

\ Danielle Deiseroth, dyrektor wykonawczy Data for Progress, powiedziała, że ta kwestia pokazała jeden z "ostrzejszych kontrastów" między młodymi mężczyznami i kobietami, jaki widziała od jakiegoś czasu.

\ "Możemy z całą pewnością powiedzieć, że kobiety i mężczyźni poniżej 45 roku życia mają rozbieżne opinie na temat tej polityki," powiedziała Deiseroth. "To jest kwestia, która nieproporcjonalnie dotyka kobiety, szczególnie młode kobiety, które są bardziej narażone na bycie ofiarami pornografii zemsty. I myślę, że to jest naprawdę główna przyczyna tutaj."

\ Goldberg powiedziała, że tworzenie polityk kryminalizujących złych aktorów to dobry początek, ale ostatecznie niewystarczający. Dobrym następnym krokiem, powiedziała, byłoby podjęcie działań prawnych skierowanych przeciwko dystrybutorom online, takim jak App Store i Google Play, które dostarczają produkty głównie używane do działalności przestępczej. Platformy mediów społecznościowych i aplikacje do przesyłania wiadomości, gdzie te jednoznaczne obrazy są rozpowszechniane, również powinny być pociągnięte do odpowiedzialności, dodała Goldberg.

\ Założyciele #MyImageMyChoice, oddolnej organizacji pracującej nad pomocą ofiarom nadużyć intymnych obrazów, zgodzili się, że więcej powinno być zrobione przez prywatne firmy zaangażowane w tworzenie i dystrybucję tych obrazów.

\ Założyciele—Sophie Compton, Reuben Hamlyn i Elizabeth Woodward—wskazali, że wyszukiwarki takie jak Google kierują większość całkowitego ruchu internetowego do stron z pornografią deepfake'ową, podczas gdy firmy obsługujące karty kredytowe przetwarzają ich płatności. Dostawcy usług internetowych pozwalają ludziom uzyskać do nich dostęp, podczas gdy główne usługi takie jak Amazon, Cloudflare i Github Microsoftu je hostują. A witryny mediów społecznościowych takie jak X pozwalają na cyrkulację treści na dużą skalę. Google zmieniło swoją politykę w 2015 roku i zaczęło pozwalać ofiarom składać wnioski o usunięcie poszczególnych fragmentów treści z wyników wyszukiwania i od tego czasu rozszerzyło politykę na nadużycia deepfake'owe. Jednak firma nie usuwa systematycznie stron z przemocą seksualną opartą na obrazach i nadużyciami deepfake'owymi.

\ "Firmy technologiczne mają moc blokowania, odindeksowywania lub odmawiania usług tym stronom—stronom, których całe istnienie opiera się na naruszaniu zgody i zarabianiu na traumie," powiedzieli Compton, Hamlyn i Woodward w oświadczeniu dla The 19th. "Ale postanowiły tego nie robić."

\ Goldberg wskazała na szybkość, z jaką rozprzestrzeniały się deepfake'y Taylor Swift. Jeden obraz udostępniony na X, wcześniej znanym jako Twitter, został wyświetlony 47 milionów razy, zanim konto, które go opublikowało, zostało zawieszone. Obrazy nadal się rozprzestrzeniały pomimo wysiłków firm mediów społecznościowych, aby je usunąć.

\ "Brutalne, kobieto-nienawidzące zdjęcia Taylor Swift, krwawe i nagie na meczu Kansas City Chiefs, są symbolem problemu," powiedziała Goldberg. "Zasięg tej dystrybucji, w tym na naprawdę głównych stronach, wysyła wszystkim wiadomość, że można tworzyć takie treści. Dla mnie to był naprawdę kluczowy i dość przerażający moment."

\ Biorąc pod uwagę wysoki profil ofiary, incydent wywołał wyraźne i powszechne oburzenie wśród fanów Swift i zwrócił uwagę opinii publicznej na tę kwestię. Goldberg powiedziała, że sprawdziła, czy którykolwiek z dystrybutorów online usunął produkty ze swoich sklepów internetowych, które ułatwiają i taniej tworzą seksualnie jednoznaczne deepfake'y—i była zadowolona, widząc, że tak zrobili.

\ W miarę jak decydenci polityczni i sądy kraju nadal próbują reagować na szybko rozwijającą się i coraz bardziej dostępną technologię, Goldberg powiedziała, że ważne jest, aby prawodawcy nadal odkładali ekspertom i tym, którzy pracują bezpośrednio z ofiarami, takim jak prawnicy, pracownicy socjalni i rzecznicy. Prawodawcy, którzy regulują abstrakcyjne idee lub szybko rozwijające się technologie, mogą być "receptą na katastrofę" w przeciwnym razie, dodała.

\ Manyame również podkreśliła znaczenie bezpośredniej rozmowy z osobami, które przeżyły podczas podejmowania decyzji politycznych, ale dodała, że prawodawcy muszą również myśleć bardziej holistycznie o problemie i nie ugrzęznąć zbytnio w konkretnej technologii—ryzykując zawsze pozostawanie w tyle. Na przykład, Manyame powiedziała, że ogół społeczeństwa dopiero teraz zaczyna rozumieć zagrożenia stwarzane przez AI i deepfake'y—coś, do czego pomogła napisać raport w 2021 roku. Patrząc w przyszłość, Manyame już myśli o Metaverse—przestrzeni wirtualnej rzeczywistości—gdzie użytkownicy zaczynają się zmagać z przypadkami gwałtu, molestowania seksualnego i nadużyć.

\ "Wiele praw dotyczących nadużyć seksualnych opartych na obrazach jest nieco przestarzałych, ponieważ mówią konkretnie o pornografii zemsty," powiedziała Manyame. "Pornografia zemsty historycznie była bardziej kwestią przemocy domowej, polegającą na tym, że intymny partner udostępnia obraz seksualnie wykorzystujący swojego byłego lub obecnego partnera. Nie zawsze tak jest w przypadku deepfake'ów, więc te prawa mogą nie zapewniać wystarczającej ochrony."

\ Ponadto Manyame argumentowała, że wiele z tych polityk nie poszerza definicji "obrazu intymnego", aby uwzględnić różnorodne tła kulturowe lub religijne. Na przykład dla niektórych muzułmanek może być równie naruszające i upokarzające tworzenie i rozpowszechnianie obrazów ich odkrytej głowy bez hidżabu.

\ Jeśli chodzi o rozwiązania, Manyame wskazała na działania, które mogą być podjęte przez twórców aplikacji, regulatorów platform i prawodawców.

\ W fazie projektowania można wbudować więcej środków bezpieczeństwa, aby ograniczyć szkody. Na przykład, Manyame powiedziała, że istnieją aplikacje, które mogą robić zdjęcia kobiet i automatycznie usuwać ich ubrania, podczas gdy ta sama funkcja nie działa na zdjęciach mężczyzn. Istnieją sposoby w zapleczu tych aplikacji, aby utrudnić usuwanie ubrań z każdego, niezależnie od płci.

\ Jednak gdy złowrogie deepfake'y są już utworzone i opublikowane, Manyame powiedziała, że platformy mediów społecznościowych i przesyłania wiadomości powinny mieć lepsze mechanizmy do usuwania treści po zgłoszeniu przez ofiary. Wiele razy indywidualne ofiary są ignorowane. Manyame powiedziała, że zauważyła, że te duże firmy mediów społecznościowych są bardziej skłonne do usuwania tych deepfake'ów w krajach, takich jak Australia, które mają zewnętrznych regulatorów do obrony ofiar.

\ "Muszą być mechanizmy monitorowania i egzekwowania włączone w każde rozwiązanie," powiedziała Manyame. "Jedną z rzeczy, które słyszymy od wielu osób, które przeżyły, jest to, że po prostu chcą, aby ich obraz został usunięty. Nie chodzi nawet o przejście przez proces prawny. Po prostu chcą, aby ta treść zniknęła."

\ Manyame powiedziała, że to nie jest zbyt duże żądanie dla wielu firm technologicznych i regulatorów rządowych, ponieważ wiele z nich już szybko reaguje na usuwanie nieodpowiednich zdjęć z udziałem dzieci. To tylko kwestia rozszerzenia tego rodzaju ochrony na kobiety, dodała.

\ "Moim zmartwieniem jest to, że było pośpieszne wdrażanie praw i polityk dotyczących AI bez uwzględnienia, jakie są niektóre z głównych przyczyn tych szkód. To jest wielowarstwowy problem i jest wiele innych warstw, które muszą być podjęte."


Autorzy

  • Mariel Padilla dla The 19th

Ilustracja

  • Rena Li

Redakcja

  • Flora Peir dla The 19th

\ Opublikowano również tutaj

\ Zdjęcie autorstwa Steve Johnson na Unsplash

Okazja rynkowa
Logo Sleepless AI
Cena Sleepless AI(AI)
$0.03641
$0.03641$0.03641
+2.01%
USD
Sleepless AI (AI) Wykres Ceny na Żywo
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z service@support.mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.