Historia deepfake'ów, dezinformacji i edycji wideo

Ludzie rozpowszechniają dezinformację od zarania mediów.

„Los zrządził, że ludzie, którzy udali się na Księżyc, aby w spokoju eksplorować, pozostaną na Księżycu, aby spocząć w pokoju”.

To były słowa, które Richard Nixon przeczytał w telewizji w 1969 roku, przekazując narodowi straszną wiadomość, że Misja Apollo 11 zakończyła się niepowodzeniem, a astronauci Neil Armstrong i Buzz Aldrin zginęli podczas próby pierwszego lotu na Księżyc lądowanie.

Ale tylko w alternatywnej rzeczywistości. Nixon nigdy nie musiał wypowiadać tych zdań, ponieważ Apollo 11 odniósł historyczny sukces, a Armstrong, Aldrin i ich pilot Michael Collins bezpiecznie wrócili na Ziemię. Ale przygotowano przemówienie dla ówczesnego prezydenta Nixona na wypadek, gdyby tego nie zrobili. Krótki film W przypadku katastrofy księżycowej pokazuje nam, jak potoczyłby się ten scenariusz z niesamowicie przekonującym deepfake Nixona dostarczającego katastrofalne wieści.

[Powiązany: 7 prostych sposobów, dzięki którym możesz przekonać się, że lądowanie na Księżycu naprawdę się wydarzyło]

Deepfake to połączenie „głębokiego”, co oznacza głębokie uczenie się, i „fałszywego”, jak w przypadku sfabrykowanego. Razem jest to etykieta klipu audio lub wideo, która wykorzystuje sztuczną inteligencję do przedstawienia scenariusza, który nigdy się nie wydarzył. Zwykle polega to na tym, że osoba mówi lub robi coś, czego nigdy nie zrobiła, często bez zgody portretowanych, mówi Halsey Burgund, jedna z dyrektorek W przypadku katastrofy księżycowej.

Chociaż deepfake to nowość, opierają się one na długiej i ugruntowanej linii zniekształconych mediów, które nadal istnieją jako mało zaawansowane technologicznie, skuteczne dezinformacje. Chociaż technologia deepfake szybko ewoluuje, podejmowane są wysiłki, aby spowolnić jej rozpowszechnianie. I chociaż istnieje wiele złośliwych zastosowań deepfake'ów, istnieje kilka korzystnych zastosowań w obszarach takich jak prawa człowieka i dostępność. Trwająca wystawa w Museum of the Moving Image w Nowym Jorku, Deepfake: Niestabilne dowody na ekranie, bada te tematy za pomocą W przypadku katastrofy księżycowej jako jego centralny element.

W przypadku katastrofy księżycowej jest deepfake Richarda Nixona mówiącego narodowi, że Apollo 11 się nie powiódł.

Różnica między deepfake'ami a innymi dezinformacjami

Aby zrobić deepfake osoby, twórcy muszą wyszkolić komputer, przekazując mu wiele wideo, audio lub obrazów „celu”, osoby, której obraz i głos, którym próbujesz manipulować, oraz „źródło”, aktor, który modeluje słowa lub działania, które chcesz, aby cel powiedział lub Do. Aby to osiągnąć, komputer wykorzystuje formę sztucznych sieci neuronowych, które mają działać jak ludzki mózg próbując rozwiązać problem, patrząc na dowody, znajdując wzorce, a następnie stosując ten wzorzec do nowych Informacja. Sieci neuronowe zostały po raz pierwszy opracowane w 1943 roku i można ich używać do wszystkiego pisanie przepisu Do tłumaczenie zawiłych artykułów z czasopism. Głębokie uczenie się i tworzenie deepfake'ów obejmuje wiele warstw sieci neuronowych, tak bardzo, że komputer może sam się uczyć i poprawiać.

Chociaż technologia deepfake sama w sobie może wydawać się szkodliwa, pomaga jej szybkość, z jaką użytkownicy mediów społecznościowych rozpowszechniają informacje, często bez zastanawiania się nad ich źródłem.

„Deepfake jako technologia produkcji budzi wiele obaw” – mówi Barbara Miller, współkurator wystawy i zastępca dyrektora ds. kuratorskich w Muzeum Ruchomego Obrazu. „Myślę, że nie można myśleć o tym problemie bez patrzenia na błyskawiczną prędkość, z jaką krążą informacje”.

Jednak skuteczne rozpowszechnianie dezinformacji poprzedza deepfake, a nawet media społecznościowe. Wystawa prezentuje deepfake'i w kontekście długiej historii „niestabilnych mediów non-fiction”, dodaje Miller, więc odwiedzający nie są pozostawieni z założeniem, że wzrost manipulacji opartych na sztucznej inteligencji jest źródłem wszelkiej nieufności głoska bezdźwięczna.

„Są to techniki, które istniały od zawsze, odkąd istnieją same media” — mówi Burgund.

Korzystając z podstawowych umiejętności edycji wideo, prawie każdy może pokroić i pokroić materiał, aby zmienić jego znaczenie lub ton.

W latach 90. XIX wieku firma Edison Manufacturing Company była chętna do wykorzystania możliwości filmów uchwycił przed kamerą wojnę hiszpańsko-amerykańską. Jednak kamery w XIX wieku były o wiele bardziej nieporęczne niż dzisiejsze, co utrudniało filmowanie walki z bliska. Tak więc firma rozrzuciła inscenizowane nagrania amerykańskich żołnierzy szybko pokonujących wrogie pułki wśród prawdziwych nagrań maszerujących żołnierzy i uzbrojenia. Cięcia podsyciły patriotyzm wśród amerykańskich widzów, którym nie powiedziano, jaka jest różnica między prawdziwymi a fałszywymi scenami.

Nawet dzisiaj sztuczna inteligencja nie jest potrzebna do tworzenia skutecznej i skutecznej dezinformacji. „Wypróbowane metody manipulacji, które były stosowane od zawsze, są nadal skuteczne” — mówi Burgund. Wyjaśnia, że ​​nawet umieszczenie niewłaściwego podpisu na zdjęciu, nawet bez edytowania obrazu, może spowodować dezinformację.

Weźmy na przykład wybory prezydenckie w 2020 roku. Miller mówi, że w miesiącach poprzedzających to istniały obawy, że deepfake może zagrozić procesowi demokratycznemu. Jednak technologia ta nie zrobiła wielkiego szumu podczas wyborów, przynajmniej w porównaniu z prymitywnymi formami manipulacji, które były w stanie skutecznie rozpowszechniać dezinformację.

Korzystając z podstawowych umiejętności edycji wideo, prawie każdy może pokroić i pokroić materiał, aby zmienić jego znaczenie lub ton. Nazywa się je „tanimi podróbkami” lub „płytkimi podróbkami” (jednym z najwcześniejszych przykładów były połączone hiszpańsko-amerykańskie filmy wojenne). Wstęp do W przypadku katastrofy księżycowej wykorzystuje te techniki na materiałach archiwalnych, aby wyglądało na to, że Apollo 11 się rozbił. Reżyserzy przeplatali materiał z lądownika księżycowego powracającego między szybkimi ujęciami astronautów i ustawili go na ścieżkę dźwiękową przyspieszonych pikań i szumów statycznych, aby stworzyć wywołującą niepokój iluzję, że misja się nie udała. Ponieważ te techniki wymagają minimalnej wiedzy i niewiele więcej niż laptop, są znacznie bardziej wszechobecne niż deepfake.

„[Shallowfakes] jest miejscem, w którym obserwujemy najszerszy zakres szkód” – mówi Joshua Glick, współkurator wystawy i adiunkt anglistyki, filmoznawstwa i medioznawstwa w Hendrix College.

W rzeczywistości niektóre z najbardziej znanych filmów, o których dyskutowano jako deepfake, są w rzeczywistości tanimi podróbkami. W 2019 roku Rudolph Giuliani, prawnik ówczesnego prezydenta Donalda Trumpa, napisał na Twitterze: wideo Nancy Pelosi, w której zdawała się bełkotać, co skłoniło niektórych jej krytyków do twierdzenia, że ​​była pijana. Okazało się, że wideo było edytowane i spowolnione, ale nie korzystało z żadnej technologii deepfake.

Burgund i jego współreżyser, Francesca Panetta, myślę, że efekt potwierdzenia jest tym, co naprawdę pomaga w rozpowszechnianiu deepfake'ów lub tanich podróbek, nawet jeśli są wyraźnie źle wykonane. „Jeśli deepfake przedstawia coś, w co chcesz wierzyć, to wcale nie musi wyglądać prawdziwie” — mówi Burgund.

Spowolnienie rozprzestrzeniania się deepfake'ów

Chociaż obecnie wymaga to pewnego technicznego know-how, aby stworzyć deepfake, taki jak Burgund i Panetta, Matthew Wright, dyrektor badań w Global Cybersecurity Institute w Rochester Institute of Technology i profesor bezpieczeństwa komputerowego mówi, że technologia szybko rozprzestrzenia się wśród mas, a jest ich już wielu aplikacje i oprogramowanie typu deepfake.

„To demokratyzacja potencjalnie niebezpiecznej technologii” – mówi Wright.

Istnieją jednak wysiłki mające na celu spowolnienie lub przeciwdziałanie rozprzestrzenianiu się deepfake'ów. Podczas gdy zwykłym impulsem wśród badaczy technologii jest dzielenie się metodami i narzędziami z opinią publiczną, Wright mówi, że niektórzy eksperci opracowujący nowe technologie deepfake obiecali, że będą bardziej utrzymywać swoje wyniki prywatny. Oprócz tego realizowane są takie projekty jak np Inicjatywa autentyczności treści, które jest konsorcjum firm i organizacji, takich jak Adobe, Twitter i New York Timesa który ma na celu śledzenie pochodzenia mediów poprzez znakowanie ich znakiem wodnym, nawet jeśli są edytowane. To nie jest idealne rozwiązanie, mówi Wright, ponieważ istnieją sposoby na ominięcie tych kontroli. Mimo to, jeśli każdy film wychodzący z Białego Domu, powiedzmy, byłby opatrzony cyfrowym znakiem wodnym, mogłoby to spowolnić lub uniemożliwić manipulację.

Wright pracuje nad stworzeniem narzędzi do wykrywania deepfake, z których mogliby korzystać dziennikarze i zwykli użytkownicy internetu. (Microsoft wypuścił podobny produkt w 2020 roku.) Wright mówi, że on i jego koledzy są bardzo ostrożni, aby nie udostępniać całego kodu źródłowego ponieważ jest możliwe, że ktoś mógłby stworzyć deepfake, aby oszukać te detektory, gdyby miał do nich dostęp do tego. Ale jeśli istnieje różnorodność uwierzytelniających, prawdopodobieństwo, że tak się stanie, jest mniejsze.

„Tak długo, jak wiele narzędzi do wykrywania jest faktycznie używanych przeciwko tym filmom, myślę, że ogólnie nasze szanse na złapanie [deepfakes] są całkiem dobre” – mówi Wright.

Film dokumentalny 2020 Witamy w Czeczenii wykorzystał technologię deepfake, aby zamaskować twarze swoich wrażliwych osób.

Wartości technologii deepfake

Być może zetknąłeś się z zaletami deepfake'ów w rozrywce, jak np najnowsze filmy z Gwiezdnych Wojen, lub w satyrze, jak ta Powrót do Star Treka z twarzami Jeffa Bezosa i Elona Muska. Jednak technologia ta ma również zastosowanie w zakresie praw człowieka i dostępności dla osób niepełnosprawnych.

Na wystawie Muzeum Ruchomego Obrazu znajdują się fragmenty m.in Witamy w Czeczenii, wielokrotnie nagradzany film dokumentalny Davida France'a, który wykorzystuje technologię deepfake do ukrywania prawdziwych twarzy aktywistów LGBTQ prześladowanych w republice rosyjskiej. Pozwala to widzowi zobaczyć emocje bohaterów, jednocześnie chroniąc ich tożsamość.

Technologia została również wykorzystana do poprawy dostępności dla tych, którzy stracili głos z powodu choroby, urazu lub niepełnosprawności, takiej jak choroba Lou Gehriga, mówi Burgund. VocaliD, na przykład wykorzystuje sztuczną inteligencję do odtworzenia głosu użytkownika ze starych nagrań dla technologii zamiany tekstu na mowę lub pomaga mu wybrać głos, który najlepiej pasuje do jego osobowości z banku opcji.

[Powiązany: Deepfake może pomóc nam przeżyć historię na nowo — lub napisać ją od nowa]

Podczas gdy Panetta i Burgund chcą, aby widzowie ich deepfake przesłuchiwali pochodzenie mediów napotykają, nie chcą, aby publiczność była zaalarmowana do tego stopnia, że ​​stworzyła zerowe zaufanie społeczeństwo.

„Nie chodzi o to, by straszyć ludzi, aby nie wierzyli we wszystko, co zobaczą”, mówi Panetta, „ponieważ jest to tak samo problematyczne jak sama dezinformacja”.

Tak jak zaufanie do mediów można uzbroić, tak i nieufność do mediów można uzbroić.

Jak wskazuje eksponat, nawet teoretyczne istnienie deepfake'ów skutkuje „dywidendą kłamcy”, gdzie można insynuować, że prawdziwy film jest deepfake, aby zasiać ziarno wątpliwości.

W 2018 roku prezydent Gabonu Ali Bongo Ondimba wygłosił orędzie noworoczne po tym, jak doznał udaru mózgu i w rezultacie zniknął z oczu opinii publicznej. Jego polityczni rywale mówili, że wygląda nienaturalnie i podsunął pomysł, że wideo było deepfake. Podczas gdy eksperci zgodzili się, że wideo wydawało się nieaktualne, nikt nie mógł powiedzieć na pewno, że był to deepfake, czy nie, a niektórzy przypisywali osobliwość wyglądu Bongo jego złemu zdrowiu. Tydzień później, powołując się na dziwaczność nagrania, jego przeciwnicy podjęli próbę zamachu stanu ale zakończyły się niepowodzeniem.

Wright mówi, że on i jego współpracownicy zaczęli dostrzegać więcej takich sytuacji w sferze politycznej niż prawdziwe deepfake krążące i powodujące szkody. „Mogą istnieć deepfake, ale nie są one tak powszechnie używane” – mówi. „To, co musisz zrobić, to zrozumieć źródło”.

Dla każdego, kto jest zalewany informacjami podczas przeglądania mediów społecznościowych i wiadomości, ważne jest, aby zatrzymać się i zadać sobie pytanie: „Jak ta informacja do mnie dotarła? Kto to rozpowszechnia? Czy mogę ufać temu źródłu?” W ten sposób można określić, czy deepfake (lub cheapfake) stanie się potężną dezinformacją, czy tylko kolejnym filmem w Internecie.

Deepfake: Niestabilne dowody na ekranie będzie można oglądać w Museum of the Moving Image w Queens w stanie Nowy Jork do 15 maja 2022 r.

Najnowszy wpis na blogu

Walka ze starzejącymi się głowicami nuklearnymi
August 22, 2023

Propozycja modernizacji arsenału USA wywołała burzliwą debatę. Amerykańskie głowice nuklearne mogły być cudami technologii pół wieku temu, ale dzi...

IOS 15.4 i macOS 12.3 są już dostępne z funkcją Universal Control i nie tylko
October 09, 2023

Powiększać/ iPhone 13 Pro Max sfotografowany iPhonem 13 Pro przy słabym świetle.Samuela Aksona94 z Firma Apple udostępniła dziś publiczne wersje ws...

Google kupuje startup Micro LED Raxium, który chce produkować wyświetlacze AR
September 27, 2023

PowiększaćRaksium51 z Google dolewa oliwy do płonącego w firmie pożaru AR. Informacja donosi, że Google zawarł umowę zakupu Raksium, „startup dział...