Home Styl życia Deepfake’i wyborcze stają się coraz lepsze (i łatwiejsze do wykonania)

Deepfake’i wyborcze stają się coraz lepsze (i łatwiejsze do wykonania)

17
0


Dziś nie potrzeba wiele, żeby stworzyć naprawdę dobrą podróbkę, szczególnie jeśli ktoś ma dostęp do narzędzi ze sztuczną inteligencją, przyzwoitego komputera do gier i bogatego zasobu próbek audio i wideo osoby, którą próbuje sklonować.

Oszuści wykorzystują klony obrazu i dźwięku, często w czasie rzeczywistym, aby oszukać wszystkich – od firm myślących, że przelewają pieniądze wysokiemu dyrektorowi, po rodziców wysyłających pieniądze w panice po otrzymaniu telefonu z prośbą o pomoc od osoby, którą uważają za swoje dziecko.

A teraz coraz bardziej przekonujące deepfake’i, z których część jest ponownie publikowana w mediach społecznościowych i wzmacniana przez osoby takie jak Donald Trump i Elon Musk, są wykorzystywane do wprowadzania Amerykanów w błąd przed listopadowymi wyborami prezydenckimi. Eksperci obawiają się, że te deepfake’i mogą wpłynąć na to, jak lub nawet czy ludzie będą głosować.

„Ważne jest, aby edukować ludzi na ten temat, ponieważ wybory są za około trzy miesiące, a już się odbywają” — powiedział Brandon Kovacs, starszy członek red teamu w firmie zajmującej się cyberbezpieczeństwem Bishop Fox. Członkowie red teamu pomagają firmom wzmocnić ich cyberobronę, atakując je w celu znalezienia luk w zabezpieczeniach.

Dezinformacja wyborcza, czy to rozpowszechniana przez polityków, czy przez wrogów USA, nie jest niczym nowym. Nowością w wyścigu prezydenckim w 2024 r. jest pojawienie się narzędzi open source opartych na sztucznej inteligencji, wraz z samouczkami YouTube, które mogą umożliwić praktycznie każdemu tworzenie potencjalnie przekonujących deepfake’ów i wykorzystywanie ich do rozpowszechniania dezinformacji.

„To nie tak, że używasz jakichś szalonych, tajnych narzędzi” – powiedział Kovacs. „Wszystko jest dostępne, gotowe do użycia”.

Brandon Kovacs z serialu Bishop Fox pokazuje, jak łatwo jest kogoś oszukać, podszywając się pod współpracownika.

Bree Fowler/CNET

To jeden z głównych powodów, dla których Kovacs spędził długi weekend na początku tego miesiąca na konferencji Defcon w Las Vegas, demonstrując na ogromnym wydarzeniu AI Village, jak łatwo jest tworzyć fałszywe filmy. Roczne spotkanie gromadzi dziesiątki tysięcy hakerów i innych profesjonalistów z dziedziny cyberbezpieczeństwa.

Używając jedynie konsumenckiego laptopa do gier, podstawowej lustrzanki cyfrowej, odrobiny oświetlenia i zielonego ekranu, Kovacs przeobraził pełnych zapału uczestników Defconu w osoby takie jak najpopularniejsi hakerzy ze swojego zespołu, a także gwiazdy takie jak Trump, Jackie Chan i Keanu Reeves.

Chociaż wyniki nie były idealne, zadziwiające było, jak dobrze działało oprogramowanie do zamiany twarzy. Uczestnicy zostali przekształceni w deepfake’owaną osobę swojego wyboru na ekranie telewizora obok nich w czasie rzeczywistym. Sceny tła, takie jak biuro lub redakcja telewizyjna, zastąpiły zielony ekran, a rekwizyty, takie jak peruki, pomogły oprawić zamienioną twarz i dodały elementy naturalnego ruchu, które uczyniły cały obraz bardziej przekonującym.

Gdy uczestnik się poruszył i przemówił, fałszywy obraz zrobił to samo. Głosy również klonowano w czasie rzeczywistym, ale trudno je było usłyszeć w zatłoczonym centrum kongresowym. W nagraniu nie było dużego opóźnienia, a Kovacs powiedział, że użycie mocniejszego komputera zamiast modelu konsumenckiego znacznie je zminimalizowałoby.

Celem demonstracji było podniesienie świadomości na temat tego, jak daleko zaszły deepfake’i, a także pomoc tym, którzy bronią systemów komputerowych, w budowaniu lepszych modeli do ich wykrywania. Konkretnie, dane Kovacsa zostaną wykorzystane do zasilania modelu wykrywania deepfake’ów, nad którym pracuje Defense Advanced Research Projects Agency.

Deepfake’i jako dezinformacja

Deepfake’i nie muszą być nowatorskie, żeby były przekonujące, zwłaszcza jeśli pochodzą od kogoś znanego.

Trump niedawno opublikował zdjęciaprzynajmniej niektóre z nich wydawały się być generowane przez sztuczną inteligencję na jego koncie Truth Social, co sugerowało, że był popierany przez megagwiazdę Taylor Swift i jej fanów. Obrazy, które zwieńczył tekstem „Akceptuję”, zostały pierwotnie opublikowane na Xdawniej znane jako Twitter, przez użytkownika, który nazwał je satyrą. Jeden z obrazów repostowanych na koncie Trumpa Truth Social ma nawet słowo „satyra” w tekście obrazu.

Z drugiej strony Trump również fałszywie oskarżył kampanię wiceprezydent Kamali Harris sfałszowania zdjęcia zrobionego na lotnisku Detroit Metropolitan Wayne County Airport, mówiąc, że „zrobił to”, aby pokazać ogromny tłum, który, jak twierdzi, nie istnieje. Ale kilka innych filmów i zdjęć wydarzenia pokazało tłum o podobnej liczebności jak ten pokazany na zdjęciu kampanii Harrisa. Lokalni reporterzy na wydarzeniu oszacowali, że tłum liczył około 15 000 osób.

W tym samym wpisie Truth Social Trump powtórzył również swoje fałszywe twierdzenia o oszustwach wyborczych dokonywanych przez Demokratów. Prawie cztery lata po usunięciu z urzędu Trump nadal promuje kłamstwo, że wybory w 2020 r. zostały sfałszowane, mimo braku prawdziwych dowodów na poparcie tego.

Przedstawiciele kampanii Trumpa i Swift nie odpowiedzieli na e-maile z prośbą o komentarz.

Osobno Elon Musk, właściciel Platformy X popierający Trumpa, w lipcu wpadł w tarapaty po tym, jak opublikował wideo na X który wykorzystał technologię klonowania głosu, aby odtworzyć głos Harris i stworzyć sfałszowaną narrację, która odtwarzała fragmenty jednego z jej filmów kampanijnych.

Musk nie nazwał wpisu satyrą, ale po otrzymaniu krytyki wyjaśnił, że tak właśnie jest.

Nadal można być zabawnym, prawda?

Niezależnie od tego, czy pochodzi od prowadzących talk-show późnym wieczorem, czy z Internetu, trudno wyobrazić sobie współczesną amerykańską politykę bez satyry, która, przyznaję, czasami może nieumyślnie dezinformować ludzi. Jednak deepfake’i mogą przenieść sprawy na nowy poziom, gdy ludzie za nimi stojący celowo wykorzystują je do szerzenia dezinformacji dla własnej korzyści.

Adam Marrè, dyrektor ds. bezpieczeństwa informacji w firmie zajmującej się cyberbezpieczeństwem Arctic Wolf, twierdzi, że te deepfake’i muszą przekonać stosunkowo niewielu ludzi o swojej skuteczności.

„Kiedy ludzie przeglądają swoje kanały, zobaczą to i myślę, że niektórzy z nich mogą nie zrozumieć, że to deepfake, albo może nawet nie będą się tym przejmować” – powiedział Marrè. „A wszystko to będzie kształtować opinię w pewien sposób”.

Dlatego też, jak twierdzi, niezwykle ważne jest, aby firmy zajmujące się mediami społecznościowymi, a także firmy zajmujące się sztuczną inteligencją, zrobiły wszystko, co w ich mocy, aby wykryć osoby stojące za szkodliwymi deepfake’ami.

„Wciąż obawiam się, że polegamy na ich dobrej woli, ich pragnieniu bycia dobrymi obywatelami, aby to zrobić” – powiedział. „Nie ma żadnej podstawy regulacyjnej, której moglibyśmy użyć, ani której mogliby użyć ustawodawcy, aby to wyegzekwować. Tego nam nadal brakuje”.