Dwa lata temu na youtube pojawił się film typu DeepFake z Tomem Cruisem. Fałszywe nagranie, rzekomo Toma Cruisa było zabawne i tak doskonałej jakości, że rozeszło się w sieci w setkach milionów wyświetleń.
Zachęcam do zobaczenia tego na youtube.
Jego twórcą był Miles Fisher, specjalista od tworzenia cyfrowych efektów specjalnych. I nawet jemu stworzenie takiego filmu zajęło dużo czasu. Dzisiaj stworzenie fałszywego filmu z bardzo wysokim poziomem, nazwijmy to post-realizmu, nie wymaga żadnej wiedzy i jedynie kilku kliknięć w serwisach lub aplikacjach na komputery czy smartfony wspieranych przez AI czyli tzw. Sztuczną Inteligencję.
Przy tym te serwisy i aplikacje w ciągu ostatniego roku przestały być niszą funkcjonującą gdzieś na krańcach Internetu – urosły do masowo działającego i prężnego biznesu internetowego.
Wybaczcie cenzurę słowną i wizualną na filmie z youtube, ale AI bardzo nie lubi pewnych słów i obrazów a nie chciałbym, żeby pogrzebało w swojej wyszukiwarce ten materiał. Celowo też zakryłem nazwy i adresy tych serwisów – nie chcę robić im reklamy pomimo, że można je wykorzystywać także do uczciwej stwórczości, nie naruszającej żadnych norm czy to moralnych czy prawnych. I tak bardzo łatwo je znaleźć.
Ale wracając do tematu…
Przestały także ograniczać się do rozwiązań pozwalających na prostą podmianę twarzy czy też pozbawiania ubrań osób na zdjęciach lecz także na zaawansowane manipulacje na zdjęciach i filmach.
Łatwy dostęp do narzędzi tworzących obrazy i filmy Deep Fake spowodował, że na sieci pojawiło się pełno treści, zdjęć i filmów, o wiadomo-jakim-motywie, wykorzystujących popularność niektórych gwiazd jak np. ostatnio głośno jest o fałszywym nieobyczajnym filmie wykorzystującym wizerunek Taylor Swift.
Ale nie tylko ona została dotknięta przez ten proceder. Jak możecie zobaczyć po tytułach filmów – obrazki ja specjalnie rozmyłem – takie obrazy a nawet filmy powstają z innymi popularnymi osobami. I … teraz musicie uwierzyć mi na słowo – obejrzałem kilka urywków tych filmów by ocenić jakość fałszu i niestety – jest on bardzo dobry. Przynajmniej w tych rozdzielczościach w jakich są dostępne trudno się dopatrzyć, że są to materiały przerobione. Za jakiś czas zapewne będzie to w ogóle niemożliwe nawet przy rozdzielczościach 4K.
Jeżeli myślicie, że jest to problem wyłącznie znanych osób to się bardzo mylicie.
To, że te narzędzia posiadają darmowe plany, nie wymagające nawet rejestrowania karty płatniczej a ponadto ich używanie jest bardzo proste, wręcz intuicyjne, powoduje brak jakiejkolwiek bariery wejścia nie tylko dla dorosłych, ale nawet dla nastolatków.
A jeszcze teraz powstała Sora AI, która umożliwia tworzenie filmu na podstawie tekstowego opisu i dowolnego bazowego nagrania wideo. Trudno nazwać to skomplikowanym procesem, prawda?
W efekcie w ostatnim czasie wybuchło już kilkaset afer, w których wiele osób zostało dotkniętych rozpowszechnianiem ich fałszywych wizerunków bez ubrań, stworzonych na podstawie fotografii pobranych np. z Instagrama i przerobionych przy pomocy AI.
Nietrudno sobie wyobrazić, że za chwilę takie narzędzia będą wykorzystywane przez ludzi chcących wyrządzić przykrość a nawet krzywdę nielubianym szefom, współpracownikom, znajomym, byłym lub niedoszłym partnerom. Nie brakuje przecież wrednych ludzi bez zasad, którzy nie cofną się przed takimi rzeczami.
Stąd moje pytanie w tytule – czy jesteście już gotowi na swoje nieprzyzwoite zdjęcia i filmy hulające po Internecie?
Albo swoich bliskich – żon, partnerek, rodziców a nawet dzieci.
Czy przygotowaliście się na taką sytuację? Rozmawialiście o tym w swoim otoczeniu? Ww szczególności ze swoimi dziećmi?
Czy podjęliście decyzję by nie oglądać świadomie takich materiałów, nieudostępnionych bezpośrednio przez zainteresowaną osobę i naruszających jej intymność?
Chyba najwyższa pora by to zrobić bo przyszło nam żyć już nie tylko w erze post-prawdy lecz także w erze post-rzeczywistości, post-realizmu. W erze, w której nie możemy wierzyć bezkrytycznie w cokolwiek co widzimy, słyszymy i doświadczamy.
Dlatego od dziś jeżeli bliski znajomy poprosi Cię o przelew – albo każe Ci tak szef nawet widziany „na żywo’ na ekranie – to lepiej zweryfikuj to innym kanałem, w inny sposób, czy to rzeczywiście te osoby coś chcą od Ciebie, czy też ktoś kto próbuje Cię oszukać i okraść.
I nie licz na znaczniki fałszywości zapowiadane przez twórców AI – Ci, którzy ściągną oprogramowanie na własne komputery, natychmiast usuną takie „zabezpieczenia”. Tak jak to było z DRM i innymi tego typu „wynalazkami”.
Deepfake ma jedną dobrą stronę – teraz nawet jeżeli wypłyną czyjeś prawdziwe intymne zdjęcia czy filmy to może się bronić, że to fałszywka zrobiona przy pomocy AI.
jeśli mogą to zrobić wszyscy i każdy powszechnie o tym wie, to właściwie jakakolwiek fotograficzna erotyka przestaje mieć jakąkolwiek wartość. Toć tylko bardziej zaawansowana wersja zabawy z wklejaniem czyjejś głowy w porno, nie wiem o co tyle szumu. Równie dobrze mogę wkleić twarz prezydenta w hitera itd…. zabawa dla niedojrzałych scamerów.
Tak będzie jak mówisz gdy ludzie będą domyślnie nastawieni nieufnie i krytycznie do tego co widzą.
Na razie jeszcze tak nie jest 🙁
I jednak to jest inna jakość niż wklejanie czyjejś głowy w porno – podejrzewam, że prawdziwe wideo/fotografia nie różniłaby się od tej wytworzonej przez AI bo ta stara się zachować wszelkie cechy wyglądu.