7 min read

Meta wprowadza rozpoznawanie twarzy w walce z oszustwami wykorzystującymi wizerunek celebrytów

Meta wprowadza rozpoznawanie twarzy do walki z deepfake'ami, ale czy to faktyczna troska o bezpieczeństwo, czy PR-owy spektakl?
Meta wprowadza rozpoznawanie twarzy w walce z oszustwami wykorzystującymi wizerunek celebrytów

W odpowiedzi na rosnący problem oszustw w mediach społecznościowych, Meta wprowadza nową technologię rozpoznawania twarzy. Rozwiązanie ma rzekomo chronić użytkowników przed fałszywymi reklamami wykorzystującymi wizerunki znanych osób oraz ułatwić proces odzyskiwania zhakowanych kont (to już bez selfie z kartką z nickiem się da? 😄).

Nowa broń w walce z oszustami

Oszuści nieustannie zmieniają i dostosowują swoje taktyki, wykorzystując coraz bardziej zaawansowane technologie, w tym deepfake'i, do tworzenia przekonujących reklam. Meta odpowiada na to wyzwanie, wprowadzając system porównywania twarzy w reklamach ze zdjęciami profilowymi celebrytów na Facebooku i Instagramie.

Jak działa nowy system?

  • System automatycznie analizuje reklamy pod kątem potencjalnych oszustw
  • Wykorzystuje technologię rozpoznawania twarzy do porównywania obrazów
  • W przypadku wykrycia niezautoryzowanego użycia wizerunku, reklama jest blokowana
  • Dane biometryczne są natychmiast usuwane po wykonaniu porównania

Odzyskiwanie kont będzie prostsze

Meta testuje również wykorzystanie technologii rozpoznawania twarzy do weryfikacji tożsamości użytkowników próbujących odzyskać dostęp do swoich kont. Zamiast tradycyjnego przesyłania dokumentów czy "zdjęcia z nazwą profilu" (niech wyciągnie rękę ktokolwiek komu udało się w ten sposób odblokować konto), użytkownicy będą mogli nagrać krótkie selfie wideo.

Zabezpieczenia prywatności

  • Wszystkie selfie wideo są szyfrowane i bezpiecznie przechowywane
  • Nagrania nigdy nie są widoczne publicznie
  • Dane biometryczne są usuwane natychmiast po weryfikacji
  • Użytkownicy mają pełną kontrolę nad procesem

Ograniczenia geograficzne

Nowe rozwiązanie nie będzie początkowo dostępne w Unii Europejskiej i Wielkiej Brytanii ze względu na lokalne przepisy dotyczące ochrony danych osobowych. Jest to szczególnie istotne w kontekście ostatnich wydarzeń w Polsce, gdzie system mógłby znaleźć natychmiastowe zastosowanie.

Głos użytkowników: bezradność w walce z oszustami

Patrząc na komentarze użytkowników Facebooka i Instagrama, widzę przerażający wzorzec systemowej ignorancji. Setki zgłoszeń fałszywych reklam, dziesiątki próśb o usunięcie deepfake'ów, tysiące raportów o oszustwach - wszystkie zbywane standardową formułką "nie narusza naszych standardów społeczności".

Źródło: Reddit

Co ciekawe, podczas gdy oczywiste oszustwa pozostają nietknięte, prawdziwi przedsiębiorcy często tracą swoje konta pod zarzutem "podszywania się". Absurd tej sytuacji najlepiej obrazuje przypadek pewnego administratora grupy na Facebooku z prawie 100 tysiącami członków - gdy zgłosił oszustów, ci nie tylko nie zostali zablokowani, ale stworzyli kopię jego grupy, używając dokładnie tych samych grafik i nazwy. Meta nie widziała w tym problemu.

Szczególnie poruszająca jest bezradność twórców internetowych, którzy obserwują, jak ich wizerunek jest wykorzystywany w dziesiątkach fałszywych reklam. System zgłoszeń jest tak nieefektywny, że niektórzy zmuszeni są tworzyć fałszywe konta, by móc dalej zgłaszać oszustwa po tym, jak zostali zablokowani przez oszustów na swoich głównych profilach.

Ironią losu jest fakt, że jedynym skutecznym sposobem na reakcję Meta wydaje się być groźba pozwu lub kontakt z działem prawnym - wtedy nagle "niemożliwe" staje się możliwe. To pokazuje prawdziwe priorytety firmy - nie bezpieczeństwo użytkowników, a minimalizacja ryzyka prawnego.

Przypadek Rafała Brzoski

Doskonałym przykładem pilnej potrzeby takich rozwiązań jest sprawa Rafała Brzoski, polskiego miliardera i założyciela InPostu. W 2024 roku Brzoska i jego małżonka zapowiedzieli pozew przeciwko Meta z powodu fałszywych reklam wykorzystujących jego wizerunek na Facebooku i Instagramie. Mimo zgłoszenia problemu już w lipcu, firma nie potrafiła skutecznie rozwiązać sytuacji. O sytuacji ostrzegał również NASK.

Szczególnie niepokojące jest to, że:

  • Oszuści wykorzystali zaawansowaną technologię deepfake
  • Zastosowano technikę lip-sync do synchronizacji ruchu ust z fałszywym głosem
  • Materiały były osadzane w szablonach programów informacyjnych dla większej wiarygodności
  • Problem dotknął również inne znane osoby, w tym prezydenta Andrzeja Dudę i Roberta Lewandowskiego

Polski Urząd Ochrony Danych Osobowych już zareagował, nakazując Meta Platforms Ireland Limited wstrzymanie wyświetlania fałszywych reklam wykorzystujących wizerunek Brzoski i jego żony w Polsce na okres trzech miesięcy.

Inne przykłady oszustw i ich skutki

Znane osoby, takie jak Elon Musk czy Martin Lewis, wielokrotnie padały ofiarą oszustw wykorzystujących ich wizerunek. Lewis przyznał, że codziennie otrzymuje "niezliczone" zgłoszenia dotyczące nielegalnego wykorzystania jego wizerunku w reklamach promujących różne schematy inwestycyjne i kryptowaluty.

Regulacje prawne i działania Komisji Europejskiej

Podczas gdy Meta wprowadza nowe rozwiązania technologiczne w walce z deepfake'ami, w Europie toczą się istotne działania prawne. Szczególnie ważny jest tu Digital Services Act (DSA, Akt o usługach cyfrowych), który nakłada na platformy cyfrowe konkretne obowiązki w zakresie moderacji treści.

Postępowanie przeciwko Meta

Komisja Europejska wszczęła formalne postępowanie przeciwko Meta, badając potencjalne naruszenia DSA w kilku obszarach:

  • Niewystarczająca kontrola nad oszukańczymi reklamami
  • Brak skutecznych mechanizmów zgłaszania nielegalnych treści
  • Problemy z systemem rozpatrywania skarg użytkowników
  • Niedostateczna moderacja treści politycznych

Co ciekawe, zauważam, że podobne postępowania dotknęły również inne platformy społecznościowe - X (powinienem dodawać - dawniej Twitter - czy nie?) oraz TikTok. Kary za naruszenie DSA mogą sięgać nawet 6% światowego rocznego obrotu firmy, co w przypadku Meta stanowi naprawdę poważną motywację do działania. Czy jednak przychody z deep-fake są większe niż te 6%, to pokaże czas.

Inicjatywy oddolne

Szczególnie poruszająca jest historia stojąca za jednym z najbardziej obiecujących rozwiązań w walce z deepfake'ami. Breeze Liu, która sama padła ofiarą deepfake'owej pornografii w 2020 roku, przekuła swoją traumę w działanie, tworząc startup Alecto AI.

Historia Liu pokazuje, jak poważnym problemem jest brak skutecznych narzędzi prawnych i technologicznych do walki z tego typu nadużyciami:

  • Policja w Berkeley nie była w stanie pomóc, mimo że Liu znała podejrzanego
  • Odkryła ponad 800 linków zawierających sfałszowane materiały ze swoim wizerunkiem
  • Biurokratyczne przeszkody uniemożliwiały skuteczne usuwanie treści
  • Sprawca, po usunięciu pierwszego filmu, rozpowszechniał kolejne na setkach innych stron

W odpowiedzi Liu, wykorzystując swoje doświadczenie z sektora kryptowalut, stworzyła darmowe oprogramowanie do rozpoznawania twarzy, które:

  • Pozwala ofiarom szybko identyfikować sfałszowane treści
  • Współpracuje z głównymi platformami przy usuwaniu nielegalnych materiałów
  • Daje ofiarom kontrolę nad własnymi wizerunkami w sieci
  • Stanowi "pierwszą linię obrony" przed tego typu nadużyciami

To pokazuje, jak ważne są oddolne inicjatywy w uzupełnianiu działań gigantów technologicznych i regulatorów. Podczas gdy Meta dopiero testuje swoje rozwiązania, a Komisja Europejska prowadzi postępowania administracyjne, prywatne inicjatywy jak Alecto AI już oferują konkretną pomoc ofiarom.

Problem systemowy

Przypadek Liu ujawnia również systemowe problemy w walce z deepfake'ami:

  • Brak specyficznych przepisów prawnych dotyczących tworzenia i rozpowszechniania deepfake'owej pornografii
  • Niewystarczające przygotowanie organów ścigania
  • Trudności w koordynacji działań między różnymi platformami
  • Rosnąca dostępność zaawansowanych narzędzi AI ułatwiających tworzenie fałszywych treści

Paradoks innowacji

Podczas gdy Meta pracuje nad zwiększeniem bezpieczeństwa platform, paradoksalnie niektóre jej nowe rozwiązania mogą potencjalnie zwiększyć ryzyko oszustw. Podczas Meta Connect 2024 firma zaprezentowała nowe możliwości Meta AI z funkcją głosową, która ma pozwolić na naturalne konwersacje głosowe we wszystkich głównych aplikacjach firmy.

Nie mogę powstrzymać się od ironicznej obserwacji - w czasie gdy Meta walczy z deepfake'ami, jednocześnie udostępnia zaawansowane narzędzia do manipulacji głosem i obrazem. Żartobliwie można powiedzieć, że platforma nieświadomie zmierza w kierunku modelu "SaaS" - ale nie chodzi tu o "Software-as-a-Service", a raczej o "Scam-as-a-Service".

Co może pójść nie tak?

  • Oszuści mogą wykorzystać funkcje automatycznego dubbingu do tworzenia fałszywych wideo w wielu językach
  • Nowa funkcja lip-sync może sprawić, że deepfake'i będą jeszcze bardziej przekonujące
  • Połączenie rozpoznawania głosu z syntezą mowy może ułatwić tworzenie fałszywych rozmów telefonicznych

To pokazuje, jak cienka jest granica między innowacją a potencjalnym zagrożeniem. Może się okazać, że Meta będzie musiała jednocześnie rozwijać coraz bardziej zaawansowane systemy ochrony przed nadużyciami, które sama nieświadomie umożliwia.

Wnioski dla użytkowników

Obserwując rozwój sytuacji zarówno od strony technologicznej, jak i prawnej, dostrzegam kilka kluczowych wskazówek dla użytkowników mediów społecznościowych:

  1. Korzystać z dostępnych mechanizmów zgłaszania nielegalnych treści - DSA wymusza na platformach ich skuteczne działanie (tak, wiem, zgłaszanie reklam na FB/Google to droga przez mękę, ale zostaje ślad)
  2. Śledzić rozwój narzędzi obronnych, takich jak Alecto AI
  3. Zwracać szczególną uwagę na reklamy wykorzystujące wizerunki znanych osób
  4. Dokumentować przypadki naruszeń - mogą być przydatne w postępowaniach prawnych
  5. Zgłaszać poważne naruszenia nie tylko platformom, ale również odpowiednim organom regulacyjnym

Skala problemu

  • Meta usunęła 8000 fałszywych reklam od kwietnia 2024 (szkoda, że nie dzielą się informacją o ilości zgłoszeń deepfake)
  • Problem narasta wraz z rozwojem technologii deepfake
  • Oszuści często promują fałszywe schematy inwestycyjne
  • Straty finansowe użytkowników mogą być znaczące

Przyszłość technologii rozpoznawania twarzy

To pierwszy tak znaczący rozwój systemu rozpoznawania twarzy Meta od dekady. Firma wycofała wcześniejszą funkcję automatycznego tagowania zdjęć w 2021 roku ze względu na obawy dotyczące prywatności i dokładności. Obecne rozwiązanie zostało zaprojektowane z myślą o maksymalnym bezpieczeństwie i ochronie prywatności użytkowników.

Brutalna prawda o walce z oszustami

Analizując działania Meta, nie mogę oprzeć się wrażeniu, że obserwujemy starannie wyreżyserowany spektakl PR-owy. Firma prezentuje nowe technologie rozpoznawania twarzy jako przełom w walce z deepfake'ami, ale spójrzmy prawdzie w oczy - Meta to nie organizacja charytatywna, a biznes nastawiony na zysk.

Proste obliczenia biznesowe pokazują niewygodną prawdę: przychody z reklam, nawet tych tworzonych przez oszustów, znacząco przewyższają potencjalne kary regulacyjne. Nawet wspomniane 6% rocznego obrotu w ramach DSA to dla Meta jedynie koszt prowadzenia biznesu - kropla w morzu zysków z reklam.

Przestępcy doskonale rozumieją tę dynamikę. Wiedzą, że dopóki ich działalność generuje przychody reklamowe, platformy będą przymykać oko na "niedoskonałości" w systemach moderacji. Przypadek Rafała Brzoski czy historia Breeze Liu to nie wyjątki - to symptomy znacznie głębszego, systemowego problemu.

Może więc zamiast kolejnych spektakularnych zapowiedzi nowych zabezpieczeń, czas na niewygodne pytanie: czy naprawdę chcemy powierzyć nasze bezpieczeństwo firmie, która zarabia na naszym braku bezpieczeństwa?