DEEPFAKE – kiedy AI wpadnie w ręce przestępców

14 lutego 2024
Jakub Mokrzycki

Gra w trzy kubki? Metoda na „wnuczka”? Propozycja odziedziczenia wielkich pieniędzy po zmarłym księciu z Afryki? To wszystko w swoim czasie były popularne i zyskowne metody na wyłudzanie pieniędzy. Teraz jednak wkraczamy w erę deepfake’ów. To wyjątkowo sprytna metoda oszustwa, która może stanowić zagrożenie nie tylko dla naszych portfeli.

Internet właśnie obiegła informacja od Rafała Brzoski – założyciela i prezesa InPostu. – Wskazał on na bezprawne wykorzystanie swojego wizerunku. Co więcej, za pomocą sztucznej inteligencji (deepfake) podrobiono nawet jego głos. To wszystko służyć miało promowaniu nowej platformy inwestycyjnej. Przypuszczać można, że tak jak w przypadku innych podobnych oszustw, wpłacenie środków „na inwestycje” wiązałoby się z ich bezpowrotną utratą.

Jak widać na tym przykładzie technologia deepfake staje się poważnym zagrożeniem. Narzędzie to może służyć nie tylko do oszustw finansowych, ale też do wprowadzania wszelkich innych fałszywych informacji do przestrzeni publicznej. Wiążąca się z tym możliwość manipulowania społeczeństwem jest nawet potencjalną bronią w wojnie hybrydowej.

To jednak od nas zależy czy takie działania okażą się skuteczne. Nie wolno zapominać o weryfikacji wszelkich informacji pozyskanych w Internecie w godnych zaufania źródłach. Nadal jeszcze wspomniana technologia nie jest doskonała – drobne detale wciąż zdradzają fałszywy charakter wideo czy nagrania głosu.

W trudniejszej sytuacji są osoby, których wizerunek (i np. głos) zostaje wykorzystane. Dotyczy to zwłaszcza przypadków, gdy fałszerstwo nie jest tak oczywiste jak w przypadku namawiania do inwestycji. Osoba pokrzywdzona może domagać się w takich przypadkach ochrony swoich praw na gruncie szeregu przepisów – w tym dotyczących ochrony dóbr osobistych, wizerunku czy też danych osobowych. Oczywiście sama próba wyłudzania pieniędzy stanowi przestępstwo (np. oszustwa). W praktyce egzekwowanie przepisów jest jednak trudne. Ustalenie osób posługujących się deepfake’m nie jest łatwe, a nawet jeżeli się to udaje to nie ma możliwości pociągnięcia sprawców do odpowiedzialności. Nie oznacza to jednak, że należy nie podejmować żadnych działań przeciwko sprawcom takich nadużyć.

Współautorem artykułu jest Jan Podraza – Legal Assistant w Kancelarii RKKW

czytaj także.

RKKW broni klienta przed wysokim roszczeniem odszkodowawczym

8 marca 2024

Zobacz więcej

Bronimy Klienta przed szantażem korporacyjnym

6 lutego 2024

Zobacz więcej

Wspieramy reorganizację grupy kapitałowej

15 lutego 2024

Zobacz więcej

Greenwashing

10 kwietnia 2024

Zobacz więcej

Projekt ustawy o ochronie sygnalistów przyjęty przez Radę Ministrów

10 kwietnia 2024

Zobacz więcej

Wspólny sukces dwóch zespołów Energetyki i Infrastruktury

25 lutego 2024

Zobacz więcej

„Sygnaliści” oficjalnie w projekcie ustawy

15 marca 2024

Zobacz więcej

'Ustawa o ZUS' a uchwała Sądu Najwyższego

19 lutego 2024

Zobacz więcej

Sukces Klienta RKKW w sprawie dotyczącej uchwały delistingowej

31 stycznia 2024

Zobacz więcej

Dobre Praktyki NewConnect 2024

9 stycznia 2024

Zobacz więcej

Kancelaria RKKW wspierała Klienta z branży OZE przy uruchomieniu międzynarodowego marketplace’u

4 stycznia 2024

Zobacz więcej

Klient RKKW wygrywa spór z konserwatorem zabytków

28 grudnia 2023

Zobacz więcej