DEEPFAKE – kiedy AI wpadnie w ręce przestępców

14 lutego 2024
Jakub Mokrzycki

Gra w trzy kubki? Metoda na „wnuczka”? Propozycja odziedziczenia wielkich pieniędzy po zmarłym księciu z Afryki? To wszystko w swoim czasie były popularne i zyskowne metody na wyłudzanie pieniędzy. Teraz jednak wkraczamy w erę deepfake’ów. To wyjątkowo sprytna metoda oszustwa, która może stanowić zagrożenie nie tylko dla naszych portfeli.

Internet właśnie obiegła informacja od Rafała Brzoski – założyciela i prezesa InPostu. – Wskazał on na bezprawne wykorzystanie swojego wizerunku. Co więcej, za pomocą sztucznej inteligencji (deepfake) podrobiono nawet jego głos. To wszystko służyć miało promowaniu nowej platformy inwestycyjnej. Przypuszczać można, że tak jak w przypadku innych podobnych oszustw, wpłacenie środków „na inwestycje” wiązałoby się z ich bezpowrotną utratą.

Jak widać na tym przykładzie technologia deepfake staje się poważnym zagrożeniem. Narzędzie to może służyć nie tylko do oszustw finansowych, ale też do wprowadzania wszelkich innych fałszywych informacji do przestrzeni publicznej. Wiążąca się z tym możliwość manipulowania społeczeństwem jest nawet potencjalną bronią w wojnie hybrydowej.

To jednak od nas zależy czy takie działania okażą się skuteczne. Nie wolno zapominać o weryfikacji wszelkich informacji pozyskanych w Internecie w godnych zaufania źródłach. Nadal jeszcze wspomniana technologia nie jest doskonała – drobne detale wciąż zdradzają fałszywy charakter wideo czy nagrania głosu.

W trudniejszej sytuacji są osoby, których wizerunek (i np. głos) zostaje wykorzystane. Dotyczy to zwłaszcza przypadków, gdy fałszerstwo nie jest tak oczywiste jak w przypadku namawiania do inwestycji. Osoba pokrzywdzona może domagać się w takich przypadkach ochrony swoich praw na gruncie szeregu przepisów – w tym dotyczących ochrony dóbr osobistych, wizerunku czy też danych osobowych. Oczywiście sama próba wyłudzania pieniędzy stanowi przestępstwo (np. oszustwa). W praktyce egzekwowanie przepisów jest jednak trudne. Ustalenie osób posługujących się deepfake’m nie jest łatwe, a nawet jeżeli się to udaje to nie ma możliwości pociągnięcia sprawców do odpowiedzialności. Nie oznacza to jednak, że należy nie podejmować żadnych działań przeciwko sprawcom takich nadużyć.

Współautorem artykułu jest Jan Podraza – Legal Assistant w Kancelarii RKKW

czytaj także.

III FORUM ODBUDOWY UKRAINY (PAIH)

12 czerwca 2024

Zobacz więcej

Sejm uchwalił ustawę o ochronie sygnalistów

24 maja 2024

Zobacz więcej

Fundacja rodzinna po roku funkcjonowania – szanse i zagrożenia

22 maja 2024

Zobacz więcej

NDA jako podstawa do rozpoczęcia negocjacji

22 kwietnia 2024

Zobacz więcej

Puste faktury a odpowiedzialność karna

16 kwietnia 2024

Zobacz więcej

Greenwashing

10 kwietnia 2024

Zobacz więcej

Projekt ustawy o ochronie sygnalistów przyjęty przez Radę Ministrów

10 kwietnia 2024

Zobacz więcej

„Sygnaliści” oficjalnie w projekcie ustawy

15 marca 2024

Zobacz więcej

'Ustawa o ZUS' a uchwała Sądu Najwyższego

19 lutego 2024

Zobacz więcej

Dobre Praktyki NewConnect 2024

9 stycznia 2024

Zobacz więcej

Kancelaria RKKW doradzała spółce z branży OZE w zawarciu nowej umowy finansowania

27 października 2023

Zobacz więcej

Partnerzy RKKW uczestnikami corocznej konferencji IR Global

13 września 2023

Zobacz więcej