DEEPFAKE – kiedy AI wpadnie w ręce przestępców

14 lutego 2024
Jakub Mokrzycki

Gra w trzy kubki? Metoda na „wnuczka”? Propozycja odziedziczenia wielkich pieniędzy po zmarłym księciu z Afryki? To wszystko w swoim czasie były popularne i zyskowne metody na wyłudzanie pieniędzy. Teraz jednak wkraczamy w erę deepfake’ów. To wyjątkowo sprytna metoda oszustwa, która może stanowić zagrożenie nie tylko dla naszych portfeli.

Internet właśnie obiegła informacja od Rafała Brzoski – założyciela i prezesa InPostu. – Wskazał on na bezprawne wykorzystanie swojego wizerunku. Co więcej, za pomocą sztucznej inteligencji (deepfake) podrobiono nawet jego głos. To wszystko służyć miało promowaniu nowej platformy inwestycyjnej. Przypuszczać można, że tak jak w przypadku innych podobnych oszustw, wpłacenie środków „na inwestycje” wiązałoby się z ich bezpowrotną utratą.

Jak widać na tym przykładzie technologia deepfake staje się poważnym zagrożeniem. Narzędzie to może służyć nie tylko do oszustw finansowych, ale też do wprowadzania wszelkich innych fałszywych informacji do przestrzeni publicznej. Wiążąca się z tym możliwość manipulowania społeczeństwem jest nawet potencjalną bronią w wojnie hybrydowej.

To jednak od nas zależy czy takie działania okażą się skuteczne. Nie wolno zapominać o weryfikacji wszelkich informacji pozyskanych w Internecie w godnych zaufania źródłach. Nadal jeszcze wspomniana technologia nie jest doskonała – drobne detale wciąż zdradzają fałszywy charakter wideo czy nagrania głosu.

W trudniejszej sytuacji są osoby, których wizerunek (i np. głos) zostaje wykorzystane. Dotyczy to zwłaszcza przypadków, gdy fałszerstwo nie jest tak oczywiste jak w przypadku namawiania do inwestycji. Osoba pokrzywdzona może domagać się w takich przypadkach ochrony swoich praw na gruncie szeregu przepisów – w tym dotyczących ochrony dóbr osobistych, wizerunku czy też danych osobowych. Oczywiście sama próba wyłudzania pieniędzy stanowi przestępstwo (np. oszustwa). W praktyce egzekwowanie przepisów jest jednak trudne. Ustalenie osób posługujących się deepfake’m nie jest łatwe, a nawet jeżeli się to udaje to nie ma możliwości pociągnięcia sprawców do odpowiedzialności. Nie oznacza to jednak, że należy nie podejmować żadnych działań przeciwko sprawcom takich nadużyć.

Współautorem artykułu jest Jan Podraza – Legal Assistant w Kancelarii RKKW

czytaj także.

RKKW wyróżniona w IFLR1000 2025

13 listopada 2025

Zobacz więcej

III Konferencja Naukowo‑Techniczna „Nauka‑Technologia‑Środowisko”

7 listopada 2025

Zobacz więcej

Witamy w Zespole!

5 listopada 2025

Zobacz więcej

Aleksander Hartwig laureatem konkursu na najlepszą pracę magisterską

24 października 2025

Zobacz więcej

Adriana Gostępska nominowana w konkursie Rising Stars Prawnicy 2025

15 października 2025

Zobacz więcej

Piotr Letolc prelegentem podczas Konferencji BIZNES WIR

6 października 2025

Zobacz więcej

Projekt zmian opodatkowania fundacji rodzinnych

2 września 2025

Zobacz więcej

Fundacja rodzinna – szanse i zagrożenia

22 sierpnia 2025

Zobacz więcej

Fundacja rodzinna w praktyce - szkolenie

10 czerwca 2025

Zobacz więcej

RKKW Partnerem 10. edycji Warsaw-Beijing Forum

7 czerwca 2025

Zobacz więcej

Awanse w Zespole

5 czerwca 2025

Zobacz więcej

RKKW gospodarzem IR Global Meeting

3 czerwca 2025

Zobacz więcej