DEEPFAKE – kiedy AI wpadnie w ręce przestępców

14 lutego 2024
Jakub Mokrzycki

Gra w trzy kubki? Metoda na „wnuczka”? Propozycja odziedziczenia wielkich pieniędzy po zmarłym księciu z Afryki? To wszystko w swoim czasie były popularne i zyskowne metody na wyłudzanie pieniędzy. Teraz jednak wkraczamy w erę deepfake’ów. To wyjątkowo sprytna metoda oszustwa, która może stanowić zagrożenie nie tylko dla naszych portfeli.

Internet właśnie obiegła informacja od Rafała Brzoski – założyciela i prezesa InPostu. – Wskazał on na bezprawne wykorzystanie swojego wizerunku. Co więcej, za pomocą sztucznej inteligencji (deepfake) podrobiono nawet jego głos. To wszystko służyć miało promowaniu nowej platformy inwestycyjnej. Przypuszczać można, że tak jak w przypadku innych podobnych oszustw, wpłacenie środków „na inwestycje” wiązałoby się z ich bezpowrotną utratą.

Jak widać na tym przykładzie technologia deepfake staje się poważnym zagrożeniem. Narzędzie to może służyć nie tylko do oszustw finansowych, ale też do wprowadzania wszelkich innych fałszywych informacji do przestrzeni publicznej. Wiążąca się z tym możliwość manipulowania społeczeństwem jest nawet potencjalną bronią w wojnie hybrydowej.

To jednak od nas zależy czy takie działania okażą się skuteczne. Nie wolno zapominać o weryfikacji wszelkich informacji pozyskanych w Internecie w godnych zaufania źródłach. Nadal jeszcze wspomniana technologia nie jest doskonała – drobne detale wciąż zdradzają fałszywy charakter wideo czy nagrania głosu.

W trudniejszej sytuacji są osoby, których wizerunek (i np. głos) zostaje wykorzystane. Dotyczy to zwłaszcza przypadków, gdy fałszerstwo nie jest tak oczywiste jak w przypadku namawiania do inwestycji. Osoba pokrzywdzona może domagać się w takich przypadkach ochrony swoich praw na gruncie szeregu przepisów – w tym dotyczących ochrony dóbr osobistych, wizerunku czy też danych osobowych. Oczywiście sama próba wyłudzania pieniędzy stanowi przestępstwo (np. oszustwa). W praktyce egzekwowanie przepisów jest jednak trudne. Ustalenie osób posługujących się deepfake’m nie jest łatwe, a nawet jeżeli się to udaje to nie ma możliwości pociągnięcia sprawców do odpowiedzialności. Nie oznacza to jednak, że należy nie podejmować żadnych działań przeciwko sprawcom takich nadużyć.

Współautorem artykułu jest Jan Podraza – Legal Assistant w Kancelarii RKKW

czytaj także.

Skuteczna obrona pozwanej Kancelarii

10 czerwca 2025

Zobacz więcej

Fundacja rodzinna w praktyce - szkolenie

10 czerwca 2025

Zobacz więcej

RKKW Partnerem 10. edycji Warsaw-Beijing Forum

7 czerwca 2025

Zobacz więcej

Awanse w Zespole

5 czerwca 2025

Zobacz więcej

RKKW gospodarzem IR Global Meeting

3 czerwca 2025

Zobacz więcej

RKKW Partnerem Merytorycznym V Forum na Wzgórzach - Biznes Rodzinny

27 maja 2025

Zobacz więcej

Sukcesja w praktyce - dwa lata z polską fundacją rodzinną

22 maja 2025

Zobacz więcej

Świąteczne życzenia

18 kwietnia 2025

Zobacz więcej

Ochrona tajemnic przedsiębiorstwa i poufnego know-how - szkolenie

4 kwietnia 2025

Zobacz więcej

Spotkanie ze studentami Akademii Leona Koźmińskiego

4 kwietnia 2025

Zobacz więcej

Uwaga na fałszywe e-maile

2 kwietnia 2025

Zobacz więcej

RKKW rekomendowana w The Legal500 2025

31 marca 2025

Zobacz więcej