Jego wizerunek i twarz wykorzystano w reklamach pseudoleków kardiologicznych i rzekomych preparatów na pasożyty. W sprawie złożone zostało zawiadomienie o podejrzeniu popełnieniu przestępstwa.
Ofiarą oszustów padł dr Michał Sutkowski. Jest nie tylko specjalistą chorób wewnętrznych i medycyny rodzinnej, od 2001 roku członkiem Kolegium Lekarzy Rodzinnych w Polsce, współzałożycielem Medycznej Racji Stanu (MRS), prodziekanem Wydziału Medycznego Uczelnia Łazarskiego, ale także często zapraszanym przez media ekspertem i komentatorem stacji radiowych, telewizyjnych oraz social mediów w dziedzinie medycyny.
Pseudoleki i fałszywa reklama
I to właśnie popularność dr Sutkowskiego sprawiła, że na jego wizerunku chcieli zarobić przestępcy. Jak przekazała reprezentująca lekarza kancelaria prawna: „twarz dr Sutkowskiego pojawiła się w reklamach pseudoleków kardiologicznych o nazwie Acardin i rzekomych preparatów na pasożyty. Przy wykorzystaniu twarzy Pana doktora, powstały fikcyjne wywiady w oparciu o tzw. deepfake. Oszuści o nieustalonej dotychczas tożsamości stworzyli strony internetowe łudząco podobne do tych prowadzonych przez redakcje TVP Info oraz TVN. Co więcej, na stronach tych zostały zamieszczone fikcyjne wywiady rzekomo przeprowadzone z doktorem Sutkowskim".
W sprawie złożone zostało zawiadomienie o podejrzeniu popełnieniu przestępstwa, jednakże fałszywe reklamy rozpowszechniane są nadal w internecie, w tym za pośrednictwem mediów społecznościowych. Kancelaria podkreśla, że oszustwo może stanowić realne zagrożenie dla zdrowia, a nawet życia osób, które ulegają fałszywym kampaniom i przyjmują tego typu „leki”. Dr Michał Sutkowski w swoim oświadczeniu zamieszczonym na jego kanale na YouTube, również podkreślił, że te produkty są mu zupełnie obce.
"Są to produkty, których oczywiście zgodnie z prawem farmaceutycznym, ani ja, ani inni moi koledzy nie możemy reklamować. Proszę Państwa, to jest kradzież wizerunku. Kradzież wizerunku, której jestem ofiarą. To jest sytuacja, w której państwo, oglądający tę reklamę tych produktów medycznych czy quasi- medycznych, jesteście narażeni, bo kupujecie, bo bierzecie te produkty, bo narażacie się na koszty, bo w ten sposób na przykład nie wykonujecie jakichś określonych badań czy nie bierzecie jakichś określonych innych leków" - przekazał.
Czym jest deepfake?
Deepfake to zbitka od ang. deep learning „głębokie uczenie” oraz fake - „fałszywy" - oznaczająca technikę obróbki obrazu, polegającą na łączeniu obrazów twarzy ludzkich przy użyciu technik sztucznej inteligencji. Uzyskane w ten sposób łudząco realistyczne ruchome obrazy stosowane są w nagraniach filmowych, stwarzając możliwości manipulacji poprzez np. niemożliwą do odróżnienia przez widza zamianę twarzy aktorów występujących w filmie. Może to prowadzić do skompromitowania osoby poprzez fałszywe „obsadzenie jej” np. w roli w filmie pornograficznym.
Jednym z zagrożeń fałszywymi informacjami jest możliwość wpłynięcia na wyniki wyborów. Pojęcie deepfake pojawiło się po raz pierwszy w końcu 2017, a nazwę zaczerpnięto od pseudonimu użytkownika, który opublikował kilka filmów porno zrealizowanych przy użyciu algorytmu uczenia maszynowego z wykorzystaniem wizerunków m.in. Taylor Swift. Wraz z rozwojem technologii materiały tworzone przez sztuczną inteligencję, stają się praktycznie niemożliwe do wykrycia i odróżnienia od prawdziwych przez użytkowników Internetu, co niesie ze sobą wiele zagrożeń.
Przykładem deepfake jest nagranie przedstawiające Baracka Obamę, wypowiadającego ostrzeżenia, którego rzeczywistości nigdy nie powiedział, przed zagrożeniami, jakie niesie nieetyczne zastosowanie technologii cyfrowych. Deepfake jest też wykorzystywany w celach edukacyjnych. W 2019 roku Muzeum Salvadora Dalí na Florydzie uruchomiło ekspozycję „Dali żyje", która dzięki technologii deepfake umożliwia zwiedzającym rozmowę z artystą i wspólne pozowanie do zdjęć.
Fot. Dr Michał Sutkowski/screen TVP
Tomasz Wypych
Inne tematy w dziale Rozmaitości