BezpieczeństwoCzy lekarz z TikToka jest prawdziwy? Deepfake w służbie pseudomedycyny > redakcja Opublikowane 28 kwietnia 20250 0 2 Podziel się Facebook Podziel się Twitter Podziel się Google+ Podziel się Reddit Podziel się Pinterest Podziel się Linkedin Podziel się Tumblr Coraz więcej treści medycznych na TikToku czy Instagramie to efekt pracy algorytmów, które tworzą porady stylizowane na wypowiedzi prawdziwych lekarzy – choć z medycyną mają niewiele wspólnego. W rzeczywistości to komunikaty generowane przez sztuczną inteligencję, często promujące niesprawdzone, a nierzadko wręcz niebezpieczne metody leczenia. Technologia deepfake, wcześniej kojarzona głównie z imitowaniem celebrytów i manipulacją wizerunkiem publicznym znanych osób, dziś coraz częściej służy podszywaniu się pod autorytety – zagrażając zdrowiu, a nawet życiu użytkowników.Na platformach społecznościowych, takich jak TikTok czy Instagram, zasięg materiałów typu deepfake oraz ich potencjalna szkodliwość mogą być naprawdę niepokojące. Badacze z firmy ESET wykryli kampanię, w której awatary generowane przez sztuczną inteligencję podszywały się pod ginekologów, dietetyków i innych specjalistów, promując suplementy diety oraz produkty z kategorii wellness. Nagrania te, starannie zrealizowane i przekonujące w formie, sprawiają wrażenie rzetelnych porad medycznych, podczas gdy w rzeczywistości stanowią zakamuflowany przekaz marketingowy. Osoby, które nie rozpoznają manipulacji, mogą dać się zwieść i sięgnąć po preparaty o niepotwierdzonej skuteczności, narażając tym samym swoje zdrowie.Tego rodzaju manipulacje bazują na prostym, ale skutecznym schemacie. Każde nagranie wygląda niemal identycznie: mówiący awatar, często umieszczony w rogu ekranu, przekazuje porady zdrowotne lub urodowe w sposób, który ma budzić zaufanie. Wskazówki formułowane są tonem eksperta i odwołują się do „naturalnych” metod leczenia, jednocześnie subtelnie kierując uwagę widza na konkretne produkty dostępne w sprzedaży.Przykładem takiego działania jest nagranie, w którym rzekomy „lekarz” zachwala „naturalny ekstrakt” jako lepszą alternatywę dla Ozempicu – leku, który zdobył popularność dzięki skuteczności w redukcji masy ciała. Wideo obiecuje spektakularne efekty i kieruje użytkownika na stronę Amazon, gdzie promowany preparat figuruje jako „krople relaksacyjne” lub „środek przeciwobrzękowy”, bez żadnego związku z deklarowanymi właściwościami odchudzającymi.Niektóre nagrania idą jeszcze dalej, przekraczając kolejne granice etyczne. Zamiast promować niegroźne suplementy, sugerują stosowanie niezatwierdzonych leków lub fałszywych „cudownych” terapii na poważne choroby. W skrajnych przypadkach oszuści bezprawnie wykorzystują wizerunek prawdziwych, rozpoznawalnych lekarzy — wygenerowane wideo zawiera ich twarze, głosy i sposób wypowiadania się, tworząc złudzenie, że to oni sami udzielają rad czy promują konkretne produkty.– Narzędzia oparte na sztucznej inteligencji pozwalają dziś każdemu stworzyć dopracowanego awatara na podstawie krótkiego nagrania. Dla influencerów to sposób na zwiększenie zasięgów i usprawnienie produkcji treści. Problem pojawia się wtedy, gdy te same technologie trafiają w ręce osób, które wykorzystują je do manipulacji. Co miało być marketingowym usprawnieniem, bardzo szybko może przekształcić się w narzędzie dezinformacji – mówi Beniamin Szczepankiewicz, analityk laboratorium antywirusowego ESET.Analitycy ESET ujawnili ponad 20 kont na TikToku i Instagramie, które wykorzystywały deepfake’owych „lekarzy” do promowania różnych produktów. Jedno z nich, podszywające się pod ginekolożkę z trzynastoletnim doświadczeniem, zostało bezpośrednio powiązane z biblioteką awatarów dostępną w jednej z popularnych aplikacji. Choć tego rodzaju praktyki naruszają regulaminy większości narzędzi AI, dla oszustów nie stanowi to kłopotu..Problem nie sprowadza się jedynie do promowania nieskutecznych suplementów. Konsekwencje mogą być znacznie poważniejsze. Deepfake’i tego typu promują potencjalnie szkodliwe „terapie” i mogą opóźniać podjęcie właściwego leczenia. W świecie, w którym wiele osób szuka informacji o zdrowiu w sieci, taka dezinformacja staje się realnym zagrożeniem dla zdrowia publicznego.– W miarę jak narzędzia oparte na sztucznej inteligencji stają się coraz bardziej dostępne, rozpoznanie fałszywych treści staje się coraz trudniejsze, nawet dla osób dobrze zaznajomionych z technologią. To zjawisko stanowi poważne wyzwanie, ponieważ granica między autentycznym a spreparowanym przekazem zaczyna się zacierać. Dlatego tak ważne jest nie tylko rozwijanie technologicznych zabezpieczeń, ale też budowanie świadomości społecznej i kompetencji cyfrowych. Tylko w ten sposób możemy skutecznie bronić się przed dezinformacją i oszustwami, które mogą zagrozić naszemu zdrowiu i bezpieczeństwu finansowemu – mówi Beniamin Szczepankiewicz.Jak rozpoznać deepfake wideo udające poradę medyczną? Zwróć uwagę na poniższe sygnały ostrzegawcze:Niesynchronizowany ruch ust z dźwiękiem lub mimika, która wydaje się nienaturalna i sztywnaZakłócenia wizualne, takie jak rozmazane kontury twarzy czy nagłe zmiany oświetlenia, mogą świadczyć o cyfrowej ingerencji.Sztucznie brzmiący głos – przesadnie wygładzony, monotonny lub zbyt idealny – również może wskazywać na treść wygenerowaną przez algorytm.Szczegóły konta – czujność powinny wzbudzać nowe profile, bez historii aktywności i z niewielką liczbą obserwujących.Przesadne obietnice, takie jak „cudowne lekarstwo”, „gwarantowane rezultaty” czy slogany typu „lekarze tego nienawidzą”, zwłaszcza gdy nie są poparte wiarygodnymi źródłami.Zawsze weryfikuj informacje – korzystaj z zaufanych źródeł medycznych, nie udostępniaj podejrzanych nagrań i zgłaszaj wprowadzające w błąd treści bezpośrednio na platformie.Related Posts Przeczytaj również!ZTE powraca!Wpływ nowych technologii na rozwój omnichannelWielkanoc. Ceny w sklepach pójdą w górę nawet dwucyfrowo.