100 tys. obserwujących i fikcyjny lekarz. Demagog opisał mechanizm oszustwa

13 godziny temu 6
  • Demagog opisał profil „dr. Adriana Halewskiego”, który zebrał ponad 100 tys. obserwujących, choć nie istniał i nie miał prawa wykonywać zawodu lekarza w Polsce
  • Konto promowało shilajit jako „suplement-cud” na liczne schorzenia, mimo że nie ma wiarygodnych dowodów naukowych na takie działanie i nie wolno przypisywać suplementom właściwości leczenia
  • Analiza nagrań i zdjęć sugerowała użycie treści generowanych przez AI, co pokazuje skalę ryzyka dezinformacji zdrowotnej w mediach społecznościowych

AI vs. prawdziwy lekarz

Na Instagramie pojawił się profil dr. Adriana Halewskiego, który prezentował się jako lekarz z gotowymi receptami na różne schorzenia i zachęcał do stosowania jednego suplementu diety shilajit - rzekomo rozwiązującego m.in. chroniczne zmęczenie, krótkowzroczność czy bezpłodność. Konto zgromadziło ponad 100 tys. obserwujących, zanim zostało usunięte.

Jak wskazuje Demagog, postać Halewskiego nie istnieje i nie ma prawa wykonywania zawodu lekarza w Polsce. Przeszukiwanie Centralnego Rejestru Lekarzy Naczelnej Izby Lekarskiej nie pokazuje żadnej osoby o takim nazwisku ani uprawnieniach.

Fikcyjny medyk miał też konta w innych językach, m.in. po angielsku, włosku, niemiecku i czesku - co sugeruje, że działanie miało charakter międzynarodowy.

Suplement‑cud, który cudów nie czyni

Materiały krążące na koncie sugerowały, że prosty suplement shilajit może wyleczyć poważne dolegliwości przez zwykłe jego przyjmowanie. Jednak - jak wskazuje Demagog - nie ma wiarygodnych dowodów naukowych, że ta substancja ma takie właściwości.

Shilajit to substancja pochodzenia naturalnego, sprzedawana jako suplement diety, ale jego skład i skuteczność mogą znacznie się różnić. Suplementy nie podlegają takim samym procedurom jak leki i nie można im przypisywać właściwości leczenia chorób.

Reklamowanie tego typu środków z obietnicami zdrowotnymi jest w Polsce formalnie niedozwolone.

Jak rozpoznać fałszywego „lekarza”

Analiza materiałów pokazała, że fragmenty filmów z rzekomym lekarzem nosiły cechy charakterystyczne dla generowanych treści AI: postać nie oddychała ani nie mrugała, a światło na nagraniach było nienaturalne.

Dodatkowo analiza obrazów profilowych za pomocą narzędzi do wykrywania AI (m.in. Hive AI i Sightengine) wykazała, że zdjęcia były prawdopodobnie wygenerowane sztucznie, co potwierdza, że nie było to autentyczne konto medyczne.

Dlaczego to nie jest błahy problem

Historia fikcyjnego doktora z Instagrama pokazuje, jak łatwo narzędzia sztucznej inteligencji i algorytmy mediów społecznościowych mogą stworzyć wiarygodnie wyglądające fałszywe autorytety i rozpowszechniać niebezpieczne informacje zdrowotne do setek tysięcy osób.

Komentarze pod filmami ujawniały, że użytkownicy traktowali rady jak porady medyczne: pytali o chemioterapię czy zalecenia na konkretne schorzenia.

Demagog podkreśla, że takie oszustwa mogą się nasilać - szczególnie w przypadku osób chorych, starszych czy zdesperowanych, które mogą bardziej ufać wizualnym i emocjonalnym przekazom niż sceptycznej ocenie faktów.

Materiał chroniony prawem autorskim - zasady przedruków określa regulamin.

Dowiedz się więcej na temat:

Przeczytaj źródło