- Demagog opisał profil „dr. Adriana Halewskiego”, który zebrał ponad 100 tys. obserwujących, choć nie istniał i nie miał prawa wykonywać zawodu lekarza w Polsce
- Konto promowało shilajit jako „suplement-cud” na liczne schorzenia, mimo że nie ma wiarygodnych dowodów naukowych na takie działanie i nie wolno przypisywać suplementom właściwości leczenia
- Analiza nagrań i zdjęć sugerowała użycie treści generowanych przez AI, co pokazuje skalę ryzyka dezinformacji zdrowotnej w mediach społecznościowych
AI vs. prawdziwy lekarz
Na Instagramie pojawił się profil dr. Adriana Halewskiego, który prezentował się jako lekarz z gotowymi receptami na różne schorzenia i zachęcał do stosowania jednego suplementu diety shilajit - rzekomo rozwiązującego m.in. chroniczne zmęczenie, krótkowzroczność czy bezpłodność. Konto zgromadziło ponad 100 tys. obserwujących, zanim zostało usunięte.
Jak wskazuje Demagog, postać Halewskiego nie istnieje i nie ma prawa wykonywania zawodu lekarza w Polsce. Przeszukiwanie Centralnego Rejestru Lekarzy Naczelnej Izby Lekarskiej nie pokazuje żadnej osoby o takim nazwisku ani uprawnieniach.
Fikcyjny medyk miał też konta w innych językach, m.in. po angielsku, włosku, niemiecku i czesku - co sugeruje, że działanie miało charakter międzynarodowy.
Suplement‑cud, który cudów nie czyni
Materiały krążące na koncie sugerowały, że prosty suplement shilajit może wyleczyć poważne dolegliwości przez zwykłe jego przyjmowanie. Jednak - jak wskazuje Demagog - nie ma wiarygodnych dowodów naukowych, że ta substancja ma takie właściwości.
Shilajit to substancja pochodzenia naturalnego, sprzedawana jako suplement diety, ale jego skład i skuteczność mogą znacznie się różnić. Suplementy nie podlegają takim samym procedurom jak leki i nie można im przypisywać właściwości leczenia chorób.
Reklamowanie tego typu środków z obietnicami zdrowotnymi jest w Polsce formalnie niedozwolone.
Jak rozpoznać fałszywego „lekarza”
Analiza materiałów pokazała, że fragmenty filmów z rzekomym lekarzem nosiły cechy charakterystyczne dla generowanych treści AI: postać nie oddychała ani nie mrugała, a światło na nagraniach było nienaturalne.
Dodatkowo analiza obrazów profilowych za pomocą narzędzi do wykrywania AI (m.in. Hive AI i Sightengine) wykazała, że zdjęcia były prawdopodobnie wygenerowane sztucznie, co potwierdza, że nie było to autentyczne konto medyczne.
Dlaczego to nie jest błahy problem
Historia fikcyjnego doktora z Instagrama pokazuje, jak łatwo narzędzia sztucznej inteligencji i algorytmy mediów społecznościowych mogą stworzyć wiarygodnie wyglądające fałszywe autorytety i rozpowszechniać niebezpieczne informacje zdrowotne do setek tysięcy osób.
Komentarze pod filmami ujawniały, że użytkownicy traktowali rady jak porady medyczne: pytali o chemioterapię czy zalecenia na konkretne schorzenia.
Demagog podkreśla, że takie oszustwa mogą się nasilać - szczególnie w przypadku osób chorych, starszych czy zdesperowanych, które mogą bardziej ufać wizualnym i emocjonalnym przekazom niż sceptycznej ocenie faktów.
Materiał chroniony prawem autorskim - zasady przedruków określa regulamin.
Dowiedz się więcej na temat:

13 godziny temu
6





English (US) ·
Polish (PL) ·