2.7 C
Warszawa
czwartek, 23 stycznia 2025

Koniecznie przeczytaj

Sztuczna inteligencja i prawdziwe zagrożenia

Technologia deepfake bazująca na podrabianiu czyjegoś głosu albo wizerunku stanowi coraz większy problem i jednocześnie dowód, że AI to nie tylko plusy, ale też wiele minusów. Z badań firmy McAffe wynika, że co 10. uwzględniony w badaniu internauta padł ofiarą takiego oszustwa, a kolejne 15 proc. próbowano w ten sposób oszukać. Cyberoszuści wykorzystujący deepfake stają się problemem również w Polsce, co pokazuje przykład wykorzystania wizerunku światowej sławy otolaryngologa prof. Henryka Skarżyńskiego.

Na stronie Facebook.com, na profilu Catena opublikowano film, który spreparowano przy użyciu najnowszych technik podkładania głosu oraz obrazu z udziałem sztucznej inteligencji. Materiał dotyczył jednego z preparatów medycznych. W filmie wygenerowano wizerunek prof. Henryka Skarżyńskiego i jego wypowiedź na temat preparatu. Profesor nigdy nie uczestniczył w takim nagraniu, nie wyraził zgody na promowanie produktu swoją opinią, a tym bardziej wizerunkiem – zgodnie z art. 63 Kodeksu Etyki Lekarskiej jako lekarz nie bierze udziału w reklamach. Profesor skierował sprawę do prokuratury.

– Sztuczna inteligencja ułatwiła życie nie tylko naukowcom i twórcom, ale również pospolitym oszustom. Brytyjskie media niedawno podniosły alarm, że telefoniczni oszuści, operujący metodą „na wnuczka”, używają AI do podszywania się pod rzeczywistych członków rodziny. Niestety, wiara w sztuczną inteligencję jest zbyt często bezwarunkowa. Wedle badań zacytowanych przez ChronPesel.pl, aż 43 proc. respondentów sądzi, że AI udziela zawsze odpowiedzi zgodnych z prawdą – mówi dr Piotr Balcerowski, wiceprezes Instytutu Staszica.

Na dwie strony medalu technologii AI w medycynie zwraca uwagę prof. Piotr H. Skarżyński z Instytutu Fizjologii i Patologii Słuchu w podwarszawskich Kajetanach.

– Sztuczna inteligencja niesie ze sobą potencjalnie ogromne korzyści dla pacjentów. Między innymi może odciążyć lekarzy pierwszego kontaktu, pomagając w postawieniu wstępnej diagnozy, dzięki której pacjent będzie mógł zostać skierowany do odpowiedniego specjalisty. Pomoże wszędzie tam, gdzie potrzebna jest szybka analiza danych, wyszukiwanie odchyleń od normy – przykładem może być diagnostyka obrazowa czy – w mojej specjalności – analiza wyników przesiewowych badań słuchu – mówi naukowiec.

Profesor podkreśla, że w przypadku nowych technologii, w tym AI, należy patrzeć nie tylko na szanse, lecz również na zagrożenia, także w zakresie wprowadzania w błąd odbiorców treści związanych ze zdrowiem.

– Coraz częściej docierają do nas sygnały o wykorzystywaniu wizerunku znanych specjalistów i renomowanych marek medycznych oraz farmaceutycznych do nieuczciwej reklamy. Mnie osobiście również dotknęła taka sytuacja – oszuści przerobili materiały edukacyjne z moim udziałem i wykorzystywali je do reklamowania specyfiku „cudownie przywracającego słyszenie”. Poszkodowanymi są osoby i podmioty, których wizerunek jest w ten sposób wykorzystywany, ale przede wszystkim pacjenci – ich zdrowie, a czasem nawet życie – mówi prof. Skarżyński. – Pokazuje to, jak niezbędna jest odpowiednia prawna regulacja w zakresie wykorzystywania technologii AI oraz wypracowanie mechanizmów odpowiedniej i szybkiej reakcji właścicieli platform internetowych, na których tego rodzaju nadużycia mają miejsce.

Dr Balcerowski wskazuje, że Komisja Nadzoru Finansowego przestrzega przed wprowadzającymi w błąd reklamami instrumentów finansowych, w których przy wykorzystaniu AI podszywano się pod celebrytów, polityków czy wiarygodne instytucje – z różnych sektorów, od energetycznego począwszy, a skończywszy na bankowym.

– W gronie poszkodowanych w ten sposób instytucji są także podmioty związane z ochroną zdrowia. Oszustwa w tym obszarze mają dodatkowy negatywny sposób: podważają zaufanie pacjentów do instytucji i autorytetów medycznych – zaznacza ekspert.

– Mam wrażenie, że polskie prawo nie nadąża za rozwojem nowych technologii, a oszuści wykorzystują istniejące luki. Prawodawca staje tu przed dylematem: albo precyzyjne określanie nowych typów przestępstw, co prowadzi do zabawy w kotka i myszkę ze stale udoskonalającymi swoje metody oszustami, albo tworzenie regulacji bardzo pojemnych, co znowu grozi nadużywaniem prawa wobec przedsiębiorców – ocenia Piotr Balcerowski.

TD

Poprzedni artykuł
Następny artykuł

Najnowsze