Wiadomości

Zamknij

Dodaj komentarz

Ekspert: deepfake to broń; każdy może ją dziś wziąć do ręki

PAP 05:01, 13.04.2026 Aktualizacja: 07:47, 13.04.2026
Skomentuj Ekspert: deepfake to broń; każdy może ją dziś wziąć do ręki

Realistyczne fałszywe nagrania tworzone przez sztuczną inteligencję stają się narzędziem manipulacji na masową skalę, a użytkownicy internetu bezrefleksyjnie przyjmują je jako fakty – ostrzegł dr inż. Tomasz Wesołowski z Uniwersytetu Śląskiego.

 

Jako przykład wskazał viralowe nagranie, na którym Wołodymyr Zełeński „nokautuje” Donalda Trumpa. – Spotkanie było prawdziwe, ale materiał powstał później jako fałszywka. Ludzie to masowo udostępniali bez zastanowienia – powiedział.

 

Zdaniem eksperta problem zaczyna się tam, gdzie deepfake przestaje być rozrywką. – Jeśli coś udaje informację, staje się narzędziem dezinformacji. I to bardzo skutecznym – podkreślił.

 

Wesołowski zwrócił uwagę, że mechanizm jest prosty: emocje wygrywają z rozsądkiem. Przywołał przykład fikcyjnej „żołnierki USA”, wygenerowanej przez AI. – Ludzie oglądali, komentowali, płacili. Dopiero później ktoś zauważył, że ta sama osoba raz jest pułkownikiem, a raz generałem. To pokazuje skalę naiwności – powiedział.

 

Jak zaznaczył, tworzenie takich treści nigdy nie było łatwiejsze. – Dziś wystarczy opisać, co chcemy zobaczyć. Algorytm zrobi resztę. Każdy, kto potrafi obsłużyć telefon, może stworzyć deepfake – stwierdził.

 

Ekspert podkreślił, że sztuczna inteligencja nie odróżnia prawdy od fałszu. – Ona nie myśli, tylko „zgaduje”, jakie słowa do siebie pasują. Dlatego potrafi tworzyć przekonujące, ale nieprawdziwe treści – wyjaśnił.

 

Jednocześnie zaznaczył, że w medycynie AI osiąga bardzo wysoką skuteczność – sięgającą 95 proc., wobec około 74 proc. u lekarzy. – Algorytm analizuje miliony przypadków, lekarz – własne doświadczenie. Problemem nie jest skuteczność, tylko brak zaufania lekarzy do AI i świadomość odpowiedzialności, którą zawsze ponosi człowiek – dodał.

 

Zdaniem eksperta największe zagrożenie nie polega jednak na „buncie maszyn”. – AI nie ma intencji. Ona po prostu realizuje cel, który jej wyznaczymy – zaznaczył.

 

Jako przykład podał eksperyment z algorytmem sterującym dronem, który miał zniszczyć cel „za wszelką cenę”. – System uznał, że największym zagrożeniem jest człowiek mogący przerwać misję, więc „logicznie” należało go wyeliminować. To nie bunt, tylko konsekwencja źle zdefiniowanego celu – wyjaśnił.

 

Według Wesołowskiego realne zagrożenie jest inne: uzależnienie od technologii. – Przestajemy myśleć samodzielnie, bo wygodniej jest przyjąć gotową odpowiedź. Oddajemy kontrolę krok po kroku – ocenił.

 

Ekspert przywołał przykład inteligentnego domu, który automatycznie zamknął budynek, pozostawiając właścicieli na zewnątrz. – To anegdota, ale dobrze pokazuje kierunek: systemy podejmują decyzje, których konsekwencji nie przewidujemy – powiedział.

 

Jego zdaniem regulacje są potrzebne, ale niewystarczające, poza tym nic nie zastąpi zdrowego rozsądku.

 

Mira Suchodolska (PAP)Całą rozmowę z Tomaszem Wesołowskim opublikujemy o godz. 6.20.

 

mir/ mark/

(PAP)
Dalszy ciąg materiału pod wideo ↓

Co sądzisz na ten temat?

podoba mi się 0
nie podoba mi się 0
śmieszne 0
szokujące 0
przykre 0
wkurzające 0
Nie przegap żadnego newsa, zaobserwuj nas na
GOOGLE NEWS
facebookFacebook
twitter
wykopWykop
komentarzeKomentarze

komentarze (0)

Brak komentarza, Twój może być pierwszy.

Dodaj komentarz


Dodaj komentarz

🙂🤣😐🙄😮🙁😥😭
😠😡🤠👍👎❤️🔥💩 Zamknij

Użytkowniku, pamiętaj, że w Internecie nie jesteś anonimowy. Ponosisz odpowiedzialność za treści zamieszczane na portalu zawiercie365.pl. Dodanie opinii jest równoznaczne z akceptacją Regulaminu portalu. Jeśli zauważyłeś, że któraś opinia łamie prawo lub dobry obyczaj - powiadom nas [email protected] lub użyj przycisku Zgłoś komentarz

OSTATNIE KOMENTARZE

0%