„Medvědi neskáčou na trampolíně“: odborník řekl, jak rozeznat video neuronové sítě od skutečného videa

Foto: z otevřených zdrojů

Uživatelé se již naučili vodoznak Sora odstranit, takže pro umělou inteligenci je stále těžší jej rozpoznat.

Se spuštěním nového generátoru videí Sora od společnosti OpenAI se na internetu výrazně zvýšil počet falešných videí, která lze jen těžko odlišit od skutečných. Uživatelé TikToku a YouTube žertují, že uvěřit videím na internetu je nyní téměř nemožné.

Jeremy Carasco, autor kanálu Showtools.ai na YouTube, vysvětlil, na co si dát pozor při odhalování umělé inteligence. Podle něj byste měli hledat nesrovnalosti, například rty, které neodpovídají řeči, mizející objekty a záběry z údajných bezpečnostních kamer, které AI generuje obzvlášť dobře.

Společnost OpenAI přidala vodoznaky Sora a skrytá metadata, aby klipy označila jako generované umělou inteligencí, ale během týdne se na internetu objevily návody na jejich odstranění. Carasco radí hledat ve videu rozmazaná místa, kde by mohl být vodoznak.

Jako příklad Carasco uvedl video, na kterém medvěd skáče na trampolíně na dvoře jednoho domu. Jsou zde patrné všechny šablony moderních videí s umělou inteligencí: noční záběry z průmyslových kamer, podivná fyzika a medvěd vystupující ze záběru do nikam. Toto video však jen na YouTube nasbíralo více než 13 milionů zhlédnutí.

Je důležité si uvědomit, že většina modelů umělé inteligence vytváří krátké klipy do 10 sekund. Karasko však zdůrazňuje, že s rostoucí kvalitou videí s umělou inteligencí budou metody rozpoznávání stále složitější a nebude již možné spoléhat se výhradně na vlastní oči.

Share to friends
Rating
( No ratings yet )
Užitečné tipy a triky pro každodenní život