Lata doświadczeń powinny skutecznie nauczyć nas sceptycyzmu wobec tego co publikuje się w internecie. Do tej pory jednak wydawało się, że wyjąwszy cyfrowo obrobione fotografie, przynajmniej filmy były wiarygodnym źródłem informacji na temat tego co się stało. To już przeszłość a winę ponosi koncern Nvidia.
Nvidia ogłosiła w ostatnich dniach informacje o swoim nowym algorytmie GAN (generative adversarial network), która przy użyciu sieci neuronowych na podstawie istniejącej bazy danych "nauczyć" komputer określonych zależności i tworzyć przekonujące "fejki". Może też to robić ze zdjęciami, tak jak widać to na poniższej galerii fałszywych celebrytów i zwykłych osób, których twarze zostały w 100% wygenerowane przez komputer.
Od kilku lat co raz bardziej zacierała się granica między tym co prawdziwe a tym co wygenerowała sztuczna inteligencja: co raz lepiej można było przekształcać zdjęcia i filmy wideo nadając im pozory realności i tym samym fałszując faktyczny przebieg wydarzeń. Rozwój tych rozwiązań może mieć przy tym tragiczne skutki - bez problemu przecież da się oczernić dana osobę "wrabiając" ją w działania, których nigdy nie popełniła. Nawet jeśli po wnikliwej analizie uda się sprawę wyjaśnić przed sądem, to jednak sfałszowany materiał może na zawsze pozostać w sieci i znacząco nadszarpnąć opinię o danej osobie.
Podobne skandale już wybuchały: choćby w przypadku tzw. "deepfake scandal" gdy twarze popularnych celebrytów łączono z filmami porno, czy też przy pomocy technologii wkładano w usta polityków słowa, których ci nigdy nie wypowiedzieli. Takich historii jest co raz więcej i zapewne w przyszłości będzie ich wciąż przybywać.