Af alle de skræmmende kræfter på internettet er det evnen til at narre det intetanende måske det mest skræmmende. Clickbait, fotoshoppede billeder og falske nyheder er nogle af de værste lovovertrædere, men de seneste år har også set fremkomsten af et nyt potentielt farligt værktøj kendt som deepfake kunstig intelligens (AI).
Udtrykket deepfake henviser til forfalskning, computergenereret video og lyd, der er svært at skelne fra ægte, uændrede indhold. Det er at filme, hvad Photoshop er til billeder.
Hvordan fungerer deepfake AI?
Værktøjet er afhængig af det, der er kendt som generative adversarial netværk (GANs), en teknik opfundet i 2014 af Ian Goodfellow, en ph.d. studerende, der nu arbejder hos Apple, rapporterede Popular Mechanics.
GAN-algoritmen involverer to separate AI'er, en der genererer indhold - lad os sige, fotos af mennesker - og en modstander, der prøver at gætte, om billederne er reelle eller falske, ifølge Vox. Den genererende AI starter med næsten ingen idé om, hvordan folk ser ud, hvilket betyder, at dens partner let kan skelne ægte fotos fra falske billeder. Men med tiden bliver hver type AI gradvist bedre, og efterhånden begynder den genererende AI at producere indhold, der ser perfekt ud.
Deepfake-eksempler
GAN'er er imponerende værktøjer og bruges ikke altid til ondsindede formål. I 2018 solgte et GAN-genereret maleri, der efterligner den hollandske "Old Master" -stil af kunstnere som det 17. århundrede Rembrandt van Rijn på Christies auktionshus for utrolige $ 432.500.
Samme år steg deepfakes til udbredt prominens, hovedsageligt gennem en Reddit-bruger, der gik under navnet 'deepfakes', rapporterede Vice. GAN-teknikken blev ofte brugt til at placere ansigter fra berømte berømtheder - inklusive Gal Gadot, Maisie Williams og Taylor Swift - på legeme af pornografiske filmskuespillerinder.
Andre GAN'er har lært at tage et enkelt billede af en person og skabe ret realistiske alternative fotos eller videoer af denne person. I 2019 kunne en deepfake generere uhyggelige, men realistiske film af Mona Lisa, der taler, bevæger sig og smiler i forskellige positioner.
Deepfakes kan også ændre lydindhold. Som rapporteret af The Verge tidligere på året, kan teknikken opdele nye ord i en video af en person, der taler, så det ser ud til, at de sagde noget, som de aldrig havde til hensigt.
Den lethed, hvorpå det nye værktøj kan anvendes, har potentielt skræmmende konsekvenser. Hvis nogen, hvor som helst, kan lave realistiske film, der viser en berømthed eller en politiker, der taler, bevæger sig og siger ord, de aldrig har sagt, bliver seerne tvunget til at blive mere opmærksomme på indholdet på Internettet. Som et eksempel skal du bare lytte til præsident Obama advarer mod en "opbrugt" dystopisk fremtid i denne video fra Buzzfeed, oprettet ved hjælp af deepfake af filmskaberen Jordan Peele.