Av alle de skumle kreftene på internett, er muligheten til å lure det intetanende det mest skremmende. Clickbait, fotoshoppede bilder og falske nyheter er noen av de verste fornærmede, men de siste årene har også sett fremveksten av et nytt potensielt farlig verktøy kjent som deepfake kunstig intelligens (AI).
Begrepet deepfake refererer til forfalsket, datagenerert video og lyd som det er vanskelig å skille fra ekte, uendret innhold. Det er for å filme hva Photoshop er for bilder.
Hvordan fungerer deepfake AI?
Verktøyet er avhengig av det som er kjent som generative adversarial nettverk (GANs), en teknikk oppfunnet i 2014 av Ian Goodfellow, en Ph.D. student som nå jobber hos Apple, rapporterte Popular Mechanics.
GAN-algoritmen innebærer to separate AI-er, en som genererer innhold - la oss si, bilder av mennesker - og en motstander som prøver å gjette om bildene er ekte eller falske, ifølge Vox. Den genererende AI starter nesten ikke med hvordan folk ser ut, noe som betyr at partneren lett kan skille ekte bilder fra falske bilder. Men over tid blir hver type AI gradvis bedre, og etter hvert begynner den genererende AI å produsere innhold som ser perfekt ut.
Dype falske eksempler
GAN-er er imponerende verktøy og brukes ikke alltid til ondsinnede formål. I 2018 solgte et GAN-generert maleri som imiterer den nederlandske "Old Master" -stilen av kunstnere som 1600-tallets Rembrandt van Rijn på Christies auksjonshus for utrolige 432 500 dollar.
Samme år steg deepfakes til utbredt prominens, hovedsakelig gjennom en Reddit-bruker som gikk under navnet "deepfakes", rapporterte Vice. GAN-teknikken ble ofte brukt for å plassere ansiktene til kjente kjendiser - inkludert Gal Gadot, Maisie Williams og Taylor Swift - på kroppene til skuespillerinner med pornografisk film.
Andre GAN-er har lært å ta et enkelt bilde av en person og lage ganske realistiske alternative bilder eller videoer av den personen. I 2019 kunne et dybderi generere skumle, men realistiske filmer av Mona Lisa som snakker, beveger seg og smiler i forskjellige posisjoner.
Deepfakes kan også endre lydinnhold. Som rapportert av The Verge tidligere i år, kan teknikken dele nye ord i en video av en person som snakker, slik at det ser ut til at de sa noe som de aldri hadde tenkt å.
Enkelheten som det nye verktøyet kan brukes, har potensielt skremmende konsekvenser. Hvis noen, hvor som helst, kan lage realistiske filmer som viser en kjendis eller en politiker som snakker, beveger og sier ord de aldri sa, tvinges seerne til å bli mer på vakt mot innhold på internett. Som et eksempel er det bare å høre på president Obama som advarer mot en "oppslitt" dystopisk fremtid i denne videoen fra Buzzfeed, laget med deepfake av filmskaperen Jordan Peele.