Da Adobe Photoshop først debuterede, så det ud som magi. Evnen til problemfrit at ændre fotos gav grafiske designere et livsskiftende værktøj, men det varede ikke længe, ​​før brugerne begyndte at bruge produktet til mere uærlige formål. Så sent som sidste år, for eksempel, blev et foto af NFL-spiller Michael Bennett fra Seattle Seahawks, der ser ud til at have et brændende flag i holdets garderobe, viralt, selvom det blot var blevet Photoshopped.

I øjeblikket er Photoshop (og "Photoshopping", det er den tilpassede verbversion) blevet kortfattet for at tale om ethvert manipuleret foto. Den måde, udtrykket har vævet sig ind i vores dagligdagse sprog, demonstrerer, hvor udbredt vores forståelse af, at billeder let kan manipuleres digitalt, er blevet. Folk er ofte villige til at påpege og acceptere, at et foto er blevet ændret. (Selvom Bennett-fotoet viser, er der stadig undtagelser fra reglen, og mange, der stadig narres.)

Hvad sker der, når Photoshop (eller programmer som det) bliver så avanceret, at det næsten er umuligt at få øje på en falsk? Hvad hvis der ikke var en måde at let påpege, at noget var blevet doktreret eller ændret væsentligt, fordi kun et mindretal af mennesker vidste, at manipulationen endda var mulig? Dette er tilfældet med Adobe VoCo, et program, der giver brugerne mulighed for at redigere stemmer - og ikke kun tonehøjden eller hastigheden, men også hvad nogen har sagt. Ud over blot at omarrangere ord i en stemmeoptagelse, kan Adobe VoCo få en person til at ”sige” noget, de aldrig har sagt.

Billede: Adobe Creative Cloud / YouTube

Demonstreret i slutningen af ​​2016 faktureres programmet som "Photoshop for stemme", og en del af demonstrationen viste, hvordan man ændrer en stemmeoptagelse af Keegan-Michael Key, Key & Peele-berømmelse. Det skiftede problemfrit rækkefølgen af ​​ord i optagelsen, ud over at tilføje nye ord til det.

I løbet af få minutter blev "jeg kysset mine hunde og min kone" "jeg kysste Jordan tre gange."

Ændringens kvalitet kan, i modsætning til mere rudimentære metoder til manuelt splejsning af vokaloptagelser, gøre det svært at fange. Optagelsen blev kun ændret ved at uploade klippet til VoCo, som derefter viste de ord, der blev sagt under den stemmeoptagelse. Alt hvad brugeren skal gøre er at flytte ord rundt eller indtaste yderligere.

Forudsigeligt mødte publikum demoen med jubel og bifald, mens Jordan Peele, der holdt op med begivenheden, spøgtigt erklærede: "Du er en dæmon!"

Billede: Adobe Creative Cloud / YouTube

VoCo indtager store mængder stemmedata og opdeler dem i de forskellige lyde, der udgør talesprog, samlet kendt som fonemer, inden der oprettes en stemmemodel for den, der er optaget. Hvis der ikke allerede findes et ord i optagelsen, bruger programmet disse fonemer til at oprette det fra bunden.

Der er adskillige anvendelser til sådan teknologi, tydeligvis inden for podcasting, i betragtning af deres stigende popularitet i det sidste årti. Fra 2008 til 2015 steg antallet af podcasts på iTunes med 50.000; i den samme tidsperiode steg lyttere fra 9 procent af den amerikanske offentlighed til 17 procent ifølge MarTech, et marketingundersøgelseswebsted. Lydredigering er en kedelig proces, der sandsynligvis kunne gøres meget lettere med et program som VoCo. Software som denne ville også gøre det lettere for amatører at komme ind i podcasting uden at have brug for omfattende produktionserfaring eller træning.

Som med mange indholdsmanipulationsteknologier, er der over den indledende bifald og adulering væven spørgsmål om, hvordan sådan teknik let kan bruges til at forårsage skade og sprede falske nyheder.

”En af de frygter for denne type teknologi, hvor du kan forstærke lyd, handler virkelig om, hvordan det kan bruges i krig,” siger Joan Donovan, mediemanipulation og platformens ansvarlighed ved Data and Society Research Institute, som undersøger de sociale og kulturelle spørgsmål, der stammer fra datacentriske og automatiserede teknologier.

”Du kan forestille dig midt i en banebrydende nyhedshændelse, at noget som dette bruges til at foregive, at der er en lækage, at nogen udgør en dødstrussel mod en offentlig person, eller at så og så har anmodet om en invasion. Der er forskellige måder, hvorpå denne teknologi, hvis folk ikke let ved, at den er tilgængelig, kan våben mod offentligheden, ”siger Donovan.

Overvej noget som War of the Worlds, Orson Welles berygtede radioudsendelse fra 1938, som var så overbevisende, at det fik nogle til at få panik, idet de troede, at en fremmed invasion ikke var fiktion, men faktisk at bryde nyheder. Forestil dig, at Adobe VoCo tager stemmeret fra en lands præsident og lader dem annoncere noget lige så alarmerende over luftbølgerne.

I modsætning til Photoshop er programmer som Adobe VoCo ikke kendt i vid udstrækning, hvilket gør folk mere modtagelige overfor dem. Hvis du beskrev Adobe VoCo til en ven, kan de måske sige, at de kunne forestille sig det, men ville de vide, at det allerede findes? Og at det praktisk taget findes på markedet?

Disse slags stemmeforandringer kunne give enhver mulighed for at forbedre klassiske phishing-kampagner - sige, anmode om en persons adgangskode, mens de foregiver at være et familiemedlem eller en chef. Hvis du ønskede at oprette en udbredt falske informationsoperation, kunne softwaren bruges til at sprede falske lydklip. Eller det kunne bruges til at chikanere mennesker. Journalister modtager jævnligt truende e-mails - hvad nu hvis det var telefonopkald eller voicemails, der syntes at være fra venner eller bekendte? Nogle af vores mere sikre institutioner, såsom banker, bruger stemmebekræftelse som en del af deres sikkerhed. Forestil dig, at hvis Donald Trump hævdede, at den forbandede lyd fra ham, der praler med Billy Bush om seksuelt overfald af kvinder, var blevet ændret digitalt?

Forskere som Donovan har sammensat de digitale værktøjer, der er nødvendige for at gå tilbage og se hvornår, hvor og hvordan visse billeder er blevet manipuleret. Men hun karakteriserer det som et tabende spil, fordi de altid hænger bag den seneste teknologi. Udbredte værktøjer til at identificere forfalsket tale er den næste bakke, der skal klatres.

Nogle biometriske sikkerhedsfirmaer mener, at de er klar til denne bølge af teknologi, men efterhånden som flere virksomheder (inklusive Googles DeepMind lydimimeringssystem WaveNet) bevæger sig ind i dette sikkerhedsrum.

”Teknologien er ny, men dens underliggende principper er blevet forstået i nogen tid,” sagde Steven Murdoch, en cybersikkerhedsforsker fra University College London, til BBC. ”Biometriske virksomheder siger, at deres produkter ikke ville blive narret af dette, fordi de ting, de leder efter, ikke er de samme ting, som mennesker ser efter, når de identificerer mennesker. Men den eneste måde at finde ud af er at teste dem, og det vil vare nogen tid, før vi ved svaret. ”

Adobe synes også godt at være opmærksom på de involverede risici. Virksomheden har endnu ikke frigivet en beta af VoCo til download, og fra slutningen af ​​2017 testede og udviklede programmet stadig programmet. Ved den første demonstration forklarede Adobes programmand potentielt ved hjælp af lydvandmærker, en unik elektronisk identifikation indlejret i en optagelse og ofte brugt til at identificere, hvem der har ejerskab til copyright, for at demonstrere, om et lydklip var blevet redigeret.