AI: Scary af de rigtige grunde

Kunstig intelligens, AI, har taget overskrifter, hype og endda skamløshed ved det udyr, vi slipper løs. Hver kraftfuld teknologi kan bruges på godt og vondt, hvad enten det er nuklear eller bioteknologi, og det samme er tilfældet for AI. Mens meget af den offentlige diskurs fra lignende som Elon Musk og Stephen Hawking reflekterer over sci-fi-lignende dystopiske visioner om overherre AI er gået galt (et scenarie, der bestemt er værd at diskutere), er der en meget mere umiddelbar trussel, når det kommer til AI. Længe før AI går ukontrollerbart eller overtager job, lurer der en meget større fare: AI i hænderne på regeringer og / eller dårlige aktører, der plejede at skubbe selvinteresserede dagsordener mod det større gode.

Som baggrund, som teknologioptimist og uapologetisk tilhænger af videreudvikling, skrev jeg i 2014 om den enorme forstyrrelse i samfundet, som AI kan forårsage, og selv om vores økonomiske målinger som BNP, vækst og produktivitet kan se fantastisk ud som et resultat, kan det forværres jo mindre synlige, men efter min mening langt mere kritiske målinger omkring indkomstforskelle og social mobilitet. Vigtigere er det, at jeg argumenterede for, hvorfor denne gang måske er anderledes end de sædvanlige økonomers afståelse fra, at produktivitetsværktøjer altid øger beskæftigelsen. Med AI kan det store flertal af de nuværende job flyttes uanset færdigheder eller uddannelsesniveau. I den forrige industrielle revolution så vi dette i landbruget mellem 1900-2000, da det gik fra et flertal af de amerikanske beskæftigelser til under 2%, og i industrielle job, som i dag er under 20% af den amerikanske beskæftigelse. Denne gang kan forskydningen muligvis ikke ske med kun lavere færdighedsjob - Lastbilchauffører, landbrugsarbejdere og restaurantfødevarepræparater kan være mindre udsatte end radiologer og onkologer. Hvis dygtige job som læger og maskiningeniører fortrænges, er uddannelse muligvis ikke en løsning for beskæftigelsesvækst (det er godt af mange andre grunde), som ofte foreslås af forenklede økonomer, der ekstrapolerer fortiden uden årsagsforståelse af årsagerne. I denne revolution vil maskiner være i stand til at kopiere de opgaver, de tidligere ikke kunne: dem, der kræver intellektuel ræsonnement og finkornede motoriske færdigheder. På grund af dette er det muligt, at følelsesmæssigt arbejde forbliver den sidste bastion af færdigheder, som maskiner ikke kan gentage på et menneskeligt niveau, og det er en af ​​grundene til, at jeg har hævdet, at medicinske skoler skulle gå over til at fremhæve og undervise mellempersonlige og følelsesmæssige færdigheder i stedet for Hippokratisk ræsonnement.

Vi bekymrer os for atomkrig, som vi burde, men vi har en økonomisk krig mellem nationer, der er mere truende. Pundits som Goldman Sachs går ind for internationalisme, fordi det tjener deres interesser godt og er det rigtige, hvis det spilles retfærdigt af alle. Og selvom det forkerte svar efter min mening er økonomisk nationalisme, går det rigtige svar langt ud over bare lige vilkår. Mens Trump-mani måske noget korrekt stammer fra følelser af uspilte spilleregler i Kina, vil problemet sandsynligvis blive eksponentielt værre, når AI er en faktor i disse økonomiske krige. Dette problem med økonomikrig vil sandsynligvis blive eksponentielt forstærket af AI. Evnen til at føre denne økonomiske krig er meget ulig blandt nationer som Kina, USA, Brasilien, Rwanda eller Jordan baseret på, hvem der har kapital og drivkraften til at investere i denne teknologi. Da det er den mindste implikation, overladt til sine egne enheder, vil AI-teknologi yderligere koncentrere den globale rigdom til et par nationer og "forårsage" behovet for meget forskellige internationale tilgange til udvikling, rigdom og forskelle.

Jeg skrev om behovet for at tackle dette spørgsmål om forskel, især da denne transformation vil resultere i enorme overskud for de virksomheder, der udvikler AI, og arbejdskraft vil blive devalueret i forhold til kapital. Heldigvis vil vi med denne store overflod have midlerne til at tackle uligheder og andre sociale spørgsmål. Desværre vil vi ikke være i stand til at tackle ethvert socialt spørgsmål, som menneskelig motivation, der helt sikkert vil resultere. Kapitalisme er med tilladelse fra demokrati, og demokrati bør have værktøjer til at korrigere for forskelle. Hold øje med Tea Party, du har ikke set den udviklende orkan gå din vej. Jeg formoder, at denne AI-drevne virkning på indkomstforskelle har mere end et årti eller mere til at blive materiel, hvilket giver os tid til at forberede os på den. Så selvom denne nødvendige dialog er begyndt og ført til idéen om løsninger som robotskatter og universel basisindkomst, som kan blive værdifulde værktøjer, er forskellen langt fra de værste problemer, som AI kan forårsage, og vi er nødt til at diskutere disse mere øjeblikkelige trusler.

Alene i det sidste år har verden set nogle af grundlaget for det moderne samfund rystes af indblanding fra dårlige aktører, der bruger teknologi. Vi har direkte set integriteten af ​​vores politiske system truet af russisk indblanding og vores globale økonomiske system truet af hændelser som Equifax-hacket og Bangladesh Banks heist (hvor kriminelle stjal $ 100m). AI vil dramatisk eskalere disse hændelser med cyberwarfare, da useriøse nationer og kriminelle organisationer bruger det til at presse deres dagsordener, især når det ligger uden for vores evne til at vurdere eller verificere. Denne overgang vil ligne det, vi ser, når vinden bliver en orkan eller en bølge bliver en tsunami i form af destruktiv kraft. Forestil dig en AI-agent, der er trænet på noget som OpenAI's Universe-platform, lærer at navigere i tusinder af online webmiljøer og blive indstillet til at trykke på en dagsorden. Dette kunne løsne en lokke af intelligente bottroller på nettet på en måde, der kunne ødelægge selve opfattelsen af ​​den offentlige mening. Forestil dig alternativt en bothær af telefonopkald fra den næste udvikling af Lyrebird.ai med unikke stemmer, der chikanerer telefonlinjerne for kongresmedlemmer og senatorer med anmodninger om skadelige politikændringer. Denne fare, i modsætning til ideen om overtagelse af robotter, har en stærk chance for at blive en realitet i det næste årti.

Denne teknologi findes allerede på radaren i de autoritære lande i dag. For eksempel har Putin talt om, hvordan AI-ledere vil styre verden. Derudover har Kina som nation koncentreret sig om meget tydeligt at erhverve denne magtfulde nye AI-teknologi. Akkumulering af ekspertise ud over normal erhvervskonkurrence og deres meget store finansiering rettet hertil er et stort problem. Dette svarer potentielt til eller værre end, at USA er den eneste nation med nukleare kapaciteter, da Hiroshima-angrebet blev udført. Der var meget lidt for vores japanske modstandere at svare med. Det er svært at sige, om dette økonomiske krigsvåben vil være så binært, som atombomben var, men det vil være stort og koncentreret i et par hænder og underlagt lidt verificerbarhed. Overraskende indsats, i betragtning af dets store forstærkningspotentiale, kunne skabe stor magtforskel.

Det bliver værre, hvis man er klar over, at større aktører i AI-udvikling i Vesten, som Google, Facebook og universiteter, har vedtaget en generelt åben politik, der offentliggør deres teknologiske tilgange og resultater i videnskabelige tidsskrifter for at dele denne teknologi mere bredt. Hvis individuelle statsaktører ikke gør det, og det tvivler jeg på, vil vi have en envejsstrøm af teknologi fra USA. AI-udvikling i visse dele af verden vil derudover have enorme fordele på grund af politikker mod / for data. Som Andrew Ng (en Stanford-professor hyret af et massivt kinesisk firma, Baidu, for at lede det er AI-bestræbelser, indtil han forlod for at inkubere sine egne ideer) har sagt, ”Data er raketbrændstof til AI-motoren”. Så mens AI-fremskridt har været frenetisk for nylig, vil det være meget hurtigere, når databeskyttelse og lejlighedsvis lejlighedsvis er mindre vigtige i interessen for "national sikkerhed." Denne ignorering af databeskyttelse og en måde, overførsel af teknologi på, giver lån til nationalistiske lande som Kina og Rusland er en enorm fordel i denne generations rumløb.

AI vil være meget mere end et økonomisk, erhvervsmæssigt eller konkurrencemæssigt spørgsmål, som det er tale om i dag. Vi bliver nødt til at genoverveje kapitalismen som et værktøj til økonomisk effektivitet, fordi effektivitet vil betyde mindre eller i det mindste forskelle vil gøre noget mere, men denne overvejelse kan være mange årtier væk. Den største bekymring i det næste årti er, at AI dramatisk vil forværre dagens cybersikkerhedsspørgsmål og være mindre verificerbar end nuklear teknologi. Nationalistiske nationer som Kina og smadrende diktatorer som Putin vil have massivt forstærket hemmelig magt. Jeg tror ikke, at vi som samfund ville være villige til at opgive beskyttelsesforholdene i vores samfund som åben fremgang og privatliv for at ”holde trit” med andre nationer. Jeg har nogle tanker om, hvad vi kan gøre her, men dette er et komplekst problem uden åbenlyse løsninger. Måske begrænser vi finansiering af ikke-NATO-investorer i amerikanske AI-virksomheder? Måske har den amerikanske regering eller NATO investeret i deres egne AI-teknologier til national sikkerhed? En hvid hatte kraft af AI? Øget indsats i udviklingen af ​​Black Swan som kvantecomputering? Mindre risikoaversion, mere tålmodighed og mindre tilbageslag fra samfund og regering til risici, fordomme og mangler ved ny AI-teknologi, når den vokser op? Uanset hvad vi gør, hvad der er klart, er vi brug for meget mere dialog, debat og øget finansiering af modforanstaltninger; i stedet for at generere hysteri om en langt væk dystopisk mulighed, der spejles i usikkerheder, og hvad hvis der er tilfældet, er vi nødt til at fokusere på den øjeblikkelige farebølge, før den rammer. At ikke tage risici her kan utilsigtet være den største risiko, vi tager.