New York Post

Facebooks selvmordsalgoritmer er invasive

Vi tænker på kunstig intelligens som noget, der burde forbedre menneskeheden, men brugerovervågning er en invasion af privatlivets fred. Facebooks uophørlige eksperimenter med os, hvad enten det er med dating eller blockchain vil tage en vejafgift på os.

Men for at blive bedømt af, hvor sandsynligt vi er for selvskading? Det er statens overvågning på det værste. Det er værre synes jeg end kinesiske forældre, der ønsker GPS-smart tøj til deres børn. Der er et sted, hvor AI kan komme folk til gode, men det er ikke et firma som Facebook, der advarer os eller vores kære, hvis vi er selvmord.

Facebook scorer automatisk os alle.

Det er, at det scorer alle vores stillinger i USA og vælger andre lande i en skala fra 0 til 1 for risiko for overhængende skade.

Facebook rangerer også i hemmelighed, hvor ”pålidelige” vi er.

Jeg tror, ​​du får ideen, Facebook bruger kunstig intelligens, men det (han, Mark Zuckerberg) finder det passende for sine brugere.

Brugere vil ikke vide, at deres opførsel rangeres, synes virksomheden at antyde. Hvis vi undersøgte folk på Instagram, ville de da vide, at de rangeres efter selvskading og et pålideligt spektrum? Hvad med folk på WhatsApp, der bare kommunikerer med deres familier?

Facebook positionerer sig selv som en socialt velvillig virksomhed

Facebook scanner næsten hvert indlæg på platformen i et forsøg på at vurdere selvmordsrisiko. Desværre har Facebook en lang historie med at udføre "eksperimenter" på sine brugere. Det er svært at eje en bestand, som ikke er pålidelig hverken for demokrati eller vores personlige data.

Facebook fungerer lidt som et socialt overvågningsprogram, hvor det videregiver informationen (selvmordsresultat) til retshåndhævelse for wellnesskontrol. Det ligner stort set statsovervågning, hvad er forskellen?

Privatlivseksperter siger, at Facebooks manglende bekræftelse af samtykke fra brugere til programmet udgør privatlivsrisici, der kan føre til eksponering eller værre. Facebook har en historie med at dele vores personlige data med andre teknologiselskaber. Så vi profileres på de mest intime måder af tredjepart, som vi ikke engang vidste, at vores data havde været.

I marts 2017 lancerede Facebook et ambitiøst projekt for at forhindre selvmord med kunstig intelligens, men hvad er den reelle årsag til, at de gør disse kontraster? Det er for at tjene penge på vores data, det er ikke for at "hjælpe menneskeheden" eller forbinde verden.

Live streaming på Facebook? De blev brugt til noget af det mest foruroligende indhold i 2017 og 2018. Efter en række selvmord, der blev live-streamet på platformen, forsøgte indsatsen for at bruge en algoritme til at opdage tegn på potentiel selvskade proaktivt at tackle et alvorligt problem . Så de bruger deres top AI talent til at politiudvikle deres platform og vurdere borgerne. Lyder det lidt sort spejl til dig? Det er sandt.

Kunstig intelligens kommer ind i farligt område

Så som analytikere siger online, opretter Facebook nye sundhedsoplysninger om brugere, men det holdes ikke under den samme privatlivsstandard som sundhedsudbydere. Som jeg sagde, skaber tech-virksomheder, der kommer ind i sundhedsvæsenet, flere etiske problemer, end det løser med AI. Men der er ingen regulering til at håndtere sådanne sager. Som vi så med senatorerne, forstår de ikke engang det grundlæggende om, hvordan internettet fungerer. Hvad ved Trump om AI? Fortiden og fremtiden konvergerer ikke nødvendigvis i en 70-årig gammel hjerne.

Algoritmen berører næsten hvert indlæg på Facebook og bedømmer hvert stykke indhold i en skala fra nul til et, med et, der udtrykker den højeste sandsynlighed for "forestående skade". Øger online-fjendtlighed over for Facebook selv min score? Jeg vil gerne vide. Jeg ønsker ikke at leve i et system, hvor jeg er klassificeret uden mit samtykke.

Facebook opretter "følsomme data om mental sundhed" ud af vores egne data, som de mener, at de ejer, med fortjeneste. De bedste sind i AI kan lige så godt være at skabe en social kreditvåben våbenudviklingsøkonomi her. Facebook er førende - og det får Kinas ratingsystem til at se velvillig og samvittighedsfuld i sammenligning. Dette skyldes, at den kinesiske regering ønsker overensstemmelse, ikke invasiv fortjeneste fra vores data, mens den foregiver at være velvillig.

Facebook udfører datasvindel om globale borgere. Der er i virkeligheden ingen anden konklusion at gøre.

Databeskyttelseslove, der regulerer sundhedsoplysninger i USA, gælder i øjeblikket ikke de data, der er oprettet af Facebook's selvmordsforebyggelsesalgoritme, ifølge Business Insider.

For at tjene penge behøver Facebook ikke bare brugere. Det har brug for brugere, der er aktive og engagerede. Det skaber et system til at bruge forudsigelig analyse for at vide, hvad du vil gøre næste.

Det skal ikke kun vide, hvilket link du sandsynligvis vil klikke på, men også hvad der gør dig mere eller mindre sandsynlig for at klikke på det. Det skaber et captive-data-økosystem. Det har milliarder af uskyldige, det skal nu evaluere deres mentale helbred, opførsel, samfund, sårbarheder osv.…

Virksomheder som Facebook, der foretager konklusioner om en persons helbred fra ikke-medicinske datakilder, er ikke underlagt de samme krav til beskyttelse af personlige oplysninger. Dette er en farlig og ondartet brug af AI, hvis jeg nogensinde har set en. Facebook har investeret i en "messenger for Kids" -platform, den er temmelig syg.

Facebook studerer ting som massiv emotionel smitsomhed og manipulering af følelser online. NSA og DARPA, Facebook er en masseovervågningskanal. Ligesom mange kinesiske virksomheder nu har aktive bånd til den kinesiske regering, har det trods alt været i lang tid. Men for at gøre interferenser på vores personlige data med AI, går det ned en farlig vej. Det er her, noget som demokrati og kapitalisme bare foldes på sig selv i korruption.

Facebook bør bedømme, hvor sandsynligt jeg vil forlade Instagram, Messenger, WhatsApp og Facebooks flagskibsapp, fordi denne form for opførsel er en krænkelse ikke kun af vores privatliv, men af ​​de usagte regler for kunstig intelligensforskere, etik, social retfærdighed og menneskerettigheder.