Facebook bruger bots til at forudsige og forhindre dårlig opførsel

På trods af Facebooks mange anstrengelser formår dårlige aktører på en eller anden måde altid at gennemsive dens sikkerhedsforanstaltninger og politikker. Det sociale netværk eksperimenterer nu med en ny måde at understøtte sine anti-spam-vægge og forebygge dårlig adfærd, der potentielt kan bryde dets sikkerhedsforanstaltninger: En hær af bots.

Facebook siger, at det er ved at udvikle et nyt system af bots, der kan simulere dårlig adfærd og stress-teste sin platform for at afdække eventuelle fejl og smuthuller. Disse automatiserede bots er trænet og undervist i, hvordan man opfører sig som en rigtig person ved at bruge skattekammeret af adfærdsmodeller Facebook har erhvervet fra sine over to milliarder brugere.

Anbefalede videoer

For at sikre, at dette eksperiment ikke forstyrrer rigtige brugere, har Facebook også bygget en slags parallel version af sit sociale netværk. Her bliver botterne sluppet løs og får lov til at løbe løbsk - de kan sende beskeder til hinanden, kommentere på dummy-indlæg, sende venneanmodninger, besøge sider og mere. Endnu vigtigere er det, at disse A.I. bots er programmeret til at simulere ekstreme scenarier såsom salg af stoffer og våben for at teste, hvordan Facebooks algoritmer ville forsøge at forhindre dem.

Relaterede

  • Facebook, Googles coronavirus-undersøgelser kan snart forudsige udbrud, siger forskere
  • Facebook-fejlen gjorde, at gyldige coronavirus-artikler blev markeret som spam
  • Facebook minder brugere om at få influenza-indsprøjtning, begrænser rækkevidden af ​​anti-vax-indlæg

Facebook hævder, at dette nye system kan være vært for "tusinder eller endda millioner af bots." Da det kører på den samme kode brugere faktisk erfaring, tilføjer den, at "botternes handlinger er tro mod de virkninger, der ville blive set af rigtige mennesker, der bruger platform."

"Mens projektet er i et forskningsstadie i øjeblikket, er håbet, at det en dag vil hjælpe os med at forbedre vores tjenester og spotte potentielle problemer med pålidelighed eller integritet, før de påvirker rigtige mennesker, der bruger platformen." skrev projektets leder, Mark Harman i -en blogindlæg.

Det er uklart i øjeblikket, hvor effektivt Facebooks nye simuleringsmiljø vil være. Som Harman nævnte, er det stadig i ret tidlige stadier, og virksomheden har endnu ikke taget nogen af ​​sine resultater i brug til offentligt orienterede opdateringer. I løbet af de sidste par år har det sociale netværk aktivt investeret og støttet kunstig intelligens-baseret forskning for at udvikle nye værktøjer til at bekæmpe chikane og spam. På sin årlige udviklerkonference for to år siden annoncerede Mark Zuckerberg, at virksomheden er ved at bygge kunstig intelligens værktøjer til at tackle indlæg, der indeholder terrorindhold, hadefulde ytringer, spam og mere.

Redaktørens anbefalinger

  • Metas nye AI-forskning kan booste oversættelser på Facebook, Instagram
  • Facebook deler placeringsdata med coronavirus-forskere
  • Private data fra nogle Facebook- og Twitter-brugere lækket gennem ondsindede apps
  • Facebook bruger Minecraft som træningsplads for næste fase af A.I.
  • Facebook bygger virtuelle hjem for at træne A.I. agenter i realistiske miljøer

Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.