Facebook gebruikt bots om slecht gedrag te voorspellen en te voorkomen

click fraud protection

Ondanks de vele inspanningen van Facebook slagen slechte actoren er op de een of andere manier altijd in om door de waarborgen en het beleid heen te sijpelen. Het sociale netwerk experimenteert nu met een nieuwe manier om de antispammuren te versterken en slecht gedrag te voorkomen dat mogelijk de beveiligingen zou kunnen schenden: een leger bots.

Facebook zegt dat het een nieuw systeem van bots ontwikkelt dat slecht gedrag kan simuleren en zijn platform aan stresstests kan onderwerpen om eventuele tekortkomingen en mazen in de wet aan het licht te brengen. Deze geautomatiseerde bots worden getraind en geleerd hoe ze zich als een echt persoon moeten gedragen, met behulp van de schat aan gedragsmodellen Facebook heeft verworven van zijn ruim twee miljard gebruikers.

Aanbevolen video's

Om ervoor te zorgen dat dit experiment echte gebruikers niet hindert, heeft Facebook ook een soort parallelle versie van zijn sociale netwerk gebouwd. Hier worden de bots losgelaten en mogen ze ongebreideld hun gang gaan: ze kunnen elkaar berichten sturen, commentaar geven op nepposts, vriendschapsverzoeken sturen, pagina's bezoeken en meer. Belangrijker nog is dat deze A.I. bots zijn geprogrammeerd om extreme scenario’s te simuleren, zoals het verkopen van drugs en wapens, om te testen hoe de algoritmen van Facebook deze zouden proberen te voorkomen.

Verwant

  • Facebook en Google-coronavirusonderzoeken kunnen binnenkort uitbraken voorspellen, zeggen onderzoekers
  • Een Facebook-bug zorgde ervoor dat geldige coronavirusartikelen als spam werden gemarkeerd
  • Facebook herinnert gebruikers eraan griepprikken te krijgen en beperkt het bereik van anti-vax-berichten

Facebook beweert dat dit nieuwe systeem “duizenden of zelfs miljoenen bots” kan hosten. Omdat het eigenlijk op dezelfde code draait, gebruiken gebruikers eigenlijk ervaring voegt het eraan toe dat “de acties van de bots trouw zijn aan de effecten die zouden worden waargenomen door echte mensen die de platform."

“Hoewel het project zich momenteel in een onderzoeksfase bevindt, hopen we dat het ons op een dag zal helpen onze diensten te verbeteren en problemen op te sporen potentiële betrouwbaarheids- of integriteitsproblemen voordat deze gevolgen hebben voor echte mensen die het platform gebruiken.” schreef de leiding van het project, Mark Harman in A blogpost.

Het is op dit moment onduidelijk hoe effectief de nieuwe simulatieomgeving van Facebook zal zijn. Zoals Harman al zei, bevindt het zich nog in een vrij vroeg stadium en het bedrijf heeft nog geen van zijn resultaten gebruikt voor openbare updates. De afgelopen jaren heeft het sociale netwerk actief geïnvesteerd en ondersteund op basis van onderzoek op basis van kunstmatige intelligentie om nieuwe instrumenten te ontwikkelen voor de bestrijding van intimidatie en spam. Op zijn jaarlijkse ontwikkelaarsconferentie twee jaar geleden kondigde Mark Zuckerberg aan dat het bedrijf aan het bouwen is hulpmiddelen voor kunstmatige intelligentie voor het aanpakken van berichten met terroristische inhoud, haatzaaiende uitlatingen, spam en meer.

Aanbevelingen van de redactie

  • Meta’s nieuwe AI-onderzoek kan vertalingen op Facebook en Instagram een ​​boost geven
  • Facebook deelt locatiegegevens met coronavirusonderzoekers
  • Privégegevens van sommige Facebook- en Twitter-gebruikers zijn gelekt via kwaadaardige apps
  • Facebook gebruikt Minecraft als oefenterrein voor de volgende fase van A.I.
  • Facebook bouwt virtuele huizen om AI te trainen agenten in realistische omgevingen

Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.