Facebook은 나쁜 행동을 예측하고 예방하기 위해 봇을 사용하고 있습니다.

Facebook의 많은 노력에도 불구하고 악의적인 행위자는 항상 Facebook의 보호 장치와 정책을 뚫고 들어가고 있습니다. 소셜 네트워크는 이제 스팸 방지 벽을 강화하고 보호 장치를 잠재적으로 침해할 수 있는 나쁜 행동을 선제하기 위한 새로운 방법인 봇 군대를 실험하고 있습니다.

페이스북 나쁜 행동을 시뮬레이션하고 플랫폼의 스트레스 테스트를 통해 결함과 허점을 찾아낼 수 있는 새로운 봇 시스템을 개발 중이라고 밝혔습니다. 이러한 자동화된 봇은 귀중한 행동 모델을 활용하여 실제 사람처럼 행동하는 방법을 훈련하고 가르칩니다. 페이스북 20억 명 이상의 사용자로부터 획득했습니다.

추천 동영상

이 실험이 실제 사용자를 방해하지 않도록 하기 위해 Facebook은 소셜 네트워크의 일종의 병렬 버전도 구축했습니다. 여기에서 봇은 풀려나서 만연하게 실행될 수 있습니다. 서로 메시지를 보내고, 더미 게시물에 댓글을 달고, 친구 요청을 보내고, 페이지를 방문하는 등의 작업을 할 수 있습니다. 더 중요한 것은 이러한 A.I. 봇은 마약이나 총기 판매와 같은 극단적인 시나리오를 시뮬레이션하여 Facebook의 알고리즘이 이를 방지하려고 시도하는 방법을 테스트하도록 프로그래밍되었습니다.

관련된

  • 페이스북과 구글의 코로나바이러스 설문조사는 곧 발병을 예측할 수 있다고 연구원들은 말합니다.
  • Facebook 버그로 인해 유효한 코로나바이러스 기사가 스팸으로 표시되었습니다.
  • Facebook은 사용자에게 독감 예방 주사를 맞도록 상기시키고 백신 방지 게시물의 도달 범위를 제한합니다.

페이스북은 이 새로운 시스템이 "수천 또는 수백만 개의 봇"을 호스팅할 수 있다고 주장합니다. 동일한 코드에서 실행되기 때문에 실제로 사용자는 경험에 따르면 "봇의 행동은 실제 사람들이 사용하여 목격하는 효과에 충실합니다. 플랫폼."

“이 프로젝트는 현재 연구 전용 단계에 있지만 언젠가는 서비스를 개선하고 발견하는 데 도움이 될 것이라는 희망이 있습니다. 플랫폼을 사용하는 실제 사람들에게 영향을 미치기 전에 잠재적인 신뢰성이나 무결성 문제가 발생할 수 있습니다.” 프로젝트 리더인 Mark Harman이 ㅏ 블로그 게시물.

현재로서는 Facebook의 새로운 시뮬레이션 환경이 얼마나 효과적인지는 불분명합니다. Harman이 언급했듯이 아직 초기 단계에 있으며 회사는 아직 공개 업데이트에 사용할 결과를 제출하지 않았습니다. 지난 몇 년 동안 소셜 네트워크는 괴롭힘과 스팸에 맞서기 위한 새로운 도구를 개발하기 위해 인공 지능 기반 연구에 적극적으로 투자하고 지원해 왔습니다. 2년 전 연례 개발자 회의에서 Mark Zuckerberg는 회사가 다음을 구축할 것이라고 발표했습니다. 테러리스트 콘텐츠, 증오심 표현, 스팸 등이 포함된 게시물을 처리하기 위한 인공 지능 도구 더.

편집자의 추천

  • Meta의 새로운 AI 연구로 Facebook, Instagram 번역이 향상될 수 있습니다.
  • 페이스북은 코로나바이러스 연구자들과 위치 데이터를 공유한다
  • 일부 페이스북, 트위터 사용자의 개인정보가 악성 앱을 통해 유출됐다.
  • Facebook은 Minecraft를 AI의 다음 단계를 위한 훈련장으로 활용합니다.
  • Facebook은 AI를 훈련시키기 위해 가상 주택을 구축합니다. 현실적인 환경의 에이전트

당신의 라이프스타일을 업그레이드하세요Digital Trends는 독자들이 모든 최신 뉴스, 재미있는 제품 리뷰, 통찰력 있는 사설 및 독특한 미리보기를 통해 빠르게 변화하는 기술 세계를 계속해서 살펴볼 수 있도록 도와줍니다.