소셜 미디어 조정: A.I. 캐치 - 그리고 어디에서 실패합니까?

중소기업을 위한 최고의 소셜 미디어 관리 도구
파니탄 팍세무앙/123RF
증오심 표현, 극단주의, 가짜 뉴스, 커뮤니티 기준을 위반하는 기타 콘텐츠에 대한 비판 정책을 강화하고, 직원을 추가하고, 재작업하는 최대 규모의 소셜 미디어 네트워크를 보유하고 있습니다. 알고리즘. 소셜(네트워크) 작업 시리즈에서는 소셜 미디어 조정을 탐구하고 무엇이 효과가 있고 무엇이 효과가 없는지 살펴보는 동시에 개선 가능성을 검토합니다.

에서 자살 피해자의 영상 YouTube에서 '유대인 혐오자'를 타겟팅하는 광고 ~에 페이스북, 소셜 미디어 플랫폼은 간신히 빠져나가는 부적절한 콘텐츠로 인해 어려움을 겪고 있습니다. 많은 경우 플랫폼의 대응은 부적절한 콘텐츠를 더 잘 식별하기 위해 더 스마트한 알고리즘을 구현하는 것입니다. 하지만 인공지능이 실제로 잡을 수 있는 능력은 무엇이며, 우리는 그것을 얼마나 믿어야 하며, 어디에서 비참하게 실패하는가?

"일체 포함. 공격적인 언어를 포착할 수 있고 이미지를 매우 잘 인식할 수 있습니다. 이미지를 식별하는 힘이 거기에 있습니다.”라고 CDO(최고 디지털 책임자)인 Winston Binch는 말합니다. 독일어, A.I를 활용한 크리에이티브 에이전시입니다. Target에서 Taco Bell에 이르는 브랜드를 위한 디지털 캠페인을 만드는 데 있습니다. "회색 영역이 의도가 됩니다."

일체 포함. 텍스트와 이미지를 모두 읽을 수 있지만 정확도는 다양합니다.

자연어 처리를 활용한 A.I. 여러 언어의 텍스트를 인식하도록 훈련될 수 있습니다. 예를 들어, 커뮤니티 지침을 위반하는 게시물을 찾아내도록 설계된 프로그램은 인종 비방이나 극단주의 선전과 관련된 용어를 감지하도록 가르칠 수 있습니다.

모바일 트렌드 구글 어시스턴트 AI

일체 포함. 이미지를 인식하고 일부 형태의 과도한 노출을 방지하거나 만자문과 같은 기호를 인식하도록 훈련받을 수도 있습니다. 많은 경우에 잘 작동하지만 완벽하지는 않습니다. 예를 들어, Google Photos는 피부색이 검은 사람의 이미지에 다음과 같은 키워드를 태그한 것에 대해 비판을 받았습니다. "고릴라." 몇 년이 지난 후에도 Google은 여전히 ​​문제에 대한 해결책을 찾지 못하고 대신 제거하기로 결정했습니다. 그만큼 원숭이와 고릴라에 태그를 지정하는 프로그램의 기능 전적으로.

또한 단어의 의미가 발전하거나 단어가 문맥에서 어떻게 사용되는지 이해하기 위해 알고리즘을 업데이트해야 합니다. 예를 들어, LGBT 트위터 사용자는 최근 #게이 및 #양성애자에 대한 검색 결과가 부족하다는 점을 발견했으며, 이로 인해 일부 사용자는 서비스가 자신을 검열하고 있다고 생각하게 되었습니다. 트위터는 오류에 대해 사과하고 그것을 비난했습니다. 오래된 알고리즘 이는 잠재적으로 불쾌감을 줄 수 있는 용어로 태그가 지정된 게시물을 잘못 식별한 것입니다. 트위터는 자사 알고리즘이 게시물의 맥락에서 해당 용어를 고려하도록 되어 있었지만 해당 키워드에 대해서는 그렇게 하지 못했다고 말했습니다.

일체 포함. 편견이 있다

고릴라 태깅 실패는 또 다른 중요한 단점을 가져옵니다. 일체 포함. 편견이 있다. 컴퓨터가 어떻게 편향될 수 있는지 궁금할 수도 있지만 A.I. 사람들이 작업을 완료하는 것을 관찰하거나 해당 작업의 결과를 입력함으로써 훈련됩니다. 예를 들어, 사진 속 물체를 식별하는 프로그램은 처음에 손으로 태그를 붙인 수천 개의 이미지를 시스템에 공급하여 훈련되는 경우가 많습니다.

인간적 요소가 AI를 가능하게 합니다. 작업을 수행하지만 동시에 인간의 편견을 제공합니다.

인간적 요소가 AI를 가능하게 합니다. 이전에는 일반적인 소프트웨어에서는 불가능했던 작업을 완료할 수 있지만 동일한 인간 요소가 실수로 컴퓨터에 인간의 편견을 부여하기도 합니다. AI. 프로그램의 성능은 훈련 데이터만큼만 좋습니다. 예를 들어 시스템에 백인 남성의 이미지가 주로 공급된다면 프로그램은 다른 피부색을 가진 사람을 식별하는 데 어려움을 겪을 것입니다.

“일반적으로 댓글부터 사용자에 이르기까지 모든 것을 조정하는 데 있어 AI의 한 가지 단점은 콘텐츠는 본질적으로 디자인에 따라 독선적이라는 것입니다.”라고 기술 담당 임원인 PJ Ahlberg는 말했습니다. 책임자는 스팅크 스튜디오 뉴욕, A.I를 활용하는 에이전시입니다. 소셜 미디어 봇을 만들고 브랜드 캠페인을 조정하는 데 사용됩니다.

훈련 세트가 개발되면 해당 데이터는 개발자 간에 공유되는 경우가 많으며, 이는 편견이 여러 프로그램으로 확산된다는 것을 의미합니다. Ahlberg는 이러한 요인이 개발자가 여러 AI를 사용하는 프로그램에서 해당 데이터 세트를 수정할 수 없음을 의미한다고 말합니다. 시스템을 발견한 후 편견을 제거하기가 어렵습니다.

일체 포함. 의도를 판단할 수 없음

일체 포함. 사진에서 만자를 감지할 수 있지만 소프트웨어는 그것이 어떻게 사용되는지 결정할 수 없습니다. 예를 들어 페이스북은 최근 사과했다. 만자가 포함된 게시물 삭제 하지만 증오 확산을 막아달라는 문자 메시지가 첨부되었습니다.

이는 A.I의 실패 사례이다. 의도를 인식하는 것. 페이스북은 심지어 사진에 태그를 달기도 했다. 해왕성의 동상 성적으로 노골적인 것처럼. 또한 알고리즘은 이미지에 나타날 수 있는 증오심 상징이나 폭력으로 인해 의도치 않게 포토저널리즘 작업을 표시할 수 있습니다.

교육 목적으로 공유된 역사적인 이미지는 또 다른 예입니다. 2016년 페이스북은 이후 논란을 일으켰습니다. 역사적인 '네이팜탄 소녀' 사진 삭제 사용자의 압력으로 인해 회사는 과도한 노출에 대한 강경 입장을 바꾸고 사진을 복원하기 전에 여러 번.

일체 포함. 초기 심사 역할을 하는 경향이 있지만 콘텐츠가 실제로 커뮤니티 표준을 위반하는지 확인하려면 인간 중재자가 필요한 경우가 많습니다. AI가 개선되었음에도 불구하고 이는 변하지 않는 사실입니다. 예를 들어 페이스북은 올해 검토팀 규모를 지난해의 두 배인 2만 명으로 늘릴 예정이다.

일체 포함. 인간이 더 빠르게 일할 수 있도록 돕고 있습니다

인간의 두뇌는 여전히 필요할 수 있지만 A.I. 프로세스를 더욱 효율적으로 만들었습니다. 일체 포함. 사람의 검토가 필요한 게시물을 결정하고 해당 게시물의 우선 순위를 지정하는 데 도움이 됩니다. 2017년에 Facebook은 다음과 같이 공유했습니다. 일체 포함. 자살 경향을 발견하도록 설계되었습니다. 한 달 동안 긴급구조대원에게 100통의 전화를 걸었습니다. 당시, 페이스북 A.I가 말했다. 또한 인간 검토자가 먼저 볼 게시물을 결정하는 데도 도움이 되었습니다.

페이스북이 걱정되는 친구
게티 이미지/Blackzheep

게티 이미지/Blackzheep

"[일체 포함. ]는 먼 길을 걸어왔고 확실히 진전을 보이고 있지만 현실은 여전히 ​​인간적 요소가 검증을 필요로 한다는 것입니다. 올바른 단어, 올바른 내용, 올바른 메시지를 수정하고 있습니다.”라고 Stink의 전무이사인 Chris Mele는 말했습니다. 스튜디오. “A.I가 느껴지는 곳. 가장 잘 작동하는 것은 인간 중재자를 촉진하고 더 빠르고 더 큰 규모로 작업하도록 돕는 것입니다. A.I는 아닌 것 같아요. 모든 플랫폼에서 거의 100% 자동화되었습니다.”

일체 포함. 빠르지만 윤리는 느립니다.

일반적으로 기술은 법과 윤리가 따라갈 수 있는 것보다 더 빠른 속도로 성장하는 경향이 있으며, 소셜 미디어 조정도 예외는 아닙니다. Binch는 그 요인이 대부분의 프로그래머에게는 없는 인문학이나 윤리학 배경을 가진 직원에 대한 수요 증가를 의미할 수 있다고 제안합니다.

그가 말했듯이, "우리는 지금 속도가 너무 빨라서 윤리적 요소가 너무 뒤처지지 않도록 해야 하는 상황에 있습니다."

편집자의 추천

  • 저작권으로 인해 비디오 사운드트랙을 찾는 것이 어려울 때 이 A.I. 음악가가 도와줄 수 있어요
  • 8K에서 AI까지, 2019년 카메라에 등장할 미래
  • 컴퓨터는 곧 우리보다 더 똑똑해질 것입니다. 그러면 AI가 만들어지나요? 반란은 불가피한가?