Sosyal Medya Moderasyonu: A.I. Ne Yapabilir? Yakala - Peki Nerede Başarısız Olur?

Küçük işletmeler için en iyi sosyal medya yönetim araçları
Panithan Fakseemuang/123RF
Nefret söylemi, aşırılık, sahte haberler ve topluluk standartlarını ihlal eden diğer içeriklere yönelik eleştiriler Politikaları güçlendiren, personel ekleyen ve yeniden çalışan en büyük sosyal medya ağına sahiptir algoritmalar. Sosyal (Net) Çalışma Serisinde, iyileştirme olanaklarını incelerken neyin işe yarayıp neyin yaramadığını inceleyerek sosyal medya moderasyonunu keşfediyoruz.

bir bir intihar kurbanının videosu YouTube'da "Yahudilerden nefret edenleri" hedefleyen reklamlar Açık FacebookSosyal medya platformları, gözden kaçmayı başaran uygunsuz içerikle boğuşuyor. Çoğu durumda platformun tepkisi, uygunsuz içeriği daha iyi tespit etmek için daha akıllı algoritmalar uygulamak oluyor. Peki yapay zeka gerçekten neyi yakalayabiliyor, ona ne kadar güvenmeliyiz ve nerede başarısız oluyor?

“A.I. saldırgan dili algılayabilir ve görüntüleri çok iyi tanıyabilir. Görüntüyü tanımlamanın gücü orada," diyor dijitalden sorumlu şef Winston Binch Almanca, yapay zekayı kullanan bir yaratıcı ajans. Target'tan Taco Bell'e kadar markalar için dijital kampanyalar oluşturma. “Gri alan niyet haline gelir.”

yapay zeka hem metni hem de görselleri okuyabilir ancak doğruluğu farklılık gösterir

Doğal dil işlemeyi kullanan A.I. birden çok dildeki metni tanımak üzere eğitilebilir. Örneğin, topluluk kurallarını ihlal eden gönderileri tespit etmek için tasarlanmış bir programa, ırkçı hakaretleri veya aşırılıkçı propagandayla ilişkili terimleri tespit etmesi öğretilebilir.

mobil trendler google asistan ai

yapay zeka Ayrıca görüntüleri tanımak, bazı çıplaklık biçimlerini önlemek veya gamalı haç gibi sembolleri tanımak üzere de eğitilebilirler. Çoğu durumda iyi çalışır ancak kusursuz değildir. Örneğin Google Fotoğraflar, koyu tenli kişilerin görsellerini anahtar kelimeyle etiketlediği için eleştirildi. "goril." Yıllar geçmesine rağmen Google hâlâ soruna bir çözüm bulamadı; bunun yerine uygulamayı kaldırmayı tercih etti. the programın maymunları ve gorilleri etiketleme yeteneği Baştan sona.

Bir kelimenin anlamı geliştikçe veya bir kelimenin bağlamda nasıl kullanıldığını anlamak için algoritmaların da güncellenmesi gerekir. Örneğin, LGBT Twitter kullanıcıları son zamanlarda diğer terimlerin yanı sıra #gay ve #biseksüel için de arama sonuçlarında eksiklik olduğunu fark ettiler ve bu da bazılarının hizmetin kendilerini sansürlediğini düşünmesine neden oldu. Twitter hatadan dolayı özür diledi modası geçmiş bir algoritma Bu, terimlerle etiketlenen gönderileri yanlışlıkla potansiyel olarak saldırgan olarak tanımlamaktı. Twitter, algoritmasının terimi gönderi bağlamında dikkate alması gerektiğini ancak bu anahtar kelimelerle bunu yapamadığını söyledi.

yapay zeka önyargılı

Goril etiketleme başarısızlığı başka bir önemli eksikliği ortaya çıkarıyor: yapay zeka önyargılı. Bir bilgisayarın nasıl önyargılı olabileceğini merak edebilirsiniz, ancak A.I. İnsanların görevleri tamamlamalarını izleyerek veya bu görevlerin sonuçlarını girerek eğitilir. Örneğin, bir fotoğraftaki nesneleri tanımlamaya yönelik programlar genellikle başlangıçta elle etiketlenen binlerce görüntünün sisteme beslenmesiyle eğitilir.

Yapay zekanın bunu mümkün kıldığı şey insan unsurudur. görevleri yerine getirmek ama aynı zamanda ona insani bir önyargı veriyor.

Yapay zekanın bunu mümkün kıldığı şey insan unsurudur. Daha önce tipik bir yazılımda imkansız olan görevleri tamamlamak, ancak aynı insan unsuru aynı zamanda istemeden de olsa bir bilgisayara insan eğilimi verir. Bir yapay zeka. program yalnızca eğitim verileri kadar iyidir; örneğin sistem büyük ölçüde beyaz erkek resimleriyle beslendiyse, program diğer cilt tonlarına sahip kişileri tanımlamakta zorluk çekecektir.

"Yorumlardan kullanıcıya kadar her şeyin denetlenmesi genel olarak yapay zekanın bir eksikliğidir. İçerik, doğası gereği tasarım tarafından sabit fikirli olmasıdır," dedi idari teknik yönetici PJ Ahlberg Yöneticisi Stink Stüdyoları New York, A.I.'yi kullanan bir ajans. sosyal medya botları oluşturmak ve marka kampanyalarını yönetmek için.

Bir eğitim seti geliştirildiğinde, bu veriler genellikle geliştiriciler arasında paylaşılır, bu da önyargının birden fazla programa yayılması anlamına gelir. Ahlberg, bu faktörün, geliştiricilerin birden fazla yapay zeka kullanan programlarda bu veri kümelerini değiştiremedikleri anlamına geldiğini söylüyor. sistemler, keşfedildikten sonra önyargıların ortadan kaldırılmasını zorlaştırıyor.

yapay zeka niyeti belirleyemiyorum

yapay zeka bir fotoğrafta gamalı haçı algılayabilir ancak yazılım bunun nasıl kullanıldığını belirleyemez. Örneğin Facebook yakın zamanda özür diledi gamalı haç içeren bir gönderiyi kaldırmak ancak nefretin yayılmasını durdurmaya yönelik bir metin çağrısı da eşlik etti.

Bu, A.I.'nin başarısızlığının bir örneğidir. niyeti tanımak. Facebook bir fotoğrafını bile etiketledi Neptün heykeli cinsel içerikli olarak. Ayrıca algoritmalar, görsellerde görünebilecek nefret sembolleri veya şiddet nedeniyle foto muhabirliği çalışmalarını istemeden işaretleyebilir.

Eğitim amaçlı paylaşılan tarihi fotoğraflar da buna bir başka örnek; 2016'da Facebook'un ardından tartışmalara yol açmıştı. Tarihi “Napalm Kızı” fotoğrafı kaldırıldı Kullanıcılardan gelen baskı, şirketi çıplaklık konusundaki katı tutumunu değiştirmeye ve fotoğrafı eski durumuna döndürmeye zorlayana kadar birçok kez bu durum yaşanmıştı.

yapay zeka genellikle bir başlangıç ​​taraması görevi görür, ancak içeriğin gerçekten topluluk standartlarını ihlal edip etmediğini belirlemek için genellikle insan moderatörlere ihtiyaç duyulur. Yapay zekadaki gelişmelere rağmen bu değişen bir gerçek değil. Örneğin Facebook, bu yıl inceleme ekibinin sayısını geçen yılın iki katına çıkararak 20.000'e çıkarıyor.

yapay zeka insanların daha hızlı çalışmasına yardımcı oluyor

Bir insan beynine hâlâ ihtiyaç duyulabilir, ancak yapay zeka. süreci daha verimli hale getirdi. yapay zeka hangi gönderilerin gerçek kişi tarafından incelenmesi gerektiğinin belirlenmesine ve bu gönderilere öncelik verilmesine yardımcı olabilir. Facebook 2017'de bunu paylaşmıştı yapay zeka intihar eğilimlerini tespit etmek için tasarlandı bir ayda acil müdahale ekiplerine 100 çağrı yapıldı. O zaman, Facebook A.I. aynı zamanda hangi gönderilerin gerçek incelemeci tarafından ilk önce görüleceğinin belirlenmesine de yardımcı oluyordu.

Facebook Endişeli Arkadaş
Getty Images/Blackzheep

Getty Images/Blackzheep

“[A.I. uzun bir yol kat etti ve kesinlikle ilerleme kaydediyor, ancak gerçek şu ki, doğrulayan bir insan unsuruna hâlâ çok ihtiyacınız var Stink'in genel müdürü Chris Mele, "Doğru kelimeleri, doğru içeriği ve doğru mesajı değiştirdiğinizi düşünüyorum" dedi. Stüdyolar. “A.I. En iyi şekilde çalışmak, insan moderatörlerin işini kolaylaştırmak ve onların daha hızlı ve daha büyük ölçekte çalışmalarına yardımcı olmaktır. A.I.'nin olduğunu düşünmüyorum. herhangi bir platformda yüzde 100 otomatikleşmeye yakın.”

yapay zeka hızlıdır ama ahlak yavaştır

Teknoloji genel olarak yasaların ve ahlak kurallarının ayak uydurabileceğinden daha hızlı büyüme eğilimindedir ve sosyal medya denetimi de bir istisna değildir. Binch, bu faktörün, çoğu programcının sahip olmadığı, beşeri bilimler veya etik geçmişi olan çalışanlara yönelik artan talep anlamına gelebileceğini öne sürüyor.

Kendi ifadesiyle, "Artık temponun ve hızın o kadar yüksek olduğu bir noktadayız ki, etik bileşenin çok fazla geride kalmamasını sağlamamız gerekiyor."

Editörlerin Önerileri

  • Telif hakları video müziklerini bulmayı zorlaştırdığında, bu A.I. müzisyen yardımcı olabilir
  • 8K'dan yapay zekaya, 2019'da kameralara bunlar gelebilir
  • Bilgisayarlar yakında bizi geride bırakacak. Bu bir yapay zeka yapar mı? isyan kaçınılmaz mı?