الإشراف على وسائل التواصل الاجتماعي: ما الذي يمكن أن يفعله الذكاء الاصطناعي؟ الصيد - وأين يفشل؟

أفضل أدوات إدارة وسائل التواصل الاجتماعي للشركات الصغيرة
بانيثان فاكسيموانج/123RF
انتقاد خطاب الكراهية والتطرف والأخبار المزيفة والمحتويات الأخرى التي تنتهك معايير المجتمع تمتلك أكبر شبكات التواصل الاجتماعي لتعزيز السياسات وإضافة الموظفين وإعادة العمل خوارزميات. في سلسلة العمل الاجتماعي (الصافي)، نستكشف الإشراف على وسائل التواصل الاجتماعي، وننظر إلى ما ينجح وما لا ينجح، بينما ندرس إمكانيات التحسين.

من فيديو لضحية انتحارية على اليوتيوب ل الإعلانات التي تستهدف "كارهي اليهود"، على فيسبوك، تعاني منصات وسائل التواصل الاجتماعي من محتوى غير لائق يتمكن من التسلل عبر الشقوق. في كثير من الحالات، تتمثل استجابة النظام الأساسي في تنفيذ خوارزميات أكثر ذكاءً لتحديد المحتوى غير المناسب بشكل أفضل. ولكن ما الذي يستطيع الذكاء الاصطناعي تحقيقه حقاً، وإلى أي مدى ينبغي لنا أن نثق به، وأين يفشل فشلاً ذريعاً؟

"آي. يمكنه التقاط لغة مسيئة ويمكنه التعرف على الصور جيدًا. يقول وينستون بينش، المدير الرقمي الرئيسي للشركة: "إن القدرة على التعرف على الصورة موجودة". الألمانية، وكالة إبداعية تستخدم الذكاء الاصطناعي. في إنشاء حملات رقمية للعلامات التجارية من Target إلى Taco Bell. "المنطقة الرمادية تصبح النية."

منظمة العفو الدولية. يمكنه قراءة النصوص والصور، لكن الدقة تختلف

باستخدام معالجة اللغة الطبيعية، الذكاء الاصطناعي. يمكن تدريبهم على التعرف على النص عبر لغات متعددة. على سبيل المثال، يمكن تعليم برنامج مصمم لاكتشاف المنشورات التي تنتهك إرشادات المجتمع، لاكتشاف الافتراءات العنصرية أو المصطلحات المرتبطة بالدعاية المتطرفة.

اتجاهات المحمول مساعد جوجل منظمة العفو الدولية

منظمة العفو الدولية. ويمكن أيضًا تدريبهم على التعرف على الصور، أو منع بعض أشكال العري أو التعرف على رموز مثل الصليب المعقوف. إنه يعمل بشكل جيد في كثير من الحالات، لكنه ليس مضمونًا. على سبيل المثال، تم انتقاد تطبيق Google Photos لوضع علامة على صور الأشخاص ذوي البشرة الداكنة باستخدام الكلمة الرئيسية "غوريلا." وبعد مرور سنوات، ما زالت جوجل لم تجد حلاً للمشكلة، وبدلاً من ذلك اختارت إزالتها ال قدرة البرنامج على تمييز القردة والغوريلا تماما.

تحتاج الخوارزميات أيضًا إلى التحديث مع تطور معنى الكلمة، أو لفهم كيفية استخدام الكلمة في السياق. على سبيل المثال، لاحظ مستخدمو تويتر من LGBT مؤخرًا نقصًا في نتائج البحث عن #gay و#bisexual، من بين مصطلحات أخرى، مما دفع البعض إلى الشعور بأن الخدمة كانت تفرض رقابة عليهم. واعتذر تويتر عن الخطأ وألقى باللوم عليه خوارزمية عفا عليها الزمن كان ذلك بمثابة تحديد خاطئ للمنشورات التي تحمل مصطلحات قد تكون مسيئة. وقال تويتر إن خوارزميته كان من المفترض أن تأخذ هذا المصطلح بعين الاعتبار في سياق المنشور، لكنها فشلت في القيام بذلك مع تلك الكلمات الرئيسية.

منظمة العفو الدولية. متحيز

يؤدي فشل وضع علامات الغوريلا إلى ظهور عيب مهم آخر - منظمة العفو الدولية. متحيز. قد تتساءل كيف يمكن لجهاز الكمبيوتر أن يكون متحيزًا، ولكن الذكاء الاصطناعي. يتم تدريبه من خلال مشاهدة الأشخاص وهم يكملون المهام، أو من خلال إدخال نتائج تلك المهام. على سبيل المثال، غالبًا ما يتم تدريب برامج التعرف على الأشياء في صورة فوتوغرافية عن طريق تغذية النظام بآلاف الصور التي تم وضع علامة عليها يدويًا في البداية.

العنصر البشري هو ما يجعل من الممكن للذكاء الاصطناعي. للقيام بالمهام ولكن في نفس الوقت يعطيها التحيز البشري.

العنصر البشري هو ما يجعل من الممكن للذكاء الاصطناعي. لإكمال المهام التي كانت مستحيلة في السابق على البرامج النموذجية، ولكن نفس العنصر البشري يؤدي أيضًا عن غير قصد إلى تحيز بشري للكمبيوتر. الذكاء الاصطناعي. إن جودة البرنامج جيدة بقدر جودة بيانات التدريب، فإذا تم تغذية النظام إلى حد كبير بصور الذكور البيض، على سبيل المثال، سيواجه البرنامج صعوبة في التعرف على الأشخاص ذوي ألوان البشرة الأخرى.

"أحد عيوب الذكاء الاصطناعي، بشكل عام، عندما يتعلق الأمر بالإشراف على أي شيء بدءًا من التعليقات وحتى المستخدم قال بي جي ألبيرج، المدير الفني التنفيذي: "المحتوى هو أنه متأثر بطبيعته بالتصميم". مدير استوديوهات ستينك نيويورك، وكالة تستخدم الذكاء الاصطناعي. لإنشاء روبوتات الوسائط الاجتماعية والإشراف على حملات العلامات التجارية.

بمجرد تطوير مجموعة التدريب، غالبًا ما تتم مشاركة هذه البيانات بين المطورين، مما يعني أن التحيز ينتشر إلى برامج متعددة. يقول أهلبرج إن هذا العامل يعني أن المطورين غير قادرين على تعديل مجموعات البيانات هذه في البرامج باستخدام الذكاء الاصطناعي المتعدد. مما يجعل من الصعب إزالة أي تحيزات بعد اكتشافها.

منظمة العفو الدولية. لا يمكن تحديد النية

منظمة العفو الدولية. يمكن للبرنامج اكتشاف الصليب المعقوف في الصورة الفوتوغرافية، ولكن لا يستطيع البرنامج تحديد كيفية استخدامه. الفيسبوك، على سبيل المثال، اعتذر مؤخرا بعد إزالة منشور يحتوي على صليب معقوف لكنها كانت مصحوبة بمناشدة نصية لوقف انتشار الكراهية.

هذا مثال على فشل الذكاء الاصطناعي. للتعرف على النية. الفيسبوك حتى وضع علامة على صورة تمثال نبتون كما صريحة جنسيا. بالإضافة إلى ذلك، قد تقوم الخوارزميات عن غير قصد بوضع علامة على العمل الصحفي المصور بسبب رموز الكراهية أو العنف التي قد تظهر في الصور.

الصور التاريخية التي تمت مشاركتها للأغراض التعليمية هي مثال آخر - في عام 2016، تسبب فيسبوك في جدل بعد ذلك إزالة الصورة التاريخية "فتاة النابالم". عدة مرات قبل أن يجبر ضغط المستخدمين الشركة على تغيير موقفها المتشدد بشأن العري وإعادة الصورة.

منظمة العفو الدولية. يميل إلى أن يكون بمثابة فحص أولي، ولكن غالبًا ما تظل هناك حاجة إلى مشرفين بشريين لتحديد ما إذا كان المحتوى ينتهك بالفعل معايير المجتمع. على الرغم من التحسينات التي تم إدخالها على الذكاء الاصطناعي، إلا أن هذه ليست حقيقة قابلة للتغيير. على سبيل المثال، يعمل موقع فيسبوك على زيادة حجم فريق المراجعة الخاص به إلى 20 ألف شخص هذا العام، وهو ضعف عدد العام الماضي.

منظمة العفو الدولية. يساعد البشر على العمل بشكل أسرع

ربما لا تزال هناك حاجة إلى عقل بشري، ولكن الذكاء الاصطناعي. جعلت العملية أكثر كفاءة. منظمة العفو الدولية. يمكن أن يساعد في تحديد المنشورات التي تتطلب مراجعة بشرية، بالإضافة إلى المساعدة في تحديد أولويات تلك المنشورات. وفي عام 2017، شارك فيسبوك ذلك منظمة العفو الدولية. مصممة لاكتشاف الميول الانتحارية أدى إلى إجراء 100 مكالمة لمستجيبي الطوارئ في شهر واحد. في الموعد، فيسبوك قال أن الذكاء الاصطناعي. كان يساعد أيضًا في تحديد المنشورات التي يراها المراجع البشري أولاً.

الفيسبوك صديق مهموم
غيتي إميجز / بلاكزيب

غيتي إميجز / بلاكزيب

"[آي. لقد قطعت شوطًا طويلًا وهي تحرز تقدمًا بالتأكيد، ولكن الحقيقة هي أنك لا تزال بحاجة ماسة إلى التحقق من العنصر البشري قال كريس ميلي، المدير الإداري في Stink: "إنك تقوم بتعديل الكلمات الصحيحة، والمحتوى المناسب، والرسالة الصحيحة". استوديوهات. "حيث تشعر بالذكاء الاصطناعي. ما يعمل بشكل أفضل هو تسهيل المشرفين البشريين ومساعدتهم على العمل بشكل أسرع وعلى نطاق أوسع. لا أعتقد أن أ. هو في أي مكان قريب من أن يكون آليًا بنسبة 100 بالمائة على أي منصة.

منظمة العفو الدولية. سريع، ولكن الأخلاق بطيئة

تميل التكنولوجيا بشكل عام إلى النمو بمعدل أسرع من قدرة القوانين والأخلاق على مواكبة ذلك، ولا يعد الاعتدال في وسائل التواصل الاجتماعي استثناءً. ويشير بينش إلى أن هذا العامل قد يعني زيادة الطلب على الموظفين ذوي الخلفية في العلوم الإنسانية أو الأخلاق، وهو أمر لا يتمتع به معظم المبرمجين.

وعلى حد تعبيره: "نحن الآن في مكان حيث الوتيرة، السرعة، سريعة للغاية، بحيث نحتاج إلى التأكد من أن العنصر الأخلاقي لا يتخلف كثيرًا عن الركب".

توصيات المحررين

  • عندما تجعل حقوق الطبع والنشر العثور على الموسيقى التصويرية للفيديو أمرًا صعبًا، فإن هذا الذكاء الاصطناعي. يمكن للموسيقي أن يساعد
  • من 8K إلى الذكاء الاصطناعي، هذا ما قد يأتي إلى الكاميرات في عام 2019
  • سوف تتفوق علينا أجهزة الكمبيوتر قريبًا. هل هذا يجعل الذكاء الاصطناعي؟ التمرد لا مفر منه؟