قال اثنان من المسؤولين التنفيذيين في شركة جوجل، الجمعة، إن التحيز في الذكاء الاصطناعي يضر بالمجتمعات المهمشة بالفعل في أمريكا، وأنه يتعين بذل المزيد من الجهود لضمان عدم حدوث ذلك. X. ايي، قائد التوعية للابتكار المسؤول في Google، و أنجيلا ويليامز، تحدث مدير السياسات في Google في (ليس IRL) قمة الفخر، وهو حدث نظمته Lesbians Who Tech & Allies، وهي أكبر منظمة LGBTQ تركز على التكنولوجيا في العالم للنساء والأشخاص غير الثنائيين والمتحولين جنسيًا حول العالم.
في متفرقمحادثات، تناولوا الطرق التي يمكن من خلالها استخدام تكنولوجيا التعلم الآلي لإيذاء مجتمع السود والمجتمعات الأخرى في أمريكا - وعلى نطاق أوسع في جميع أنحاء العالم.
مقاطع الفيديو الموصى بها
التحيز في الخوارزميات ليس مجرد مشكلة بيانات. يمكن أن يكون اختيار استخدام الذكاء الاصطناعي متحيزًا، والطريقة التي تتعلم بها الخوارزمية يمكن أن تكون متحيزة، والطريقة التي يتأثر بها المستخدمون/يتفاعلون مع/يدركون النظام يمكن أن تعزز التحيز! الدفع @timnitGebruعمل لمعرفة المزيد!
- العاشر. ايي؟؟؟ (@TechWithX) 26 يونيو 2020
ناقش ويليامز استخدام الذكاء الاصطناعي. للمراقبة الشاملة ودورها في
الإفراط في الشرطةوتنفيذها للأحكام المتحيزة. وقالت: "[الأمر] لا يعني أن التكنولوجيا عنصرية، ولكن يمكننا تشفير تحيزنا اللاواعي تجاه التكنولوجيا". وسلط ويليامز الضوء على قضية روبرت جوليان بورتشاك ويليامز، رجل أمريكي من أصل أفريقي من ديترويت تم القبض عليه مؤخرًا عن طريق الخطأ بعد أن قام نظام التعرف على الوجه بمطابقة صورته بشكل غير صحيح مع لقطات أمنية لسارق متجر. وقد أظهرت الدراسات السابقة أن أنظمة التعرف على الوجه يمكن أن تواجه صعوبات في ذلك التمييز بين مختلف السود. "هذا هو المكان الذي يتواجد فيه الذكاء الاصطناعي. قال ويليامز: “يمكن أن تسوء المراقبة بشكل فادح في العالم الحقيقي”.X. ناقش آيي أيضًا كيف أن الذكاء الاصطناعي. يمكن أن يساعد في "توسيع نطاق التحيز غير العادل وتعزيزه". بالإضافة إلى الاستخدامات شبه البائسة والملفتة للانتباه لـ الذكاء الاصطناعي، ركز آيي على الطريقة التي يمكن أن يتسلل بها التحيز إلى الاستخدامات اليومية الدنيوية للتكنولوجيا - بما في ذلك استخدامات جوجل الخاصة. أدوات. قال آيي: "في جوجل، لسنا غريبين على هذه التحديات". "في السنوات الأخيرة... تصدرنا عناوين الأخبار عدة مرات بسبب تأثير خوارزمياتنا سلبًا على الأشخاص." على سبيل المثال، قامت جوجل بتطوير أداة ل تصنيف سمية التعليقات عبر الإنترنت. على الرغم من أن هذا يمكن أن يكون مفيدًا جدًا، إلا أنه كان أيضًا مشكلة: عبارات مثل "أنا امرأة مثلية سوداء" تم تصنيفها في البداية على أنها أكثر تعقيدًا. سامة من "أنا رجل أبيض". كان هذا بسبب وجود فجوة في مجموعات بيانات التدريب، مع وجود محادثات حول هويات معينة أكثر من المحادثات آحرون.
وقال المسؤولان التنفيذيان في جوجل إنه لا توجد حلول شاملة لهذه المشكلات. أينما وجدت المشاكل، تعمل جوجل على التخلص من التحيز. لكن نطاق الأماكن المحتملة التي يمكن أن يدخل فيها التحيز إلى الأنظمة - بدءًا من تصميم الخوارزميات وحتى تصميمها إن النشر في السياق المجتمعي الذي يتم في ظله إنتاج البيانات يعني أنه ستكون هناك دائمًا مشكلة أمثلة. والمفتاح هنا هو أن ندرك ذلك، وأن نسمح بفحص هذه الأدوات، وأن تتمكن المجتمعات المتنوعة من إسماع أصواتها حول استخدام هذه التقنيات.
توصيات المحررين
- هل يستطيع أ. هل تتفوق على المهندسين البشريين في تصميم الرقائق الدقيقة؟ جوجل تعتقد ذلك
- BigSleep أ. يشبه Google Image Search للصور غير الموجودة بعد
- تعيد Google البشر لتولي إدارة محتوى YouTube من الذكاء الاصطناعي.
- أخبار كاذبة؟ منظمة العفو الدولية. تكشف الخوارزمية عن التحيز السياسي في القصص التي تقرأها
- منظمة العفو الدولية. تجعل الترقية هذا الفيلم من عام 1896 يبدو وكأنه تم تصويره بدقة 4K مبهرة
ترقية نمط حياتكتساعد الاتجاهات الرقمية القراء على متابعة عالم التكنولوجيا سريع الخطى من خلال أحدث الأخبار ومراجعات المنتجات الممتعة والمقالات الافتتاحية الثاقبة ونظرات خاطفة فريدة من نوعها.