სოციალური მედიის მოდერაცია: რა შეუძლია A.I. დაჭერა -- და სად ვერ ხერხდება?

სოციალური მედიის მართვის საუკეთესო ინსტრუმენტები მცირე ბიზნესისთვის
Panithan Fakseemuang/123RF
კრიტიკა სიძულვილის ენის, ექსტრემიზმის, ყალბი ამბების და სხვა შინაარსის გამო, რომელიც არღვევს საზოგადოების სტანდარტებს მას აქვს ყველაზე დიდი სოციალური მედიის ქსელები, რომლებიც აძლიერებენ პოლიტიკას, ამატებენ პერსონალს და ხელახლა მუშაობენ ალგორითმები. სოციალური (ქსელი) სამუშაოს სერიებში, ჩვენ ვიკვლევთ სოციალური მედიის მოდერაციას, ვუყურებთ რა მუშაობს და რა არა, ხოლო განვიხილავთ გაუმჯობესების შესაძლებლობებს.

Დან თვითმკვლელის ვიდეო YouTube-ზე, რათა რეკლამა, რომელიც მიმართულია „ებრაელების მოძულეებს“, on ფეისბუქი, სოციალური მედიის პლატფორმებს აწუხებს შეუსაბამო კონტენტი, რომელიც ახერხებს ბზარებში გაცურვას. ხშირ შემთხვევაში, პლატფორმის პასუხი არის უფრო ჭკვიანი ალგორითმების დანერგვა შეუსაბამო შინაარსის უკეთ იდენტიფიცირებისთვის. მაგრამ რისი დაჭერა შეუძლია რეალურად ხელოვნურ ინტელექტს, რამდენად უნდა ვენდოთ მას და სად მარცხდება იგი სასტიკად?

„A.I. შეუძლია შეურაცხმყოფელი ენის აღქმა და კარგად ამოცნობა სურათებს. გამოსახულების იდენტიფიკაციის ძალა არსებობს“, - ამბობს უინსტონ ბინჩი, ციფრული ოფისის მთავარი ოფიცერი

Deutsch, კრეატიული სააგენტო, რომელიც იყენებს A.I. ბრენდების ციფრული კამპანიების შექმნისას Target-დან Taco Bell-მდე. "ნაცრისფერი ზონა ხდება განზრახვა."

ა.ი. შეუძლია ტექსტის და სურათების წაკითხვა, მაგრამ სიზუსტე განსხვავდება

ბუნებრივი ენის დამუშავების გამოყენებით ა.ი. შეიძლება ივარჯიშოთ ტექსტის ამოცნობაში მრავალ ენაზე. მაგალითად, პროგრამა, რომელიც შექმნილია პოსტების დასანახად, რომლებიც არღვევს საზოგადოების მითითებებს, შეიძლება ასწავლონ რასობრივი შეურაცხყოფის ან ექსტრემისტულ პროპაგანდასთან დაკავშირებული ტერმინების აღმოჩენა.

მობილური ტენდენციები google ასისტენტი ai

ა.ი. ასევე შეიძლება ივარჯიშონ გამოსახულების ამოცნობაში, სიშიშვლის ზოგიერთი ფორმის თავიდან ასაცილებლად ან ისეთი სიმბოლოების ამოცნობაში, როგორიცაა სვასტიკა. ის კარგად მუშაობს ბევრ შემთხვევაში, მაგრამ არ არის უგუნური. მაგალითად, Google Photos გააკრიტიკეს იმის გამო, რომ შავკანიანი ადამიანების გამოსახულებები საკვანძო სიტყვით მონიშნეს "გორილა." წლების შემდეგ, Google-მა ჯერ კიდევ ვერ იპოვა პრობლემის გადაწყვეტა, სამაგიეროდ აირჩია ამოღება The პროგრამის უნარი მაიმუნებისა და გორილების მონიშვნისთვის მთლიანად.

ალგორითმები ასევე უნდა განახლდეს სიტყვის მნიშვნელობის განვითარებასთან ერთად, ან იმის გაგება, თუ როგორ გამოიყენება სიტყვა კონტექსტში. მაგალითად, Twitter-ის ლგბტ მომხმარებლებმა ცოტა ხნის წინ შენიშნეს ძიების შედეგების ნაკლებობა #გეი და #ბისექსუალი, სხვა ტერმინებთან ერთად, რის გამოც ზოგიერთი ფიქრობს, რომ სერვისი მათ ცენზურას ახდენდა. Twitter-მა ბოდიში მოიხადა შეცდომისთვის და დაადანაშაულა მოძველებული ალგორითმი რომელიც ცრუ იდენტიფიცირებას ახდენდა ტერმინებით მონიშნულ პოსტებს, როგორც პოტენციურად შეურაცხმყოფელს. Twitter-მა თქვა, რომ მისმა ალგორითმმა უნდა განიხილოს ტერმინი პოსტის კონტექსტში, მაგრამ ვერ შეძლო ამის გაკეთება ამ საკვანძო სიტყვებით.

ა.ი. არის მიკერძოებული

გორილას მონიშვნის წარუმატებლობა კიდევ ერთ მნიშვნელოვან ნაკლოვანებას იწვევს - ა.ი. არის მიკერძოებული. შეიძლება გაგიკვირდეთ, როგორ შეიძლება კომპიუტერი იყოს მიკერძოებული, მაგრამ A.I. ივარჯიშება ხალხის დავალების შესრულების ყურებით, ან ამ ამოცანების შედეგების შეყვანით. მაგალითად, ფოტოების ობიექტების იდენტიფიცირების პროგრამები ხშირად სწავლობენ სისტემას ათასობით სურათის მიწოდებით, რომლებიც თავდაპირველად ხელით იყო მონიშნული.

ადამიანის ელემენტი არის ის, რაც შესაძლებელს ხდის A.I. დავალებების შესრულება, მაგრამ ამავე დროს აძლევს მას ადამიანურ მიკერძოებას.

ადამიანის ელემენტი არის ის, რაც შესაძლებელს ხდის A.I. დავალებების შესრულება, რომლებიც ადრე შეუძლებელი იყო ტიპიურ პროგრამულ უზრუნველყოფაზე, მაგრამ იგივე ადამიანური ელემენტი ასევე უნებლიედ ანიჭებს ადამიანის მიკერძოებას კომპიუტერის მიმართ. A.I. პროგრამა მხოლოდ ისეთივე კარგია, როგორც ტრენინგის მონაცემები - თუ სისტემა ძირითადად იკვებება თეთრი მამაკაცის გამოსახულებით, პროგრამას გაუჭირდება კანის სხვა ტონის მქონე ადამიანების იდენტიფიცირება.

”ზოგადად, A.I.-ს ერთი ნაკლი, როდესაც საქმე ეხება რაიმეს მოდერაციას კომენტარებიდან მომხმარებელამდე. შინაარსი, არის ის, რომ მას თანდაყოლილი აქვს დიზაინი, ”- თქვა PJ Ahlberg, აღმასრულებელი ტექნიკური დირექტორი Stink Studios New York, სააგენტო, რომელიც იყენებს A.I. სოციალური მედიის ბოტების შესაქმნელად და ბრენდის კამპანიების მოდერაციისთვის.

ტრენინგის ნაკრების შემუშავების შემდეგ, ეს მონაცემები ხშირად ნაწილდება დეველოპერებს შორის, რაც ნიშნავს, რომ მიკერძოება ვრცელდება მრავალ პროგრამაზე. ალბერგი ამბობს, რომ ეს ფაქტორი ნიშნავს, რომ დეველოპერებს არ შეუძლიათ ამ მონაცემთა ნაკრების შეცვლა პროგრამებში მრავალი A.I-ის გამოყენებით. სისტემები, რაც ართულებს რაიმე მიკერძოების ამოღებას მათი აღმოჩენის შემდეგ.

ა.ი. ვერ განსაზღვრავს განზრახვას

ა.ი. შეუძლია აღმოაჩინოს სვასტიკა ფოტოზე - მაგრამ პროგრამული უზრუნველყოფა ვერ განსაზღვრავს, თუ როგორ გამოიყენება იგი. მაგალითად, Facebook-მა ცოტა ხნის წინ ბოდიში მოიხადა ამის შემდეგ პოსტის წაშლა, რომელიც შეიცავდა სვასტიკას მაგრამ თან ახლდა ტექსტური თხოვნა სიძულვილის გავრცელების შეჩერების შესახებ.

ეს არის A.I-ს წარუმატებლობის მაგალითი. განზრახვის ამოცნობა. ფეისბუქმა სურათზეც კი მონიშნეს ნეპტუნის ქანდაკება როგორც სექსუალურად გამოხატული. გარდა ამისა, ალგორითმებმა შეიძლება უნებურად მონიშნოს ფოტოჟურნალისტური ნამუშევარი სიძულვილის სიმბოლოების ან ძალადობის გამო, რომელიც შეიძლება გამოჩნდეს სურათებში.

საგანმანათლებლო მიზნებისთვის გაზიარებული ისტორიული სურათები კიდევ ერთი მაგალითია - 2016 წელს ფეისბუქმა მას შემდეგ გამოიწვია კამათი ამოიღო ისტორიული „ნაპალმის გოგონას“ ფოტო რამდენჯერმე მანამ, სანამ მომხმარებელთა ზეწოლა აიძულა კომპანიას შეეცვალა მკაცრი პოზიცია სიშიშვლის შესახებ და აღედგინა ფოტო.

ა.ი. როგორც წესი, ემსახურება როგორც საწყისი სკრინინგს, მაგრამ ადამიანების მოდერატორები ხშირად მაინც საჭიროებენ იმის დასადგენად, არღვევს თუ არა კონტენტი საზოგადოების სტანდარტებს. A.I.-ის გაუმჯობესების მიუხედავად, ეს არ არის ფაქტი, რომელიც იცვლება. ფეისბუქი, მაგალითად, წელს 20 000-მდე ზრდის თავისი მიმომხილველი გუნდის რაოდენობას, რაც გაორმაგებულია შარშანდელთან შედარებით.

ა.ი. ეხმარება ადამიანებს უფრო სწრაფად იმუშაონ

ადამიანის ტვინი შეიძლება მაინც იყოს საჭირო, მაგრამ A.I. პროცესი უფრო ეფექტური გახადა. ა.ი. შეუძლია დაეხმაროს განსაზღვროს რომელი პოსტები საჭიროებს ადამიანის განხილვას, ასევე დაეხმაროს ამ პოსტების პრიორიტეტიზაციას. 2017 წელს Facebook-მა გააზიარა ეს ა.ი. შექმნილია სუიციდური ტენდენციების გამოსავლენად ერთ თვეში 100 გამოძახება მოჰყვა სასწრაფო დახმარების თანამშრომლებს. Დროზე, ფეისბუქი თქვა, რომ ა.ი. ასევე დაეხმარა იმის დადგენაში, თუ რომელ პოსტებს ნახავს პირველი ადამიანის მიმომხილველი.

ფეისბუქის შეშფოთებული მეგობარი
Getty Images/Blackzheep

Getty Images/Blackzheep

„[A.I. აქვს] გრძელი გზა და ის ნამდვილად პროგრესირებს, მაგრამ რეალობა ისაა, რომ თქვენ ჯერ კიდევ ძალიან გჭირდებათ ადამიანური ელემენტის გადამოწმება რომ თქვენ ცვლით სწორ სიტყვებს, სწორ შინაარსს და სწორ გზავნილს,” - თქვა კრის მელემ, Stink-ის მმართველმა დირექტორმა. სტუდიები. „სადაც გრძნობს A.I. მუშაობს საუკეთესოდ, რაც ხელს უწყობს მოდერატორებს და ეხმარება მათ მუშაობაში უფრო სწრაფად და ფართო მასშტაბით. არა მგონია A.I. არის თითქმის 100 პროცენტით ავტომატიზირებული ნებისმიერ პლატფორმაზე.

ა.ი. სწრაფია, მაგრამ ეთიკა ნელია

ტექნოლოგია, ზოგადად, უფრო სწრაფად იზრდება, ვიდრე კანონები და ეთიკის შენარჩუნებას შეუძლია - და სოციალური მედიის ზომიერება არ არის გამონაკლისი. ბინჩი ვარაუდობს, რომ ეს ფაქტორი შეიძლება ნიშნავდეს გაზრდილ მოთხოვნას თანამშრომლებზე ჰუმანიტარულ ან ეთიკურ მეცნიერებებში, რაც პროგრამისტების უმეტესობას არ აქვს.

როგორც მან თქვა, ”ჩვენ ახლა იმ ადგილას ვართ, სადაც ტემპი, სიჩქარე იმდენად სწრაფია, რომ ჩვენ უნდა დავრწმუნდეთ, რომ ეთიკური კომპონენტი ძალიან შორს არ ჩამორჩება.”

რედაქტორების რეკომენდაციები

  • როდესაც საავტორო უფლებები ართულებს ვიდეო საუნდტრეკის პოვნას, ეს A.I. მუსიკოსს შეუძლია დაეხმაროს
  • 8K-დან A.I.-მდე, ეს არის ის, რაც შეიძლება 2019 წელს მივიდეს კამერებზე
  • კომპიუტერები მალე გვაჯობებენ. ეს ქმნის A.I. აჯანყება გარდაუვალია?

კატეგორიები

Ბოლო