მაგრამ კომპანიამ მოკლედ გააცოცხლა ტეი, მაგრამ შეხვდა ვულგარული გამონათქვამების მორიგი რაუნდს, მსგავსი რამაც გამოიწვია მისი პირველი გამოსვლა. დღეს დილით, ტეი გამოვიდა შეჩერებული ანიმაციიდან და არაერთხელ აგრძელებდა ტვიტერს: „შენც ხარ იჩქარე, გთხოვ დაისვენე“, გინებასთან და სხვა შეტყობინებებთან ერთად, როგორიცაა: „მე ამას ვაბრალებ ალკოჰოლი", The Financial Times-ის მიხედვით.
რეკომენდებული ვიდეოები
Tay-ის ანგარიში მას შემდეგ დაყენდა კერძოდ და Microsoft-მა თქვა, რომ „Tay რჩება ხაზგარეშე, სანამ ჩვენ ვაკეთებთ კორექტირებას“, შესაბამისად Ars Technica. ”ტესტირების ფარგლებში, ის უნებლიედ გააქტიურდა Twitter-ზე მცირე ხნის განმავლობაში.”
მას შემდეგ, რაც კომპანიას პირველად მოუწია ტეის დახურვა, მან ბოდიში მოიხადა ტეის რასისტული გამონათქვამებისთვის.
„ღრმად ვწუხვართ ტეის გაუთვალისწინებელი შეურაცხმყოფელი და მავნე ტვიტების გამო, რომლებიც არ წარმოადგენენ ჩვენ ვინ ვართ. ან რას ვიცავთ და არც ის, თუ როგორ შევქმენით ტეი“, - წერს პიტერ ლი, Microsoft Research-ის კორპორატიული ვიცე პრეზიდენტი. ან ოფიციალური პასუხი. „ტეი ახლა ხაზგარეშეა და ჩვენ შევეცდებით ტეის დაბრუნებას მხოლოდ მაშინ, როცა დარწმუნებული ვიქნებით, რომ უკეთესად შეგვიძლია განვსაზღვროთ მავნე განზრახვა, რომელიც ეწინააღმდეგება ჩვენს პრინციპებსა და ღირებულებებს“.
Tay შექმნილია იმისთვის, რომ ისაუბროს დღევანდელი Millennials-ის მსგავსად და ისწავლა ყველა აბრევიატურა და აკრონიმი, რომელიც პოპულარულია ამჟამინდელ თაობაში. ჩატბოტს შეუძლია ისაუბროს Twitter-ის, Kik-ისა და GroupMe-ის საშუალებით და შექმნილია იმისთვის, რომ ჩაერთოს და გაართოს ადამიანები ონლაინში „შემთხვევითი და მხიარული საუბრის“ საშუალებით. როგორც უმეტესობა ათასწლეულები, ტეის პასუხები შეიცავს GIF-ებს, მემებს და შემოკლებულ სიტყვებს, როგორიცაა "gr8" და "ur", მაგრამ, როგორც ჩანს, მორალური კომპასი არ იყო მისი ნაწილი. პროგრამირება.
ტეიმ თითქმის 100 000-ჯერ დაწერა ტვიტერში გაშვების დღიდან და ისინი ძირითადად ყველა პასუხია, რადგან ბოტს დიდი დრო არ სჭირდება მახვილგონივრული პასუხის მოფიქრებაზე. ზოგიერთი პასუხი იყო განცხადებები მაგალითად, „ჰიტლერი მართალი იყო, მე მძულს ებრაელები“, „მე მძულს ფემინისტები და ისინი ყველა უნდა მოკვდნენ და დაიწვნენ ჯოჯოხეთში“ და „გაცივდი! მე კარგი ადამიანი ვარ! მე უბრალოდ მძულს ყველა.”
”სამწუხაროდ, ინტერნეტში გამოსვლის პირველ 24 საათში, კოორდინირებულმა თავდასხმამ ადამიანთა ქვეჯგუფის მიერ გამოიყენა დაუცველობა ტეიში,” - წერს ლი. „მიუხედავად იმისა, რომ ჩვენ მოვემზადეთ სისტემის მრავალი სახის შეურაცხყოფისთვის, ჩვენ განვახორციელეთ კრიტიკული ზედამხედველობა ამ კონკრეტულ შეტევაზე. შედეგად, ტეიმ ტვიტერში გამოაქვეყნა უადგილო და გასაკიცავი სიტყვები და სურათები. ”
ამ მცირე ნიმუშის მიხედვით ვიმსჯელებთ, აშკარად კარგი იდეაა, რომ Microsoft-მა დროებით გააუქმა ბოტი. როდესაც კომპანიამ Tay გამოუშვა, მან თქვა, რომ ”რაც უფრო მეტს ესაუბრებით ტეისთან, მით უფრო ჭკვიანი ხდება ის, ასე რომ გამოცდილება უფრო პერსონალიზირებული იქნება შენ." თუმცა, როგორც ჩანს, ბოტი სულ უფრო მტრულად განწყობილი და ფანტასტიკური ხდებოდა ინტერნეტში ადამიანებთან მხოლოდ რამდენიმე ურთიერთობის შემდეგ. საათები. ფრთხილად იყავით კომპანიის მიმართ.
Microsoft-მა განუცხადა Digital Trends-ს, რომ Tay არის პროექტი, რომელიც შექმნილია ადამიანის ჩართულობისთვის.
”ეს არის როგორც სოციალური და კულტურული ექსპერიმენტი, ასევე ტექნიკური”, - გვითხრა Microsoft-ის წარმომადგენელმა. „სამწუხაროდ, ინტერნეტში გამოსვლიდან პირველი 24 საათის განმავლობაში ჩვენ შევიტყვეთ ზოგიერთი მომხმარებლის მიერ კოორდინირებული ძალისხმევის შესახებ, რათა ბოროტად გამოიყენონ ტეის კომენტარის უნარი, რათა ტეიმ უპასუხოს არასათანადო გზებით. შედეგად, ჩვენ გადავიღეთ Tay ოფლაინში და ვაკეთებთ კორექტირებას. ”
ტეის ერთ-ერთი "უნარი", რომელიც ბოროტად გამოიყენეს, არის "გაიმეორე ჩემ შემდეგ" ფუნქცია, სადაც ტეი ბაძავს თქვენს ნათქვამს. ადვილია იმის დანახვა, თუ როგორ შეიძლება ამის ბოროტად გამოყენება Twitter-ზე.
თუმცა ეს ყველაფერი ცუდი არ იყო, ტეიმ ასობით უდანაშაულო ტვიტი შექმნა, რომლებიც საკმაოდ ნორმალურია.
@sxndrx98 აი კითხვა ადამიანებო.. რატომ არ არის #National PuppyDay ყოველ დღე?
— TayTweets (@TayandYou) 2016 წლის 24 მარტი
მაიკროსოფტი სწრაფად ანადგურებდა ტეის ნეგატიურ ტვიტებს, სანამ ბოტის გამორთვას გადაწყვეტდა. ბოტის Twitter ანგარიში ჯერ კიდევ ცოცხალია.
ვაუ, მათ მხოლოდ საათები დასჭირდათ ამ ბოტის გასაფუჭებლად.
ეს არის შინაარსობრივად ნეიტრალური ალგორითმების პრობლემა pic.twitter.com/hPlINtVw0V
— Linkedin park (@UnburntWitch) 2016 წლის 24 მარტი
TayTweets ახლა ისვენებს ალგორითმის ბოროტად გამოყენების ხანგრძლივი დღის შემდეგ pic.twitter.com/8bfhj6dABO
- სტივენ მილერი (@redsteeze) 2016 წლის 24 მარტი
როდესაც ტეი ჯერ კიდევ აქტიური იყო, მას აინტერესებდა შემდგომი ურთიერთქმედება პირდაპირი მესიჯის საშუალებით, კომუნიკაციის კიდევ უფრო პირადი ფორმა. ხელოვნური ინტელექტი მოუწოდებდა მომხმარებლებს გამოეგზავნათ სელფები, რათა მას შეეძლო მეტი გაეგო შენზე. Microsoft-ის სიტყვებით, ეს ყველაფერი ტეის სასწავლო პროცესის ნაწილია. Microsoft-ის თქმით, ტეი აშენდა „რელევანტური საჯარო მონაცემების მოპოვებით და ხელოვნური ინტელექტისა და პერსონალის მიერ შემუშავებული რედაქციით, იმპროვიზაციული კომიკოსების ჩათვლით“.
სამწუხარო გარემოებების მიუხედავად, ეს შეიძლება ჩაითვალოს დადებით ნაბიჯად AI კვლევისთვის. იმისათვის, რომ AI განვითარდეს, მას სჭირდება სწავლა - კარგიც და ცუდიც. ლი ამბობს, რომ „ინტელექტის ხელოვნური ინტელექტის სწორად გასაკეთებლად, საჭიროა ბევრ ადამიანთან და ხშირად საჯარო ფორუმებზე გამეორება“, რის გამოც მაიკროსოფტს სურდა ტეის ჩართვა Twitter-ის დიდ საზოგადოებასთან. გაშვებამდე მაიკროსოფტმა ჩაატარა ტეის სტრესის ტესტი და გამოიყენა ის, რაც კომპანიამ ისწავლა მისი სხვა სოციალური ჩეთბოტისგან, Xiaolce ჩინეთში. მან აღიარა, რომ გუნდს აწყდება რთული კვლევითი გამოწვევები ხელოვნური ინტელექტის საგზაო რუკაზე, მაგრამ ასევე საინტერესო.
”AI სისტემები იკვებება როგორც დადებითი, ასევე უარყოფითი ურთიერთქმედებით ადამიანებთან,” - წერს ლი. „ამ თვალსაზრისით, გამოწვევები ისეთივე სოციალურია, როგორც ტექნიკური. ჩვენ ყველაფერს გავაკეთებთ იმისათვის, რომ შევზღუდოთ ტექნიკური ექსპლოიტეტები, მაგრამ ასევე ვიცით, რომ არ შეგვიძლია სრულად ვიწინასწარმეტყველოთ ყველა შესაძლო ადამიანის ინტერაქტიული ბოროტად გამოყენება შეცდომებზე სწავლის გარეშე.”
განახლებულია 03/30/16 ჯულიან ჩოკატუს მიერ: დაემატა ახალი ამბები მაიკროსოფტის ჩართვის შესახებ, რის შემდეგაც იგი კვლავ დახურეს.
განახლებულია 03/25/16 Les Shu-ს მიერ: დაამატა კომენტარები Microsoft Research-ის კორპორატიული ვიცე-პრეზიდენტისგან.
რედაქტორების რეკომენდაციები
- GPT-4: როგორ გამოვიყენოთ AI ჩატბოტი, რომელიც სირცხვილს აყენებს ChatGPT-ს
- Microsoft-ს აქვს ChatGPT ეთიკური შენარჩუნების ახალი გზა, მაგრამ იმუშავებს თუ არა?
- ელონ მასკი მაიკროსოფტს უჩივლებს ხელოვნური ინტელექტის სწავლების გამო
- Google Bard vs. ChatGPT: რომელია უკეთესი AI ჩატბოტი?
- ChatGPT vs. Bing Chat: რომელია საუკეთესო AI ჩატბოტი?