Η Microsoft ισχυρίζεται ότι έχει έναν νέο τρόπο να διατηρεί το ChatGPT ηθικό

Η Microsoft τράβηξε πολλά λάθη όταν έκλεισε την ομάδα Ηθικής και Κοινωνίας της τεχνητής νοημοσύνης (AI) τον Μάρτιο του 2023. Δεν ήταν καλή εμφάνιση δεδομένου του σχεδόν ταυτόχρονα σκάνδαλα κατακλύζει την τεχνητή νοημοσύνη, αλλά η εταιρεία μόλις παρουσίασε πώς σκοπεύει να διατηρήσει τις μελλοντικές της προσπάθειες υπεύθυνες και υπό έλεγχο στο μέλλον.

Σε ανάρτηση στη Microsoft Στο ιστολόγιο Θέματα, Η Natasha Crampton - η Chief Responsible AI Officer της εταιρείας Redmond - εξήγησε ότι η ομάδα ηθικής διαλύθηκε επειδή «Μια μεμονωμένη ομάδα ή μια ενιαία πειθαρχία επιφορτισμένη με υπεύθυνη ή ηθική τεχνητή νοημοσύνη δεν επρόκειτο να συναντήσει στόχοι."

Το Bing Chat εμφανίζεται σε φορητό υπολογιστή.
Jacob Roach / Digital Trends

Αντίθετα, η Microsoft υιοθέτησε την προσέγγιση που υιοθέτησε με τις ομάδες απορρήτου, ασφάλειας και προσβασιμότητας και «ενσωμάτωσε την υπεύθυνη τεχνητή νοημοσύνη σε όλη την εταιρεία." Στην πράξη, αυτό σημαίνει ότι η Microsoft έχει ανώτερο προσωπικό που «επιφορτίζεται με την αιχμή του δόρατος την υπεύθυνη τεχνητή νοημοσύνη σε κάθε πυρήνα επιχειρηματικό όμιλο», καθώς και «ένα μεγάλο δίκτυο υπεύθυνων «πρωταθλητών» τεχνητής νοημοσύνης με μια σειρά δεξιοτήτων και ρόλων για πιο τακτικό, άμεσο σύμπλεξη."

Σχετίζεται με

  • ChatGPT: τα τελευταία νέα, οι διαμάχες και οι συμβουλές που πρέπει να γνωρίζετε
  • Τι είναι μια προτροπή DAN για το ChatGPT;
  • Το Wix χρησιμοποιεί το ChatGPT για να σας βοηθήσει να δημιουργήσετε γρήγορα έναν ολόκληρο ιστότοπο

Πέρα από αυτό, ο Crampton είπε ότι η Microsoft έχει «σχεδόν 350 άτομα που εργάζονται σε υπεύθυνη τεχνητή νοημοσύνη, με λίγο περισσότερο από το ένα τρίτο αυτών (129 για την ακρίβεια) να είναι αφιερωμένα σε αυτό με πλήρη απασχόληση. οι υπόλοιποι έχουν υπεύθυνες ευθύνες τεχνητής νοημοσύνης ως βασικό μέρος των εργασιών τους».

Προτεινόμενα βίντεο

Αφού η Microsoft έκλεισε την ομάδα Ethics & Society, ο Crampton σημείωσε ότι ορισμένα μέλη της ομάδας ενσωματώθηκαν στη συνέχεια σε ομάδες σε όλη την εταιρεία. Ωστόσο, επτά μέλη του ομίλου απολύθηκαν ως μέρος των εκτεταμένων περικοπών θέσεων εργασίας της Microsoft που οδήγησαν σε απολύσεις 10.000 εργαζομένων στις αρχές του 2023.

Πλοήγηση στα σκάνδαλα

Το Bing Chat λέει ότι θέλει να είναι άνθρωπος.
Jacob Roach / Digital Trends

Το AI έχει δεν ήταν σχεδόν απαλλαγμένος από σκάνδαλα τους τελευταίους μήνες, και αυτές οι ανησυχίες πυροδότησαν τις αντιδράσεις κατά της διάλυσης της ομάδας ηθικής της τεχνητής νοημοσύνης από τη Microsoft. Εάν η Microsoft δεν είχε μια ειδική ομάδα για να βοηθήσει τα προϊόντα AI της σε υπεύθυνες κατευθύνσεις, η σκέψη πήγε, Θα πάλευε να περιορίσει τα είδη των καταχρήσεων και της αμφισβητήσιμης συμπεριφοράς του Bing chatbot που έχει γίνει διαβόητο Για.

Η τελευταία ανάρτηση ιστολογίου της εταιρείας σίγουρα στοχεύει να μετριάσει αυτές τις ανησυχίες του κοινού. Αντί να εγκαταλείψει εντελώς τις προσπάθειές της για τεχνητή νοημοσύνη, φαίνεται ότι η Microsoft επιδιώκει να διασφαλίσει ότι οι ομάδες σε όλη την εταιρεία έχουν τακτική επαφή με ειδικούς στην υπεύθυνη τεχνητή νοημοσύνη.

Ωστόσο, δεν υπάρχει αμφιβολία ότι το κλείσιμο της ομάδας AI Ethics & Society δεν πήγε καλά, και οι πιθανότητες είναι ότι η Microsoft έχει ακόμα δρόμο να διανύσει για να διευκολύνει το συλλογικό μυαλό του κοινού σε αυτό το θέμα. Πράγματι, ακόμη και η ίδια η Microsoft πιστεύει ότι το ChatGPT — του οποίου ο προγραμματιστής, OpenAI, ανήκει στη Microsoft — πρέπει να ρυθμιστεί.

Μόλις χθες, ο Geoffrey Hinton - ο «νονός της τεχνητής νοημοσύνης - παράτησε την Google και είπε στους New York Times ότι είχε σοβαρές αμφιβολίες σχετικά με τον ρυθμό και την κατεύθυνση της επέκτασης της τεχνητής νοημοσύνης, ενώ μια ομάδα κορυφαίων ειδικών στον τομέα της τεχνολογίας υπέγραψε πρόσφατα μια ανοιχτή επιστολή ζητώντας παύση στην ανάπτυξη AI ώστε να γίνουν καλύτερα κατανοητοί οι κίνδυνοι του.

Η Microsoft μπορεί να μην αγνοεί τις ανησυχίες σχετικά με την ανάπτυξη ηθικής τεχνητής νοημοσύνης, αλλά το αν η νέα της προσέγγιση είναι η σωστή μένει να φανεί. Μετά την αμφιλεγόμενη έναρξη του Bing Chat, η Natasha Crampton και οι συνεργάτες της θα ελπίζουν ότι τα πράγματα θα αλλάξουν προς το καλύτερο.

Συστάσεις των συντακτών

  • Οι κορυφαίοι συγγραφείς απαιτούν πληρωμή από εταιρείες τεχνητής νοημοσύνης για τη χρήση του έργου τους
  • GPT-4: πώς να χρησιμοποιήσετε το chatbot AI που κάνει το ChatGPT σε ντροπή
  • Το Bing Chat αντεπιτίθεται στις απαγορεύσεις τεχνητής νοημοσύνης στο χώρο εργασίας
  • Το Google Bard μπορεί τώρα να μιλήσει, αλλά μπορεί να πνίξει το ChatGPT;
  • Ο κατασκευαστής ChatGPT OpenAI αντιμετωπίζει έρευνα της FTC σχετικά με τους νόμους περί προστασίας των καταναλωτών

Αναβαθμίστε τον τρόπο ζωής σαςΤο Digital Trends βοηθά τους αναγνώστες να παρακολουθούν τον γρήγορο κόσμο της τεχνολογίας με όλα τα τελευταία νέα, διασκεδαστικές κριτικές προϊόντων, διορατικά editorial και μοναδικές κρυφές ματιές.