Microsoft twierdzi, że ma nowy sposób na utrzymanie etyki ChatGPT

click fraud protection

Microsoft spotkał się z dużą krytyką, gdy w marcu 2023 r. zamknął swój zespół ds. etyki i społeczeństwa oparty na sztucznej inteligencji (AI). Nie był to dobry wygląd, biorąc pod uwagę niemal jednoczesne skandale pochłania sztuczną inteligencję, ale firma właśnie przedstawiła, w jaki sposób zamierza zachować odpowiedzialność i kontrolę nad swoimi przyszłymi wysiłkami w przyszłości.

W poście na stronie Microsoft Na blogu Problemy, Natasha Crampton – dyrektor odpowiedzialna za sztuczną inteligencję w firmie z Redmond – wyjaśniła, że ​​zespół ds. etyki został rozwiązany ponieważ „Pojedynczy zespół lub pojedyncza dyscyplina, której zadaniem jest odpowiedzialna lub etyczna sztuczna inteligencja, nie byłaby w stanie sprostać naszym cele.”

Czat Bing wyświetlany na laptopie.
Jacob Roach / Trendy cyfrowe

Zamiast tego Microsoft przyjął podejście przyjęte w swoich zespołach ds. prywatności, bezpieczeństwa i dostępności oraz „wbudowaną odpowiedzialną sztuczną inteligencję”. w całej firmie.” W praktyce oznacza to, że Microsoft zatrudnia starszych pracowników, których zadaniem jest kierowanie odpowiedzialną sztuczną inteligencją w każdym rdzeniu biznesową”, a także „dużą sieć odpowiedzialnych „mistrzów” AI z szeregiem umiejętności i ról umożliwiających bardziej regularne, bezpośrednie zaręczyny."

Powiązany

  • ChatGPT: najnowsze wiadomości, kontrowersje i wskazówki, które musisz znać
  • Co to jest zachęta DAN dla ChatGPT?
  • Wix używa ChatGPT, aby pomóc Ci szybko zbudować całą witrynę internetową

Poza tym Crampton powiedział, że Microsoft „prawie 350 osób pracuje nad odpowiedzialną sztuczną inteligencją, z czego nieco ponad jedna trzecia (dokładnie 129) jest jej poświęcona w pełnym wymiarze godzin; pozostali mają odpowiedzialne obowiązki w zakresie sztucznej inteligencji, co stanowi podstawową część ich pracy”.

Polecane filmy

Po tym, jak Microsoft zamknął swój zespół ds. etyki i społeczeństwa, Crampton zauważył, że niektórzy członkowie zespołu zostali następnie włączeni do zespołów w całej firmie. Jednak siedmiu członków grupy zostało zwolnionych w ramach szeroko zakrojonych zwolnień w Microsoft, w wyniku których na początku 2023 r. zwolniono 10 000 pracowników.

Nawigacja wśród skandali

Bing Chat mówi, że chce być człowiekiem.
Jacob Roach / Trendy cyfrowe

AI ma nie był wolny od skandali w ostatnich miesiącach i to właśnie te obawy wywołały ostry sprzeciw wobec rozwiązania przez Microsoft zespołu ds. etyki sztucznej inteligencji. Jeśli Microsoftowi brakowało dedykowanego zespołu, który pomógłby poprowadzić produkty AI w odpowiedzialny sposób, można było pomyśleć: miałoby trudności z ograniczeniem rodzajów nadużyć i wątpliwych zachowań, o których sława zyskała chatbota Bing Do.

Najnowszy wpis na blogu firmy z pewnością ma na celu rozwianie tych obaw wśród opinii publicznej. Zamiast całkowicie porzucić wysiłki związane ze sztuczną inteligencją, wydaje się, że Microsoft stara się zapewnić zespołom w całej firmie regularny kontakt z ekspertami w dziedzinie odpowiedzialnej sztucznej inteligencji.

Mimo to nie ma wątpliwości, że zamknięcie zespołu ds. etyki i społeczeństwa AI nie zakończyło się dobrze i istnieje duże prawdopodobieństwo, że Microsoft nadal ma przed sobą wiele do zrobienia, aby złagodzić zbiorowy pogląd opinii publicznej na ten temat. Rzeczywiście, nawet sam Microsoft uważa, że ​​ChatGPT — którego twórca, OpenAI, jest własnością Microsoft — należy uregulować.

Zaledwie wczoraj Geoffrey Hinton – „ojciec chrzestny sztucznej inteligencji” – odszedł z Google i powiedział New York Timesowi, że poważne wątpliwości na temat tempa i kierunku ekspansji sztucznej inteligencji, podczas gdy grupa wiodących ekspertów technicznych podpisała niedawno list otwarty, w którym wzywa do: przerwa w rozwoju sztucznej inteligencji aby można było lepiej zrozumieć związane z nim ryzyko.

Microsoft być może nie lekceważy obaw związanych z etycznym rozwojem sztucznej inteligencji, ale okaże się, czy jego nowe podejście jest właściwe. Po kontrowersyjnym początku Bing Chat Natasha Crampton i jej współpracownicy mają nadzieję, że wszystko zmieni się na lepsze.

Zalecenia redaktorów

  • Czołowi autorzy żądają zapłaty od firm zajmujących się sztuczną inteligencją za korzystanie z ich pracy
  • GPT-4: jak korzystać z chatbota AI, który zawstydza ChatGPT
  • Bing Chat walczy z zakazami stosowania sztucznej inteligencji w miejscu pracy
  • Google Bard może teraz mówić, ale czy może zagłuszyć ChatGPT?
  • Twórca ChatGPT, OpenAI, staje przed dochodzeniem FTC w sprawie przepisów dotyczących ochrony konsumentów

Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.