OpenAI buduje nový tým, aby zabránil budoucím podvodům s umělou inteligencí

Pokud se jednotlivci, kteří jsou v samém popředí technologie umělé inteligence, vyjadřují k potenciálně katastrofální účinky vysoce inteligentních systémů umělé inteligence, pak je pravděpodobně moudré si sednout a vzít oznámení.

Jen před pár měsíci Geoffrey Hinton, muž považovaný za jednoho z „kmotrů“ AI pro svou průkopnickou práci v oboru, řekl, že rychlé tempo vývoje této technologie znamenalo, že to „není nepředstavitelné“ že superinteligentní AI – považována za nadřazenou lidské mysli – by mohla skončit vyhlazením lidstva.

Doporučená videa

A Sam Altman, generální ředitel OpenAI, společnosti, která za tím stojí virový chatbot ChatGPT, přiznal, že má „trochu strach“ z potenciálních dopadů pokročilých systémů umělé inteligence na společnost.

Příbuzný

  • Tvůrce ChatGPT OpenAI čelí vyšetřování FTC kvůli zákonům na ochranu spotřebitele
  • Návštěvnost webu ChatGPT poprvé klesla
  • Naučil jsem ChatGPT, aby mě naučil deskové hry, a teď už se nikdy nevrátím

Altman je tak znepokojen, že ve středu jeho společnost oznámila, že zakládá novou jednotku s názvem Superalignment zaměřený na zajištění toho, že superinteligentní AI nakonec nezpůsobí chaos nebo něco daleko horší.

„Superinteligence bude nejúčinnější technologií, jakou kdy lidstvo vynalezlo, a mohla by nám pomoci vyřešit mnoho z nejdůležitějších světových problémů,“ OpenAI řekl v příspěvku představujícím novou iniciativu. "Ale obrovská síla superinteligence by mohla být také velmi nebezpečná a mohla by vést ke ztrátě moci lidstva nebo dokonce k lidskému vyhynutí."

OpenAI uvedla, že ačkoli se superinteligentní AI může zdát jako cesta mimo, věří, že by mohla být vyvinuta do roku 2030. A ochotně připouští, že v současné době neexistuje žádný systém „pro řízení nebo ovládání potenciálně superinteligentní umělé inteligence a pro zabránění tomu, aby se zkazila“.

Aby se OpenAI vypořádala s touto situací, chce vybudovat „zhruba na lidské úrovni automatizovaného výzkumníka zarovnání“, který by prováděl bezpečnostní kontroly na superinteligentní AI s tím, že řízení těchto rizik bude také vyžadovat nové instituce pro správu a řešení problému superinteligence zarovnání.

Aby mělo Superalignment efekt, musí OpenAI sestavit tým špičkových výzkumníků a inženýrů strojového učení.

Společnost se zdá být o svém úsilí velmi upřímná, popisuje to jako „neuvěřitelně ambiciózní cíl“ a zároveň připouští, že není „zaručeno, že uspěje“. Ale dodává, že je „optimistické, že to může vyřešit soustředěné a soustředěné úsilí problém."

Nové nástroje umělé inteligence jako ChatGPT od OpenAI a Bard od Googlu, mezi mnoha dalšími, jsou tak revoluční, že si odborníci jsou jisti že i na této předsuperinteligenční úrovni čelí pracoviště a širší společnost zásadním změnám v blízkém okolí období.

To je důvod, proč se vlády po celém světě snaží dohnat a urychleně zavádějí předpisy na rychle se rozvíjející průmysl AI ve snaze zajistit, aby byla technologie nasazena bezpečně a zodpovědně způsob. Pokud však nebude vytvořen jediný orgán, bude mít každá země svůj vlastní názor na to, jak technologii nejlépe využít, což znamená, že se tyto předpisy mohou značně lišit a vést k výrazně odlišným výsledkům. A jsou to právě tyto různé přístupy, kvůli kterým bude dosažení cíle Superalignmentu ještě těžší.

Doporučení redakce

  • Google Bard nyní umí mluvit, ale dokáže přehlušit ChatGPT?
  • Nová společnost Elona Muska zaměřená na umělou inteligenci si klade za cíl ‚porozumět vesmíru‘
  • OpenAI odhaluje umístění své první mezinárodní základny
  • Právníci z NY dostali pokutu za používání falešných případů ChatGPT v právní zkratce
  • Tento webový prohlížeč integruje ChatGPT fascinujícím novým způsobem

Upgradujte svůj životní stylDigitální trendy pomáhají čtenářům mít přehled o rychle se měnícím světě technologií se všemi nejnovějšími zprávami, zábavnými recenzemi produktů, zasvěcenými úvodníky a jedinečnými náhledy.