Ако хората, които са в челните редици на технологиите за изкуствен интелект, коментират за потенциално катастрофални ефекти от високоинтелигентни системи с изкуствен интелект, тогава вероятно е разумно да седнете и да вземете забележете.
Само преди няколко месеца Джефри Хинтън, човек, смятан за един от „кръстниците“ на ИИ заради пионерската си работа в областта, каза, че бързият темп на развитие на технологията означаваше, че „не е немислимо“ че свръхинтелигентният изкуствен интелект – считан за превъзхождащ човешкия ум – може да унищожи човечеството.
Препоръчани видеоклипове
И Сам Алтман, главен изпълнителен директор на OpenAI, компанията зад него вирусният чатбот ChatGPT, беше признал, че е „малко уплашен“ от потенциалните ефекти на напредналите AI системи върху обществото.
Свързани
- Създателят на ChatGPT OpenAI е изправен пред разследване на FTC относно законите за защита на потребителите
- Трафикът на уебсайта на ChatGPT е спаднал за първи път
- Научих ChatGPT да ме научи на настолни игри и сега никога няма да се върна
Алтман е толкова загрижен, че в сряда компанията му обяви, че създава ново звено, наречено Свръхподравняване, целящо да гарантира, че свръхинтелигентният AI няма да доведе до хаос или нещо далеч по-лошо.
„Суперинтелектът ще бъде най-въздействащата технология, която човечеството някога е измисляло, и може да ни помогне да разрешим много от най-важните проблеми в света“, OpenAI каза в публикация, представяща новата инициатива. „Но огромната сила на суперинтелигентността също може да бъде много опасна и може да доведе до обезвластяване на човечеството или дори до изчезване на човека.“
OpenAI каза, че въпреки че суперинтелигентният AI може да изглежда като далеч, той вярва, че може да бъде разработен до 2030 г. И той с готовност признава, че в момента не съществува система „за управление или контрол на потенциално суперинтелигентен AI и предотвратяването му да стане измамник“.
За да се справи със ситуацията, OpenAI иска да изгради „автоматизиран изследовател на подравняване приблизително на човешко ниво“, който да извършва проверки за безопасност на суперинтелигентен AI, добавяйки, че управлението на тези рискове също ще изисква нови институции за управление и решаване на проблема със суперинтелигентността подравняване.
За да има ефект Superalignment, OpenAI трябва да събере крак екип от най-добрите изследователи и инженери на машинно обучение.
Компанията изглежда много откровена за своите усилия, описвайки ги като „невероятно амбициозна цел“, като същевременно признава, че това „не е гарантирано за успех“. Но добавя, че е „оптимистично, че целенасочени, съгласувани усилия могат да разрешат това проблем.”
Нови AI инструменти като ChatGPT на OpenAI и Bard на Google, сред много други, са толкова революционни, че експертите са сигурни че дори на това ниво преди суперинтелигентността работното място и обществото като цяло са изправени пред фундаментални промени в близко бъдеще срок.
Ето защо правителствата по света се борят да наваксват, като прибързано налагат регулации на бързо развиващата се AI индустрия в опит да се гарантира, че технологията се внедрява безопасно и отговорно начин. Въпреки това, освен ако не бъде сформиран единен орган, всяка страна ще има свои собствени възгледи за това как най-добре да използва технологията, което означава, че тези разпоредби могат да варират значително и да доведат до значително различни резултати. И именно тези различни подходи ще направят целта на Superalignment още по-трудна за постигане.
Препоръки на редакторите
- Google Bard вече може да говори, но може ли да заглуши ChatGPT?
- Новата AI компания на Илон Мъск има за цел да „разбере вселената“
- OpenAI разкрива местоположението на първия си международен пост
- Адвокатите от Ню Йорк са глобени за използване на фалшиви случаи на ChatGPT в съдебна справка
- Този уеб браузър интегрира ChatGPT по завладяващ нов начин
Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.