Якщо люди, які знаходяться в авангарді технологій штучного інтелекту, коментують потенційно катастрофічні наслідки високоінтелектуальних систем штучного інтелекту, то, ймовірно, розумно сісти і взяти повідомлення.
Буквально пару місяців тому Джеффрі Хінтон, чоловік, якого вважають одним із «хрещених батьків» штучного інтелекту за його піонерську роботу в цій галузі, сказав, що швидкі темпи розвитку технології означало, що це було «немислимим» що надрозумний ШІ, який вважається вищим за людський розум, може зрештою знищити людство.
Рекомендовані відео
І Сем Альтман, генеральний директор OpenAI, компанії, що стоїть за цим вірусний чат-бот ChatGPT, зізнався, що «трохи наляканий» щодо потенційного впливу передових систем ШІ на суспільство.
Пов'язані
- Розробник ChatGPT OpenAI стикається з розслідуванням FTC щодо законів про захист прав споживачів
- Трафік веб-сайту ChatGPT впав вперше
- Я навчив ChatGPT навчити мене настільним іграм, і тепер я ніколи не повернуся
Альтман настільки стурбований, що в середу його компанія оголосила про створення нового підрозділу під назвою Супервирівнювання, спрямоване на те, щоб суперінтелектуальний штучний інтелект не спричинив хаос чи щось інше гірше.
«Суперінтелект стане найвпливовішою технологією, яку будь-коли винайшло людство, і він може допомогти нам вирішити багато найважливіших проблем світу», OpenAI сказав у публікації, яка представляє нову ініціативу. «Але величезна сила суперінтелекту також може бути дуже небезпечною та може призвести до позбавлення людства можливостей або навіть його вимирання».
OpenAI заявив, що хоча суперінтелектуальний штучний інтелект може здатися далекою перспективою, він вважає, що його можна буде розробити до 2030 року. І він охоче визнає, що в даний час не існує жодної системи, «щоб керувати або контролювати потенційно суперінтелектуальний штучний інтелект і запобігати його виходу з ладу».
Щоб впоратися з цією ситуацією, OpenAI хоче створити «приблизно людський автоматизований дослідник вирівнювання», який виконуватиме перевірку безпеки на суперінтелектуальний ШІ, додавши, що управління цими ризиками також вимагатиме нових інституцій для управління та вирішення проблеми суперінтелекту вирівнювання.
Щоб Superalignment мав ефект, OpenAI потрібно зібрати крак-команду найкращих дослідників та інженерів машинного навчання.
Компанія дуже відверто говорить про свої зусилля, описуючи їх як «неймовірно амбітну мету», а також визнаючи, що це «не гарантує успіху». Але він додає, що «це оптимістично, що цілеспрямовані, узгоджені зусилля можуть вирішити це проблема».
Нові інструменти ШІ, такі як ChatGPT від OpenAI і Bard від Google, серед багатьох інших, є настільки революційними, що експерти впевнені що навіть на цьому рівні до суперінтелекту робоче місце та суспільство в цілому стикаються з фундаментальними змінами найближчим часом термін.
Ось чому уряди в усьому світі намагаються наздогнати, поспішно вводячи правила для галузь штучного інтелекту, що швидко розвивається, намагається забезпечити безпечне та відповідальне розгортання технології спосіб. Однак, якщо єдиний орган не буде сформовано, кожна країна матиме власні погляди на те, як найкраще використовувати технологію, тобто ці правила можуть сильно відрізнятися та призводити до помітно різних результатів. І саме ці різні підходи ускладнять досягнення мети Superalignment.
Рекомендації редакції
- Google Bard тепер може говорити, але чи може він заглушити ChatGPT?
- Нова компанія ШІ Ілона Маска прагне «розуміти Всесвіт»
- OpenAI розкриває місцезнаходження свого першого міжнародного форпосту
- Юристів Нью-Йорка оштрафовано за використання підроблених справ ChatGPT у юридичній довідці
- Цей веб-браузер інтегрує ChatGPT у новий захоплюючий спосіб
Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.