Верите ли вы, что это была одна из самых опасных версий созданного искусственным интеллектом, или отвергаете ее как массовый ненужный пиар. упражнения, нет никаких сомнений в том, что алгоритм GPT-2, созданный исследовательской лабораторией OpenA.I. вызвало много шума, когда об этом было объявлено ранее год.
Обнародованный в феврале OpenA.I. заявили, что разработали алгоритм, слишком опасный, чтобы публиковать его для широкой публики. Хотя GPT-2 был всего лишь генератором текста, он предположительно генерировал текст, настолько безумно похожий на человеческий, что мог убедить людей в том, что они читают настоящий текст, написанный реальным человеком. Чтобы использовать его, все, что пользователю нужно было сделать, — это ввести начало документа, а затем позволить ИИ. взять на себя, чтобы завершить его. Дайте ему начало газетной статьи, и он даже выдумает вымышленные «цитаты». Как и следовало ожидать, средства массовой информации перегнули палку, описывая это как ужасное новое лицо фейковых новостей. И по потенциально уважительной причине.
Рекомендуемые видео
Перенесемся на несколько месяцев вперед, и теперь пользователи смогут опробовать возможности искусственного интеллекта. для них самих. Алгоритм появляется на веб-сайте, под названием «Поговори с Трансформером», Ведущий инженер по машинному обучению Адам Кинг.
«На данный момент OpenA.I. решил выпустить только небольшие и средние версии, которые не столь последовательны, но все же дают интересные результаты», — пишет он на своем веб-сайте. «На этом сайте работает новая (3 мая) модель среднего размера под названием 345M, поскольку она использует 345 миллионов параметров. Если и когда [OpenA.I.] выпустит полную модель, я, скорее всего, запущу ее здесь.
На высоком уровне GPT-2 не сильно отличается от интеллектуальных мобильных клавиатур, которые предсказывают слово, которое вы захотите написать следующим. Однако, как отмечает Кинг: «Хотя GPT-2 был обучен только предсказывать следующее слово в тексте, он неожиданно освоил базовую компетентность в некоторых задачах, таких как перевод между языками и ответы вопросы. И это даже не говоря о том, что оно будет оцениваться по этим задачам».
Результаты, честно говоря, немного обескураживают. Хотя в нем по-прежнему присутствует странная чушь, генерируемая искусственным интеллектом, это далеко не тот уровень глупости, который используют различные нейронные сети, используемые для создания глав из новый Песнь Льда и Огня романы или монологи из Скрабы. Например, с первым абзацем этой истории он проделал весьма полезную работу. получить что-то убедительное — в комплекте с небольшими знаниями предметной области, чтобы помочь продать эффект.
Думать, что это Скайнет фейковых новостей, вероятно, заходит слишком далеко. Но этого определенно достаточно, чтобы вызвать легкую дрожь по спине.
Рекомендации редакции
- Ведущие авторы требуют от компаний, занимающихся искусственным интеллектом, оплату за использование их работ
- Google Bard теперь может говорить, но сможет ли он заглушить ChatGPT?
- Трафик сайта ChatGPT впервые упал
- OpenAI раскрывает местоположение своего первого международного аванпоста
- Конкурент Apple ChatGPT может автоматически писать для вас код
Обновите свой образ жизниDigital Trends помогает читателям быть в курсе быстро меняющегося мира технологий благодаря всем последним новостям, забавным обзорам продуктов, содержательным редакционным статьям и уникальным кратким обзорам.