Que vous pensiez qu'il s'agissait de l'une des versions les plus dangereuses de l'intelligence artificielle créée ou que vous la considériez comme une publicité inutile et massive exercice, il ne fait aucun doute que l’algorithme GPT-2 créé par le laboratoire de recherche OpenA.I. a fait beaucoup de bruit lorsqu'il a été annoncé plus tôt année.
Révélé en février, OpenA.I. a déclaré avoir développé un algorithme trop dangereux pour être rendu public. Bien qu’il ne s’agisse que d’un générateur de texte, GPT-2 était censé générer un texte si incroyablement humain qu’il pouvait convaincre les gens qu’ils lisaient un vrai texte écrit par une personne réelle. Pour l'utiliser, il suffisait à l'utilisateur d'insérer le début du document, puis de laisser l'IA s'en charger. prendre le relais pour le compléter. Donnez-lui le début d’un article de journal, et il fabriquerait même des « citations » fictives. Comme on pouvait s'y attendre, les médias d'information se sont surmenés en décrivant cela comme le nouveau visage terrifiant des fausses nouvelles. Et pour une bonne raison potentiellement.
Vidéos recommandées
Quelques mois plus tard, les utilisateurs peuvent désormais essayer d'utiliser l'IA. pour eux-mêmes. L'algorithme apparaît sur un site Internet, appelé « Parler au transformateur » hébergé par l’ingénieur en apprentissage automatique Adam King.
« Pour l’instant, OpenA.I. a décidé de n’en publier que des versions petites et moyennes qui ne sont pas aussi cohérentes mais qui produisent quand même des résultats intéressants », écrit-il sur son site Internet. « Ce site exécute le nouveau modèle de taille moyenne (du 3 mai), appelé 345M pour les 345 millions de paramètres qu'il utilise. Si et quand [OpenA.I.] publiera le modèle complet, je le ferai probablement fonctionner ici.
À un niveau élevé, GPT-2 ne fonctionne pas si différemment des claviers mobiles prédictifs qui prédisent le mot que vous voudrez écrire ensuite. Cependant, comme le note King: « Bien que GPT-2 ait été uniquement entraîné à prédire le mot suivant dans un texte, il étonnamment, j'ai acquis des compétences de base dans certaines tâches comme traduire entre les langues et répondre des questions. Et ce, sans qu’on nous ait jamais dit qu’il serait évalué sur ces tâches.
Les résultats sont franchement peu déconcertants. Bien qu’il soit toujours sujet à quelques absurdités générées par l’IA, il est loin d’atteindre le niveau de bêtise que les différents réseaux neuronaux utilisés pour générer des chapitres à partir de nouveau Une chanson de glace et de feu des romans ou monologues de Gommages. Face au premier paragraphe de cette histoire, par exemple, il a fait un travail plutôt utile à s'avérer quelque chose de convaincant - avec un peu de connaissance du sujet pour aider à vendre le effet.
Penser qu’il s’agit du Skynet des fausses nouvelles va probablement un peu loin. Mais c’est largement suffisant pour donner un petit frisson dans le dos.
Recommandations des rédacteurs
- Les meilleurs auteurs exigent une rémunération des entreprises d’IA pour l’utilisation de leurs travaux
- Google Bard peut désormais parler, mais peut-il étouffer ChatGPT?
- Le trafic du site ChatGPT a chuté pour la première fois
- OpenAI révèle l'emplacement de son premier avant-poste international
- Le rival ChatGPT d'Apple peut écrire automatiquement du code pour vous
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.