Las mejores alternativas de ChatGPT (según ChatGPT)

ChatGPT se ha convertido rápidamente en el favorito de la IA generativa, pero no es el único jugador en el juego. Además de todas las demás herramientas de IA que existen que hacen cosas como la generación de imágenes, también hay una serie de competidores directos con ChatGPT, o eso supuse.

Contenido

  • Bing de Microsoft
  • BERT de Google
  • Meena de Google
  • Roberto por Facebook
  • XLNet de Google
  • DialoGPT de Microsoft Research
  • ALBERTO de Google
  • T5 de Google
  • CTRL por Salesforce
  • GShard de Google
  • Blender de investigación de inteligencia artificial de Facebook
  • Pegaso de Google

¿Por qué no preguntar a ChatGPT al respecto? Eso es exactamente lo que hice para obtener esta lista, con la esperanza de encontrar algunas opciones para aquellos frente a avisos de "lleno de capacidad", u otros que solo quieren probar algo nuevo. No todos estos son tan accesibles para el público como ChatGPT, pero según ChatGPT, estas son las mejores alternativas.

Vídeos recomendados

Bing de Microsoft

El motor de búsqueda Bing rediseñado de Microsoft.

Antes de entrar en las selecciones enumeradas por la IA, la mejor alternativa a ChatGPT es, bueno, ChatGPT. Microsoft recientemente

agregó la IA en su motor de búsqueda Bing, y planea implementar la función en el navegador Edge pronto.

Relacionado

  • El fabricante de ChatGPT, OpenAI, enfrenta una investigación de la FTC sobre las leyes de protección al consumidor
  • El crecimiento récord de ChatGPT acaba de ser destronado por una nueva aplicación viral
  • OpenAI está construyendo un nuevo equipo para evitar que la IA superinteligente se vuelva rebelde

Solo está en versión preliminar, pero aún puede probar el nuevo chatbot de IA en bing.com/nuevo ahora mismo. Microsoft dice que está limitando la cantidad de consultas inicialmente, pero puede unirse a la lista de espera de Bing ChatGPT ser notificado cuando la versión completa esté disponible.

BERT de Google

BERT (Representaciones de codificador bidireccional de transformadores) es un modelo de aprendizaje automático desarrollado por Google. Muchos de los resultados de ChatGPT mencionaron proyectos de Google, que verá más adelante en esta lista.

BERT es conocido por sus habilidades de procesamiento de lenguaje natural (NLP), como la respuesta a preguntas y el análisis de sentimientos. Utiliza BookCorpus y Wikipedia en inglés como modelos para las referencias de capacitación previa, habiendo aprendido 800 millones y 2.500 millones de palabras respectivamente.

BERT se anunció por primera vez como un proyecto de investigación de código abierto y artículo académico en octubre de 2018. Desde entonces, la tecnología se ha implementado en la Búsqueda de Google. Literatura temprana acerca de BERT, compárelo con ChatGPT de OpenAI en noviembre de 2018, y señaló que la tecnología de Google es bidireccional profunda, lo que ayuda a predecir el texto entrante. Mientras tanto, OpenAI GPT es unidireccional y solo puede responder a consultas complejas.

Meena de Google

Meena es un chatbot que Google introdujo en enero de 2020 con la capacidad de conversar de manera humana. Los ejemplos de sus funciones incluyen conversaciones simples que incluyen chistes y juegos de palabras interesantes, como Meena que sugiere que las vacas estudien "Ciencias bovinas" en Harvard.

Ejemplo de chatbot de Google Meena.

Como alternativa directa al GPT-2 de OpenAI, Meena tenía la capacidad de procesar 8,5 veces más datos que su competidor en ese momento. Su red neuronal comprende 2.6 parámetros y está entrenada en conversaciones de redes sociales de dominio público. Meena también recibió una puntuación métrica en sensibilidad y especificidad promedio (SSA) del 79 %, lo que lo convierte en uno de los chatbots más inteligentes de su tiempo.

El código Meena está disponible en GitHub.

Roberto por Facebook

roberta (Robustly Optimized BERT Pretraining Approach) es otra versión avanzada del BERT original, que Facebook anunció en julio de 2019.

Facebook creó este modelo de PNL con una mayor fuente de datos como su modelo de preentrenamiento. RoBERTa usa CommonCrawl (CC-News), que incluye 63 millones de artículos de noticias en inglés generados entre septiembre de 2016 y febrero de 2019, como su conjunto de datos de 76 GB. En comparación, el BERT original utiliza 16 GB de datos entre sus conjuntos de datos de Wikipedia en inglés y BookCorpus, según Facebook.

Silimar a XLNet, RoBERTa venció a BERT en un conjunto de conjuntos de datos de referencia, según la investigación de Facebook. Para obtener estos resultados, la empresa no solo utilizó una fuente de datos más grande, sino que también entrenó previamente su modelo para una período de tiempo más largo.

Facebook hizo a Roberta fuente abierta en septiembre de 2019, y su código es disponible en GitHub para la experimentación comunitaria.

VentureBeat también mencionó GPT-2 entre los sistemas de IA emergentes durante ese tiempo.

XLNet de Google

XLNET es un modelo de lenguaje autorregresivo basado en transformadores desarrollado por un equipo de Investigadores de Google Brain y Carnegie Mellon University. El modelo es esencialmente un BERT más avanzado y se presentó por primera vez en junio de 2019. El grupo encontró que XLNet era al menos 16% más eficiente que el BERT original, que se anunció en 2018, y pudo vencer al BERT en una prueba de 20 tareas de PNL.

XLNet: un nuevo método de preentrenamiento para PNL que mejora significativamente el BERT en 20 tareas (p. ej., SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (código + modelos preentrenados): https://t.co/kI4jsVzT1u

con Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 20 de junio de 2019

Con XLNet y BERT utilizando tokens "enmascarados" para predecir texto oculto, XLNet mejora la eficiencia al acelerar la parte predictiva del proceso. Por ejemplo, Amazonas Alexa científico de datos Aishwarya Srinivasan explicado que XLNet puede identificar la palabra "Nuevo" como asociada con el término "es una ciudad" antes de predecir que el término "York" también está asociado con ese término. Mientras tanto, BERT necesita identificar las palabras "Nueva" y "York" por separado y luego asociarlas con el término "es una ciudad", por ejemplo.

En particular, GPT y GPT-2 son también mencionado en este explicador de 2019 como otros ejemplos de modelos de lenguaje autorregresivos.

El código XLNet y los modelos preentrenados son disponible en GitHub. El modelo es bien conocido entre la comunidad de investigación de PNL.

DialoGPT de Microsoft Research

El DialoGPT (Transformador preentrenado generativo de diálogo) es un modelo de lenguaje autorregresivo que Fue presentado en noviembre de 2019 por Microsoft Research. Con similitudes con GPT-2, el modelo fue entrenado previamente para generar una conversación similar a la humana. Sin embargo, su principal fuente de información fueron 147 millones de diálogos de varios turnos extraídos de los hilos de Reddit.

Ejemplos de generación de múltiples turnos de DiabloGPT.

El principal evangelista de HumanFirst, Cobus Greyling, ha señalado su éxito al implementar DialoGPT en el servicio de mensajería de Telegram para dar vida al modelo como un chatbot. Agregó que el uso de Amazon Web Services y Amazon SageMaker puede ayudar a ajustar el código.

El código DialoGPT está disponible en GitHub.

ALBERTO de Google

ALBERT (Un ligero BERT) es una versión truncada del BERT original y fue desarrollado por Google en diciembre de 2019.

Con ALBERT, Google limitó la cantidad de parámetros permitidos en el modelo mediante la introducción de parámetros con "incrustaciones de capas ocultas".

Rendimiento de la máquina en el desafío RACE (comprensión de lectura similar a SAT) de Google

Esto mejoró no solo en el modelo BERT sino también en XLNet y RoBERTa porque ALBERT se puede entrenar en el mismo conjunto de datos más grande de información utilizado para los dos modelos más nuevos mientras se adhiere a los más pequeños parámetros Esencialmente, ALBERT solo trabaja con los parámetros necesarios para sus funciones, lo que aumenta el rendimiento y la precisión. Google detalló que encontró que ALBERT superó a BERT en 12 puntos de referencia de PNL, incluido un punto de referencia de comprensión de lectura similar al SAT.

Si bien no se menciona por su nombre, GPT se incluye dentro de las imágenes de ALBERT en el blog de investigación de Google.

Google lanzó ALBERT como código abierto en enero de 2020 y se implementó sobre TensorFlow de Google. El código está disponible en GitHub.

T5 de Google

T5 (transformador de transferencia de texto a texto) es un modelo NLP presentado por Google en 2019 que toma prestado de una serie de modelos anteriores, incluidos GPT, BERT, XLNet, RoBERTa y ALBERT, entre otros. agrega un conjunto de datos nuevo y único llamado Colossal Clean Crawled Corpus (C4), que permite que el transformador produzca mayor calidad y resultados contextuales que otros conjuntos de datos en comparación con los raspados web de Common Crawl utilizados para XLNet.
Capacitación previa del transformador de transferencia de texto a texto T5 de Google.
La capacitación previa de T5 condujo a la creación de aplicaciones de chatbot, que incluyen InferKit Hable con el transformador y el Mazmorra de IA juego. Los generadores de texto se parecen a ChatGPT en el sentido de que le permiten generar conversaciones realistas basadas en lo que genera la IA después de sus indicaciones o consultas iniciales.
El código T5 está disponible en GitHub.

CTRL por Salesforce

CTRL de Salesforce (Computational Trust and Reasoning Layer) fue uno de los modelos de lenguaje más grandes publicados públicamente cuando fue anunciado en septiembre de 2019 por Salesforce. El modelo de lenguaje de 1600 millones de parámetros se puede utilizar para analizar grandes cuerpos de texto a la vez, como los asociados con páginas web. Algunos usos prácticos potenciales incluyen el emparejamiento con reseñas, calificaciones y atribuciones.
Ejemplo de atribución de origen de Salesforce CTRL.
El modelo de lenguaje CTRL puede diferenciar hasta la puntuación la intención de una consulta específica. Fuerza de ventas señaló el modelo puede captar la diferencia entre "El calentamiento global es una mentira". como una opinión impopular y “El calentamiento global es un mentir” como una teoría de la conspiración debido a la diferencia del período en las frases y redactar los hilos correspondientes de Reddit para cada.
Referencias CTRL hasta 140 GB de datos para su entrenamiento previo de fuentes, incluidas Wikipedia, Project Gutenberg, reseñas de Amazon y Reddit. También hace referencia a una serie de recursos internacionales de noticias, información y curiosidades.
El código CTRL está disponible en GitHub.

GShard de Google

GShard es un modelo gigante de traducción de idiomas eso Google introdujo en junio de 2020 con el fin de escalar la red neuronal. El modelo incluye 600 mil millones de parámetros, lo que permite entrenar grandes conjuntos de datos a la vez. GShard es particularmente experto en traducción de idiomas y estar capacitado para traducir 100 idiomas al inglés en cuatro días.

Blender de investigación de inteligencia artificial de Facebook

Blender es un chatbot de código abierto que se introdujo en abril 2020 por investigación de IA de Facebook. Se ha observado que el chatbot ha mejorado las habilidades de conversación en comparación con los modelos de la competencia, con la capacidad de proporcionar temas de conversación atractivos, escuchar y mostrar comprensión de los aportes de su pareja, y mostrar empatía y personalidad.

Ejemplo de chatbot de Blender.

Blender se ha comparado con el chatbot Meena de Google, que a su vez se ha comparado con GPT-2 de OpenAI

El código de Blender está disponible en Parl.ai.

Pegaso de Google

Pegasus es un modelo de procesamiento de lenguaje natural que fue presentado por Google en diciembre de 2019. Pegasus se puede entrenar para crear resúmenes y, al igual que otros modelos como BERT, GPT-2, RoBERTa, XLNet, ALBERT y T5, se puede ajustar para tareas específicas. Pegasus ha sido probado en su eficiencia para resumir noticias, ciencia, historias, instrucciones, correos electrónicos, patentes y proyectos de ley en comparación con sujetos humanos.

La PNL PEGASUS se ha comparado con un ser humano en términos de calidad de resumen.

El código Pegasus está disponible en GitHub.

Recomendaciones de los editores

  • Google Bard ahora puede hablar, pero ¿puede ahogar a ChatGPT?
  • ChatGPT: las últimas noticias, controversias y consejos que necesita saber
  • El tráfico del sitio web de ChatGPT ha caído por primera vez
  • La función de navegación Bing de ChatGPT está desactivada por una falla de acceso al muro de pago
  • Los mejores chatbots de IA para probar: ChatGPT, Bard y más