Uno de los grandes retos de la Inteligencia Artificial es poder adaptarse para realizar tareas no solo mecánicas sino intelectuales, como los humanos. OpenAI ha desarrollado el modelo GPT-3 que responde a este reto de forma sorprendente. El nuevo modelo de lenguaje GPT-3 es capaz de generar contenido a partir de órdenes en inglés.
Se trata de un modelo predictivo que es capaz de indicar qué viene después en función de unos datos previos. GPT-3 puede escribir un artículo completo a partir de una o dos frases o seguir una conversación comprendiendo el contexto de las preguntas y respuestas anteriores. Es un modelo de lenguaje auto-regresivo, ya que permite crear la siguiente mejor palabra que seguiría a un texto determinado.
Para el desarrollo de este modelo de lenguaje, GPT-3 se ha entrenado a partir de información disponible en Internet: Wikipedia, páginas web y documentos científicos en Internet. En concreto, se han utilizado 500 mil millones de palabras. GPT-3 es un auténtico modelo deep learning, alimentado por el conocimiento humano, que consigue generar lenguaje lógico.
Una de sus aplicaciones que más han llamado la atención de los usuarios es la generación de webs. Sharif Shameem ha desarrollado a partir de GPT-3 un desarrollador web que convierte el lenguaje natural en lenguaje HTML/CSS.
Esto es solo una muestra del enorme potencial de este modelo, que supone una pequeña revolución, igual que otras soluciones como BERT y T-5 de Google, Roberta de Facebook o CTRL de Salesforce.
Herramientas como esta nos llevan a pensar en un futuro con textos cada vez más estandarizados, generados de forma semiautomática, para cumplir con los mejores requerimientos web o ocupar las mejores posiciones en buscadores. ¿Creéis que modelos como GPT-3 conseguirán anular la creatividad o por el contrario serán útiles para crear textos únicos? ¿Qué otras aplicaciones se os ocurren para este modelo predictivo?