El último modelo de OpenAI puede resumir esos libros tl;dr
El último modelo de OpenAI puede resumir esos libros tl;dr
Ryan es editor de TechForge Media con más de una década de experiencia cubriendo la última tecnología y entrevistando a figuras líderes de la industria. A menudo se le puede ver en conferencias tecnológicas con un café fuerte en una mano y un ordenador portátil en la otra. Si es friki, probablemente le gusta. Encuéntralo en Twitter: @Gadget_Ry
OpenAI ha presentado un nuevo modelo que prueba técnicas de alineación escalables resumiendo aquellas tl;dr (demasiado largas; no leyó) libros.
El modelo funciona primero resumiendo pequeñas secciones de un libro antes de resumir esos resúmenes en un resumen de nivel superior. Continúa de esta manera, por lo tanto, es una gran prueba de alineación escalable, para resumir tan poco o tanto como se desee.
Puede ver los pasos completos en el sitio web de OpenAI, pero aquí hay un ejemplo de dónde puede comenzar y terminar:
Para crear el modelo, se utilizóuna combinación de aprendizaje por refuerzo y descomposición recursiva de texto. El modelo fue entrenado en un subconjunto de los libros predominantemente de ficción en el conjunto de datosde entrenamiento de GPT-3.
OpenAI asignó a dos personas a leer 40 de los libros más populares (según Goodreads) que se publicaron en 2020 y escribir un resumen de cada uno. Luego se les pidió a los participantes que calificaran los resúmenes de los demás además de los del modelo de IA.
En promedio,los resúmenes escritos por humanos reciben una calificación de 6/7. El modelo recibió esa calificación el 5 por ciento de las veces y una calificación de 5/7 el 15 por ciento de las veces.
Usos prácticos
Muchos ni siquiera habrán leído este artículo hasta ahora. La mayoría de los visitantes de las publicaciones solo pasan un promedio de 15 segundos leyendo alrededor del 20 por ciento de cualquier artículo. Eso es especialmente un problema cuando los lectores se sienten educados sobre un tema importante y pueden terminar difundiendo información errónea.
Las plataformas de redes sociales han comenzado a preguntar a los usuarios si realmente quieren compartir un artículo cuando no lo han abierto para ningún contexto. Utilizando modelos como OpenAI está demostrando, tales plataformas podrían al menos ofrecer un resumen decente a los usuarios.
El modelo fue en su mayoría exitoso, pero OpenAI admite en un documento (PDF) que ocasionalmente generaba declaraciones inexactas. Los humanos generalmente pueden hacer un mejor trabajo la mayor parte del tiempo, pero es una muestra impresionante para una solución automatizada.
Debe estar conectado para enviar un comentario.