Volver

Una mirada profunda a OpenAI DevDay: ¿Qué más se lanzó además de GPT-4 Turbo?

By Sean Chen, 10 de Noviembre de 2023

官網文章_OpenAI_devDay_2023.png



En la conferencia OpenAI DevDay celebrada el 06/11/2023, el CEO de OpenAI, Sam Altman, una vez más superó a OpenAI, brindando a los desarrolladores de IA nuevas posibilidades. A través de este artículo, exploremos juntos qué atractivo tiene el GPT-4 Turbo para los desarrolladores de software.




OpenAI celebró la conferencia OpenAI DevDay el 06/11/2023. Mientras otras grandes empresas tecnológicas aún luchan por alcanzar el rendimiento de GPT-4, el CEO de OpenAI, Sam Altman, una vez más superó a OpenAI, brindando a los desarrolladores de IA nuevas posibilidades, demostrando plenamente la posición de liderazgo de OpenAI en inteligencia artificial.

GPT-4 Turbo: Más rápido, mayor cantidad de texto y más económico

El contexto se refiere a la cantidad total de texto de "entrada de palabras clave al modelo de lenguaje y diálogo de ida y vuelta". En el pasado, la cantidad máxima de texto admitida era de 32,000 tokens (y solo para algunos desarrolladores), mientras que GPT-4 Turbo permite hasta 128,000 tokens, lo que equivale a poder ingresar un libro de 300 páginas de una sola vez a GPT-4 Turbo para que el modelo genere contenido. En cuanto a la velocidad, el mayor defecto de GPT-4 era su lentitud, ya que el proceso de generación consumía mucho tiempo, por lo que las empresas aún usaban más GPT-3.5 para resolver la mayoría de los problemas de aplicación práctica. Por lo tanto, GPT-4 Turbo también resolvió este problema, acercando la velocidad de generación a la de GPT-3.5, enriqueciendo los escenarios futuros de integración de GPT-4 Turbo. En cuanto a los costos, en comparación con la versión anterior de GPT-4, el costo de las palabras clave es tres veces más barato y el costo del texto generado es dos veces más barato.


Función de llamada de funciones más amigable para los desarrolladores


¿Qué es la llamada de funciones?

OpenAI lanzó la función de "llamada de funciones" a principios de este año, que permite a los desarrolladores llamar funciones de código personalizadas al usar GPT. En otras palabras, permite que la IA inteligente se conecte a varios API, aumentando significativamente los campos en los que OpenAI puede ser utilizado. La poderosa capacidad del modelo radica en que, siempre que los desarrolladores proporcionen múltiples interfaces de comandos del programa, GPT puede decidir por sí mismo qué comando llamar y usar los parámetros adecuados para ejecutarlo.

Por ejemplo: un desarrollador de bombillas inteligentes proporciona dos comandos: "configurar color" y "configurar período de detección". Los parámetros del comando de configuración de color son tres: luz blanca, luz natural y luz nocturna. Cuando se ingresa a GPT la palabra clave: "Por favor, configúrame la bombilla adecuada para la noche", GPT decidirá automáticamente usar el comando "configurar color" y automáticamente usará el parámetro "luz nocturna", todo este proceso de decisión no requiere intervención humana. En el pasado, se necesitaba escribir lógica personalizada usando tecnología NLP para lograr esta función, pero ahora solo se necesita llamar al programa GPT para lograrlo.

¿Qué se ha modificado esta vez?

Esta actualización permite que GPT determine con mayor precisión qué comando y parámetros usar, al tiempo que mejora el hecho de que GPT solo puede llamar un comando a la vez. En el pasado, cuando el contexto era más complejo, los desarrolladores necesitaban escribir programas adicionales para que la función realizara múltiples llamadas; esta actualización permite que GPT ejecute múltiples comandos a la vez y que los resultados de cada comando se transmitan entre sí. Por ejemplo: usando la palabra clave "Tengo la costumbre de levantarme a medianoche para beber agua, por favor configúrame el modo de bombilla adecuado", GPT puede decidir llamar a los comandos "configurar color" y "configurar período de detección", y decidir que el parámetro de "período de detección" sea "01:00 a 06:30", al mismo tiempo que usa "configurar color" con el parámetro "luz nocturna".

Además, las respuestas del modelo de lenguaje solían ser "texto en formato no específico", si se deseaba una respuesta en un formato específico, se necesitaba solicitar en la palabra clave "por favor responde en formato xml"; sin embargo, los desarrolladores a menudo encontraban que el formato de respuesta no era completamente xml, a menudo mezclándose con texto puro, lo que causaba errores en la conversión de formato. Esta vez, GPT-4 Turbo permite a los desarrolladores configurar el parámetro response_format, que se puede establecer en formatos comunes de respuesta de API como xml o json, mejorando la estabilidad del programa.

Finalmente, OpenAI también permite a los usuarios configurar el parámetro Seed, que determina la aleatoriedad del contenido devuelto por GPT. A través de la configuración de este parámetro, se puede asegurar que los desarrolladores mantengan la consistencia en las respuestas del modelo de lenguaje, permitiendo a los desarrolladores escribir casos de prueba con más confianza (evitando que el modelo de lenguaje genere respuestas diferentes repentinamente), mejorando la capacidad de prueba y la calidad del programa.


Además de los dos puntos mencionados anteriormente, en términos de expansión de escenarios de aplicación, el lanzamiento del API de asistentes fue el punto culminante de DevDay.

API de Asistentes

En el pasado, para desarrollar aplicaciones de IA generativa utilizando modelos de lenguaje grande, era necesario usar paquetes de terceros como LangChain, que otorgaban al modelo de lenguaje grande capacidades más avanzadas, como el uso de múltiples modelos de lenguaje, la capacidad de datos personalizados, memoria y agentes (permitiendo que la IA ejecute tareas continuas y tome decisiones continuas), para completar aplicaciones de escenarios de IA más complejas.

El API de asistentes lanzado en DevDay integra las múltiples capacidades mencionadas anteriormente en el API oficial, eliminando las diversas dificultades que enfrentan los desarrolladores al integrar paquetes de terceros. Esta es también la primera vez que el oficial sale de la simple optimización del rendimiento del modelo de lenguaje grande y comienza a explorar la aplicación de "agentes". Los documentos oficiales indican que "un asistente es una IA orientada a objetivos, que permite el uso de comandos específicos, el uso de datos externos o el uso de diferentes modelos de lenguaje y herramientas para ejecutar tareas".


El nuevo API de asistentes también incorpora varias herramientas, además de la "llamada de funciones" mencionada anteriormente, también ofrece un "compilador de código" y "recuperación de datos".


Compilador de Código

El "compilador de código" de GPT-4 permite que el código escrito por uno mismo se ejecute en un entorno sandbox (actualmente solo admite Python). En el pasado, los ingenieros que obtenían código escrito con la ayuda de GPT-4 necesitaban copiarlo y pegarlo en su propio entorno de desarrollo para probarlo, pero el entorno sandbox proporcionado por OpenAI es suficiente para que GPT-4 revise por sí mismo si el código es correcto y pueda modificarlo gradualmente después de la ejecución hasta alcanzar el objetivo.

Sin embargo, el propósito del compilador de código va más allá de "permitir que GPT-4 revise la corrección de su propio código". Su significado más amplio es "permitir que el modelo de lenguaje grande tenga su propia computadora", que puede ejecutar la mayoría de las tareas. Ahora, el modelo de lenguaje grande puede interactuar de manera programática, aunque ejecutándose en un entorno sandbox limitado, el compilador de código solo puede usar paquetes de terceros específicos, pero es suficiente para ejecutar "la mayoría de las tareas que el lenguaje de programación Python maneja bien", como el procesamiento de datos y llamadas API, y puede leer archivos de código más grandes proporcionados por el usuario. En términos de seguridad, el entorno sandbox puede evitar que el poderoso modelo de lenguaje grande sea mal utilizado, proporcionando así un cierto nivel de seguridad.



Recuperación de Datos

La "recuperación de datos" permite a los usuarios cargar sus propios datos (por ejemplo, datos de un sector industrial específico, información de productos o documentos internos) y hacer que el modelo de lenguaje grande pueda responder sobre estos datos, aplicándose en su propia industria o campo. Esta función ha sido un punto de competencia desde el lanzamiento de GPT-3. La recuperación de datos lanzada en DevDay es la primera vez que el oficial ofrece una solución nativa para esta función, por ejemplo, para que las empresas creen robots de conocimiento interno, como un gerente de proyectos de IA o un analista de sistemas de IA; en campos como la atención médica y las finanzas, los chatbots de servicio al cliente en el pasado requerían el uso de tecnologías de procesamiento de lenguaje complejas para implementarse, pero ahora con el poderoso modelo de lenguaje de GPT-4 y la función de recuperación de datos proporcionada oficialmente por OpenAI, los desarrolladores pueden centrarse en la lógica comercial, la precisión de los datos y el ajuste de detalles. Además, el uso de bases de datos vectoriales, procesamiento de datos segmentados o algoritmos de búsqueda específicos necesarios en el pasado con paquetes de terceros, ya no requiere un esfuerzo adicional para manejar estos procesos de desarrollo y sus costos derivados con el apoyo oficial de OpenAI. OpenAI también enfatiza que las conversaciones y archivos utilizados por el API de asistentes no se utilizarán para entrenar el próximo modelo de OpenAI.



Conclusión

En general, OpenAI no solo optimiza continuamente la eficiencia del modelo, sino que también expande constantemente la aplicación del modelo de lenguaje grande. Sam Altman ha dicho que GPT-5 no se lanzará en el corto plazo, ya que con la precisión actual de GPT-4, parece que no es necesario gastar costos adicionales para entrenar un modelo de lenguaje con más parámetros. En cambio, mejorar el rendimiento, la facilidad de uso y la escalabilidad de GPT-4 es el enfoque actual de OpenAI; y para los desarrolladores, empresas y consumidores finales, la implementación de una IA más poderosa y aplicable en la mayoría de los escenarios se ha convertido en el enfoque de la próxima generación de transformación digital. El GPT creado por OpenAI es como el cerebro en el mundo tecnológico del futuro, y creemos que las próximas creaciones y avances harán que la inteligencia artificial sea más hábil en el uso de herramientas, y que pueda "ver", "escuchar" y "hablar" y "dibujar" con fluidez.

MÁS DE NUESTRO BLOG

Contáctanos

CONTÁCTANOS

¡Hablemos sobre tus ideas!

Impulsa tu negocio con tu socio digital innovador. Responderemos en un día hábil. (GMT+8)