Menu iconMenu icon
OpenAI API Biblia Volumen 1

Parte II del Cuestionario

Preguntas

Capítulo 4: La API de Chat Completions

1. ¿Cuáles son los tres roles de mensaje utilizados en la API de Chat Completions?

A) Emisor, Receptor, Asistente

B) Autor, Respondedor, Moderador

C) Sistema, Usuario, Asistente

D) Prompt, Respuesta, Instrucción

2. ¿Qué parámetro ayuda a controlar la aleatoriedad de las respuestas del modelo?

A) stop

B) max_tokens

C) temperature

D) role

3. ¿Cuál es el propósito del parámetro stream=True?

A) Hace que las respuestas se puedan descargar como audio

B) Envía un mensaje a múltiples destinatarios

C) Permite que el modelo devuelva la salida fragmento por fragmento en tiempo real

D) Habilita la memoria persistente

Capítulo 5: Ingeniería de Prompts e Instrucciones del Sistema

4. ¿Cuál es el propósito de usar un mensaje de sistema al inicio de una conversación?

A) Ejecutar una función externa

B) Definir el comportamiento o persona del asistente

C) Reiniciar la memoria del modelo

D) Establecer la temperatura en cero

5. ¿Cuál de las siguientes NO es una técnica recomendada en la ingeniería de prompts?

A) Incluir ejemplos dentro del prompt

B) Usar instrucciones vagas

C) Refinamiento iterativo

D) Encadenamiento de prompts

Capítulo 6: Llamada a Funciones y Uso de Herramientas

6. ¿Qué se requiere al definir un esquema de función para su uso en la API de Chat Completions?

A) Solo una descripción y un identificador único

B) Una lista de arguments de respuestas

C) Un nombre, descripción y parámetros en formato JSON

D) Una función Python decorada con @openai.callable

7. En la llamada a funciones, ¿qué hace function_call="auto"?

A) Ejecuta automáticamente tu lógica backend

B) Fuerza al asistente a llamar todas las funciones definidas

C) Permite que el modelo decida cuándo llamar a una función

D) Transmite los argumentos de la función en tiempo real

8. ¿Qué es la Generación Aumentada por Recuperación (RAG)?

A) Una técnica para mejorar la summarización

B) Un método de usar búsqueda basada en embeddings para recuperar contexto relevante antes de la generación

C) Un sistema de memoria nativo en GPT-4

D) Un asistente de transmisión para conversaciones largas

Capítulo 7: Memoria y Conversaciones Multi-turno

9. ¿Cuál es la diferencia entre la memoria a corto y largo plazo en las aplicaciones de OpenAI?

A) La memoria a corto plazo usa una base de datos; la de largo plazo usa la ventana de contexto

B) La memoria a corto plazo está integrada, la memoria a largo plazo debe implementarse manualmente

C) La memoria a largo plazo solo está disponible en GPT-3.5

D) Ambas son gestionadas automáticamente por OpenAI en todas las APIs

10. ¿Cuál es una solución común para evitar exceder la ventana de contexto del modelo?

A) Aumentar la temperatura a 1.5

B) Truncar los mensajes del sistema

C) Resumir mensajes anteriores y reemplazarlos con una versión condensada

D) Reiniciar el asistente cada 5 mensajes

Preguntas de Respuesta Corta

11. Describe un caso de uso donde la API de Asistentes sería más apropiada que la API de Chat Completions.

12. Escribe un esquema de función de ejemplo (en JSON) para una función llamada get_stock_price que tome un símbolo de empresa y devuelva su precio actual.

Preguntas

Capítulo 4: La API de Chat Completions

1. ¿Cuáles son los tres roles de mensaje utilizados en la API de Chat Completions?

A) Emisor, Receptor, Asistente

B) Autor, Respondedor, Moderador

C) Sistema, Usuario, Asistente

D) Prompt, Respuesta, Instrucción

2. ¿Qué parámetro ayuda a controlar la aleatoriedad de las respuestas del modelo?

A) stop

B) max_tokens

C) temperature

D) role

3. ¿Cuál es el propósito del parámetro stream=True?

A) Hace que las respuestas se puedan descargar como audio

B) Envía un mensaje a múltiples destinatarios

C) Permite que el modelo devuelva la salida fragmento por fragmento en tiempo real

D) Habilita la memoria persistente

Capítulo 5: Ingeniería de Prompts e Instrucciones del Sistema

4. ¿Cuál es el propósito de usar un mensaje de sistema al inicio de una conversación?

A) Ejecutar una función externa

B) Definir el comportamiento o persona del asistente

C) Reiniciar la memoria del modelo

D) Establecer la temperatura en cero

5. ¿Cuál de las siguientes NO es una técnica recomendada en la ingeniería de prompts?

A) Incluir ejemplos dentro del prompt

B) Usar instrucciones vagas

C) Refinamiento iterativo

D) Encadenamiento de prompts

Capítulo 6: Llamada a Funciones y Uso de Herramientas

6. ¿Qué se requiere al definir un esquema de función para su uso en la API de Chat Completions?

A) Solo una descripción y un identificador único

B) Una lista de arguments de respuestas

C) Un nombre, descripción y parámetros en formato JSON

D) Una función Python decorada con @openai.callable

7. En la llamada a funciones, ¿qué hace function_call="auto"?

A) Ejecuta automáticamente tu lógica backend

B) Fuerza al asistente a llamar todas las funciones definidas

C) Permite que el modelo decida cuándo llamar a una función

D) Transmite los argumentos de la función en tiempo real

8. ¿Qué es la Generación Aumentada por Recuperación (RAG)?

A) Una técnica para mejorar la summarización

B) Un método de usar búsqueda basada en embeddings para recuperar contexto relevante antes de la generación

C) Un sistema de memoria nativo en GPT-4

D) Un asistente de transmisión para conversaciones largas

Capítulo 7: Memoria y Conversaciones Multi-turno

9. ¿Cuál es la diferencia entre la memoria a corto y largo plazo en las aplicaciones de OpenAI?

A) La memoria a corto plazo usa una base de datos; la de largo plazo usa la ventana de contexto

B) La memoria a corto plazo está integrada, la memoria a largo plazo debe implementarse manualmente

C) La memoria a largo plazo solo está disponible en GPT-3.5

D) Ambas son gestionadas automáticamente por OpenAI en todas las APIs

10. ¿Cuál es una solución común para evitar exceder la ventana de contexto del modelo?

A) Aumentar la temperatura a 1.5

B) Truncar los mensajes del sistema

C) Resumir mensajes anteriores y reemplazarlos con una versión condensada

D) Reiniciar el asistente cada 5 mensajes

Preguntas de Respuesta Corta

11. Describe un caso de uso donde la API de Asistentes sería más apropiada que la API de Chat Completions.

12. Escribe un esquema de función de ejemplo (en JSON) para una función llamada get_stock_price que tome un símbolo de empresa y devuelva su precio actual.

Preguntas

Capítulo 4: La API de Chat Completions

1. ¿Cuáles son los tres roles de mensaje utilizados en la API de Chat Completions?

A) Emisor, Receptor, Asistente

B) Autor, Respondedor, Moderador

C) Sistema, Usuario, Asistente

D) Prompt, Respuesta, Instrucción

2. ¿Qué parámetro ayuda a controlar la aleatoriedad de las respuestas del modelo?

A) stop

B) max_tokens

C) temperature

D) role

3. ¿Cuál es el propósito del parámetro stream=True?

A) Hace que las respuestas se puedan descargar como audio

B) Envía un mensaje a múltiples destinatarios

C) Permite que el modelo devuelva la salida fragmento por fragmento en tiempo real

D) Habilita la memoria persistente

Capítulo 5: Ingeniería de Prompts e Instrucciones del Sistema

4. ¿Cuál es el propósito de usar un mensaje de sistema al inicio de una conversación?

A) Ejecutar una función externa

B) Definir el comportamiento o persona del asistente

C) Reiniciar la memoria del modelo

D) Establecer la temperatura en cero

5. ¿Cuál de las siguientes NO es una técnica recomendada en la ingeniería de prompts?

A) Incluir ejemplos dentro del prompt

B) Usar instrucciones vagas

C) Refinamiento iterativo

D) Encadenamiento de prompts

Capítulo 6: Llamada a Funciones y Uso de Herramientas

6. ¿Qué se requiere al definir un esquema de función para su uso en la API de Chat Completions?

A) Solo una descripción y un identificador único

B) Una lista de arguments de respuestas

C) Un nombre, descripción y parámetros en formato JSON

D) Una función Python decorada con @openai.callable

7. En la llamada a funciones, ¿qué hace function_call="auto"?

A) Ejecuta automáticamente tu lógica backend

B) Fuerza al asistente a llamar todas las funciones definidas

C) Permite que el modelo decida cuándo llamar a una función

D) Transmite los argumentos de la función en tiempo real

8. ¿Qué es la Generación Aumentada por Recuperación (RAG)?

A) Una técnica para mejorar la summarización

B) Un método de usar búsqueda basada en embeddings para recuperar contexto relevante antes de la generación

C) Un sistema de memoria nativo en GPT-4

D) Un asistente de transmisión para conversaciones largas

Capítulo 7: Memoria y Conversaciones Multi-turno

9. ¿Cuál es la diferencia entre la memoria a corto y largo plazo en las aplicaciones de OpenAI?

A) La memoria a corto plazo usa una base de datos; la de largo plazo usa la ventana de contexto

B) La memoria a corto plazo está integrada, la memoria a largo plazo debe implementarse manualmente

C) La memoria a largo plazo solo está disponible en GPT-3.5

D) Ambas son gestionadas automáticamente por OpenAI en todas las APIs

10. ¿Cuál es una solución común para evitar exceder la ventana de contexto del modelo?

A) Aumentar la temperatura a 1.5

B) Truncar los mensajes del sistema

C) Resumir mensajes anteriores y reemplazarlos con una versión condensada

D) Reiniciar el asistente cada 5 mensajes

Preguntas de Respuesta Corta

11. Describe un caso de uso donde la API de Asistentes sería más apropiada que la API de Chat Completions.

12. Escribe un esquema de función de ejemplo (en JSON) para una función llamada get_stock_price que tome un símbolo de empresa y devuelva su precio actual.

Preguntas

Capítulo 4: La API de Chat Completions

1. ¿Cuáles son los tres roles de mensaje utilizados en la API de Chat Completions?

A) Emisor, Receptor, Asistente

B) Autor, Respondedor, Moderador

C) Sistema, Usuario, Asistente

D) Prompt, Respuesta, Instrucción

2. ¿Qué parámetro ayuda a controlar la aleatoriedad de las respuestas del modelo?

A) stop

B) max_tokens

C) temperature

D) role

3. ¿Cuál es el propósito del parámetro stream=True?

A) Hace que las respuestas se puedan descargar como audio

B) Envía un mensaje a múltiples destinatarios

C) Permite que el modelo devuelva la salida fragmento por fragmento en tiempo real

D) Habilita la memoria persistente

Capítulo 5: Ingeniería de Prompts e Instrucciones del Sistema

4. ¿Cuál es el propósito de usar un mensaje de sistema al inicio de una conversación?

A) Ejecutar una función externa

B) Definir el comportamiento o persona del asistente

C) Reiniciar la memoria del modelo

D) Establecer la temperatura en cero

5. ¿Cuál de las siguientes NO es una técnica recomendada en la ingeniería de prompts?

A) Incluir ejemplos dentro del prompt

B) Usar instrucciones vagas

C) Refinamiento iterativo

D) Encadenamiento de prompts

Capítulo 6: Llamada a Funciones y Uso de Herramientas

6. ¿Qué se requiere al definir un esquema de función para su uso en la API de Chat Completions?

A) Solo una descripción y un identificador único

B) Una lista de arguments de respuestas

C) Un nombre, descripción y parámetros en formato JSON

D) Una función Python decorada con @openai.callable

7. En la llamada a funciones, ¿qué hace function_call="auto"?

A) Ejecuta automáticamente tu lógica backend

B) Fuerza al asistente a llamar todas las funciones definidas

C) Permite que el modelo decida cuándo llamar a una función

D) Transmite los argumentos de la función en tiempo real

8. ¿Qué es la Generación Aumentada por Recuperación (RAG)?

A) Una técnica para mejorar la summarización

B) Un método de usar búsqueda basada en embeddings para recuperar contexto relevante antes de la generación

C) Un sistema de memoria nativo en GPT-4

D) Un asistente de transmisión para conversaciones largas

Capítulo 7: Memoria y Conversaciones Multi-turno

9. ¿Cuál es la diferencia entre la memoria a corto y largo plazo en las aplicaciones de OpenAI?

A) La memoria a corto plazo usa una base de datos; la de largo plazo usa la ventana de contexto

B) La memoria a corto plazo está integrada, la memoria a largo plazo debe implementarse manualmente

C) La memoria a largo plazo solo está disponible en GPT-3.5

D) Ambas son gestionadas automáticamente por OpenAI en todas las APIs

10. ¿Cuál es una solución común para evitar exceder la ventana de contexto del modelo?

A) Aumentar la temperatura a 1.5

B) Truncar los mensajes del sistema

C) Resumir mensajes anteriores y reemplazarlos con una versión condensada

D) Reiniciar el asistente cada 5 mensajes

Preguntas de Respuesta Corta

11. Describe un caso de uso donde la API de Asistentes sería más apropiada que la API de Chat Completions.

12. Escribe un esquema de función de ejemplo (en JSON) para una función llamada get_stock_price que tome un símbolo de empresa y devuelva su precio actual.