Menu iconMenu icon
NLP con Transformadores: Técnicas Avanzadas y Aplicaciones Multimodales

Quiz Parte II

Preguntas de Opción Múltiple

El siguiente quiz evaluará tu comprensión de las herramientas y técnicas para trabajar con transformers. Abarca temas desde las bibliotecas de Hugging Face hasta estrategias de entrenamiento, ajuste fino y despliegue. El cuestionario incluye preguntas de opción múltiple, verdadero/falso y respuestas cortas. Las respuestas se proporcionan al final.

1. ¿Qué biblioteca de Hugging Face se utiliza para cargar y procesar conjuntos de datos de manera eficiente para tareas de PLN?

a) Tokenizers

b) Transformers

c) Datasets

d) PyTorch

2. ¿Cuál es el propósito principal de LoRA en el ajuste fino de modelos transformer?

a) Reducir el tamaño del modelo

b) Minimizar el número de parámetros entrenables

c) Aumentar la velocidad de inferencia

d) Optimizar el uso de memoria durante el entrenamiento

3. ¿Cuál de las siguientes métricas está orientada a la exhaustividad y es más adecuada para evaluar tareas de resumen de texto?

a) BLEU

b) ROUGE

c) BERTScore

d) Perplejidad

4. ¿Cuál es el principal beneficio de convertir modelos al formato ONNX?

a) Permite la compatibilidad con múltiples frameworks

b) Reduce la precisión del modelo

c) Hace que los modelos sean más grandes para el despliegue en la nube

d) Asegura que los modelos se ejecuten solo en GPU

5. Al desplegar un modelo transformer en Hugging Face Spaces, ¿qué biblioteca se usa comúnmente para crear aplicaciones interactivas?

a) TensorFlow Lite

b) Gradio

c) FastAPI

d) Flask

Preguntas de Opción Múltiple

El siguiente quiz evaluará tu comprensión de las herramientas y técnicas para trabajar con transformers. Abarca temas desde las bibliotecas de Hugging Face hasta estrategias de entrenamiento, ajuste fino y despliegue. El cuestionario incluye preguntas de opción múltiple, verdadero/falso y respuestas cortas. Las respuestas se proporcionan al final.

1. ¿Qué biblioteca de Hugging Face se utiliza para cargar y procesar conjuntos de datos de manera eficiente para tareas de PLN?

a) Tokenizers

b) Transformers

c) Datasets

d) PyTorch

2. ¿Cuál es el propósito principal de LoRA en el ajuste fino de modelos transformer?

a) Reducir el tamaño del modelo

b) Minimizar el número de parámetros entrenables

c) Aumentar la velocidad de inferencia

d) Optimizar el uso de memoria durante el entrenamiento

3. ¿Cuál de las siguientes métricas está orientada a la exhaustividad y es más adecuada para evaluar tareas de resumen de texto?

a) BLEU

b) ROUGE

c) BERTScore

d) Perplejidad

4. ¿Cuál es el principal beneficio de convertir modelos al formato ONNX?

a) Permite la compatibilidad con múltiples frameworks

b) Reduce la precisión del modelo

c) Hace que los modelos sean más grandes para el despliegue en la nube

d) Asegura que los modelos se ejecuten solo en GPU

5. Al desplegar un modelo transformer en Hugging Face Spaces, ¿qué biblioteca se usa comúnmente para crear aplicaciones interactivas?

a) TensorFlow Lite

b) Gradio

c) FastAPI

d) Flask

Preguntas de Opción Múltiple

El siguiente quiz evaluará tu comprensión de las herramientas y técnicas para trabajar con transformers. Abarca temas desde las bibliotecas de Hugging Face hasta estrategias de entrenamiento, ajuste fino y despliegue. El cuestionario incluye preguntas de opción múltiple, verdadero/falso y respuestas cortas. Las respuestas se proporcionan al final.

1. ¿Qué biblioteca de Hugging Face se utiliza para cargar y procesar conjuntos de datos de manera eficiente para tareas de PLN?

a) Tokenizers

b) Transformers

c) Datasets

d) PyTorch

2. ¿Cuál es el propósito principal de LoRA en el ajuste fino de modelos transformer?

a) Reducir el tamaño del modelo

b) Minimizar el número de parámetros entrenables

c) Aumentar la velocidad de inferencia

d) Optimizar el uso de memoria durante el entrenamiento

3. ¿Cuál de las siguientes métricas está orientada a la exhaustividad y es más adecuada para evaluar tareas de resumen de texto?

a) BLEU

b) ROUGE

c) BERTScore

d) Perplejidad

4. ¿Cuál es el principal beneficio de convertir modelos al formato ONNX?

a) Permite la compatibilidad con múltiples frameworks

b) Reduce la precisión del modelo

c) Hace que los modelos sean más grandes para el despliegue en la nube

d) Asegura que los modelos se ejecuten solo en GPU

5. Al desplegar un modelo transformer en Hugging Face Spaces, ¿qué biblioteca se usa comúnmente para crear aplicaciones interactivas?

a) TensorFlow Lite

b) Gradio

c) FastAPI

d) Flask

Preguntas de Opción Múltiple

El siguiente quiz evaluará tu comprensión de las herramientas y técnicas para trabajar con transformers. Abarca temas desde las bibliotecas de Hugging Face hasta estrategias de entrenamiento, ajuste fino y despliegue. El cuestionario incluye preguntas de opción múltiple, verdadero/falso y respuestas cortas. Las respuestas se proporcionan al final.

1. ¿Qué biblioteca de Hugging Face se utiliza para cargar y procesar conjuntos de datos de manera eficiente para tareas de PLN?

a) Tokenizers

b) Transformers

c) Datasets

d) PyTorch

2. ¿Cuál es el propósito principal de LoRA en el ajuste fino de modelos transformer?

a) Reducir el tamaño del modelo

b) Minimizar el número de parámetros entrenables

c) Aumentar la velocidad de inferencia

d) Optimizar el uso de memoria durante el entrenamiento

3. ¿Cuál de las siguientes métricas está orientada a la exhaustividad y es más adecuada para evaluar tareas de resumen de texto?

a) BLEU

b) ROUGE

c) BERTScore

d) Perplejidad

4. ¿Cuál es el principal beneficio de convertir modelos al formato ONNX?

a) Permite la compatibilidad con múltiples frameworks

b) Reduce la precisión del modelo

c) Hace que los modelos sean más grandes para el despliegue en la nube

d) Asegura que los modelos se ejecuten solo en GPU

5. Al desplegar un modelo transformer en Hugging Face Spaces, ¿qué biblioteca se usa comúnmente para crear aplicaciones interactivas?

a) TensorFlow Lite

b) Gradio

c) FastAPI

d) Flask