Quiz Parte II
Preguntas
Este quiz está diseñado para evaluar tu comprensión de los conceptos y modelos cubiertos en la Parte II del libro. Responde las siguientes preguntas basándote en el material de los Capítulos 4 y 5.
Preguntas de Opción Múltiple
1. ¿Cuál es la principal ventaja de la arquitectura Transformer sobre las RNNs?
a) Elimina el problema del gradiente evanescente.
b) Utiliza menos parámetros que las RNNs.
c) Procesa secuencias en paralelo.
d) Está limitada a tareas de secuencias cortas.
2. ¿Cuál es el propósito de la codificación posicional en los Transformers?
a) Normalizar los datos de entrada.
b) Codificar el orden de los tokens en una secuencia.
c) Aumentar la velocidad de entrenamiento del Transformer.
d) Reducir el número de parámetros en el modelo.
3. ¿Cuál de los siguientes modelos está basado en la arquitectura Transformer autorregresiva?
a) BERT
b) GPT
c) RoBERTa
d) DistilBERT
4. ¿Cómo alinea CLIP el texto y las imágenes?
a) Entrenando modelos separados para tareas de texto e imagen.
b) Generando imágenes a partir de descripciones textuales.
c) Maximizando la similitud entre embeddings pareados de imagen y texto.
d) Preentrenando exclusivamente con datos textuales.
5. ¿Qué distingue a BioBERT del modelo BERT original?
a) Está preentrenado en corpus biomédicos como PubMed.
b) Utiliza una arquitectura solo de decodificador.
c) Está diseñado para tareas multimodales.
d) Se basa en un contexto unidireccional.
Preguntas Verdadero/Falso
6. La arquitectura solo decodificador de GPT se centra en el contexto bidireccional.
Verdadero / Falso
7. DistilBERT reduce el tamaño y aumenta la velocidad de BERT mediante la destilación del conocimiento.
Verdadero / Falso
8. DALL-E genera imágenes basadas en descripciones textuales.
Verdadero / Falso
Preguntas de Respuesta Corta
9. Explica la principal diferencia entre BERT y GPT en términos de su arquitectura y procesamiento de contexto.
10. Describe un caso de uso donde BioBERT superaría a modelos de propósito general como BERT.
Pregunta Basada en Código
11. Escribe una función en Python para clasificar texto usando BERT preentrenado o una de sus variantes. Utiliza la biblioteca Hugging Face Transformers.
Preguntas
Este quiz está diseñado para evaluar tu comprensión de los conceptos y modelos cubiertos en la Parte II del libro. Responde las siguientes preguntas basándote en el material de los Capítulos 4 y 5.
Preguntas de Opción Múltiple
1. ¿Cuál es la principal ventaja de la arquitectura Transformer sobre las RNNs?
a) Elimina el problema del gradiente evanescente.
b) Utiliza menos parámetros que las RNNs.
c) Procesa secuencias en paralelo.
d) Está limitada a tareas de secuencias cortas.
2. ¿Cuál es el propósito de la codificación posicional en los Transformers?
a) Normalizar los datos de entrada.
b) Codificar el orden de los tokens en una secuencia.
c) Aumentar la velocidad de entrenamiento del Transformer.
d) Reducir el número de parámetros en el modelo.
3. ¿Cuál de los siguientes modelos está basado en la arquitectura Transformer autorregresiva?
a) BERT
b) GPT
c) RoBERTa
d) DistilBERT
4. ¿Cómo alinea CLIP el texto y las imágenes?
a) Entrenando modelos separados para tareas de texto e imagen.
b) Generando imágenes a partir de descripciones textuales.
c) Maximizando la similitud entre embeddings pareados de imagen y texto.
d) Preentrenando exclusivamente con datos textuales.
5. ¿Qué distingue a BioBERT del modelo BERT original?
a) Está preentrenado en corpus biomédicos como PubMed.
b) Utiliza una arquitectura solo de decodificador.
c) Está diseñado para tareas multimodales.
d) Se basa en un contexto unidireccional.
Preguntas Verdadero/Falso
6. La arquitectura solo decodificador de GPT se centra en el contexto bidireccional.
Verdadero / Falso
7. DistilBERT reduce el tamaño y aumenta la velocidad de BERT mediante la destilación del conocimiento.
Verdadero / Falso
8. DALL-E genera imágenes basadas en descripciones textuales.
Verdadero / Falso
Preguntas de Respuesta Corta
9. Explica la principal diferencia entre BERT y GPT en términos de su arquitectura y procesamiento de contexto.
10. Describe un caso de uso donde BioBERT superaría a modelos de propósito general como BERT.
Pregunta Basada en Código
11. Escribe una función en Python para clasificar texto usando BERT preentrenado o una de sus variantes. Utiliza la biblioteca Hugging Face Transformers.
Preguntas
Este quiz está diseñado para evaluar tu comprensión de los conceptos y modelos cubiertos en la Parte II del libro. Responde las siguientes preguntas basándote en el material de los Capítulos 4 y 5.
Preguntas de Opción Múltiple
1. ¿Cuál es la principal ventaja de la arquitectura Transformer sobre las RNNs?
a) Elimina el problema del gradiente evanescente.
b) Utiliza menos parámetros que las RNNs.
c) Procesa secuencias en paralelo.
d) Está limitada a tareas de secuencias cortas.
2. ¿Cuál es el propósito de la codificación posicional en los Transformers?
a) Normalizar los datos de entrada.
b) Codificar el orden de los tokens en una secuencia.
c) Aumentar la velocidad de entrenamiento del Transformer.
d) Reducir el número de parámetros en el modelo.
3. ¿Cuál de los siguientes modelos está basado en la arquitectura Transformer autorregresiva?
a) BERT
b) GPT
c) RoBERTa
d) DistilBERT
4. ¿Cómo alinea CLIP el texto y las imágenes?
a) Entrenando modelos separados para tareas de texto e imagen.
b) Generando imágenes a partir de descripciones textuales.
c) Maximizando la similitud entre embeddings pareados de imagen y texto.
d) Preentrenando exclusivamente con datos textuales.
5. ¿Qué distingue a BioBERT del modelo BERT original?
a) Está preentrenado en corpus biomédicos como PubMed.
b) Utiliza una arquitectura solo de decodificador.
c) Está diseñado para tareas multimodales.
d) Se basa en un contexto unidireccional.
Preguntas Verdadero/Falso
6. La arquitectura solo decodificador de GPT se centra en el contexto bidireccional.
Verdadero / Falso
7. DistilBERT reduce el tamaño y aumenta la velocidad de BERT mediante la destilación del conocimiento.
Verdadero / Falso
8. DALL-E genera imágenes basadas en descripciones textuales.
Verdadero / Falso
Preguntas de Respuesta Corta
9. Explica la principal diferencia entre BERT y GPT en términos de su arquitectura y procesamiento de contexto.
10. Describe un caso de uso donde BioBERT superaría a modelos de propósito general como BERT.
Pregunta Basada en Código
11. Escribe una función en Python para clasificar texto usando BERT preentrenado o una de sus variantes. Utiliza la biblioteca Hugging Face Transformers.
Preguntas
Este quiz está diseñado para evaluar tu comprensión de los conceptos y modelos cubiertos en la Parte II del libro. Responde las siguientes preguntas basándote en el material de los Capítulos 4 y 5.
Preguntas de Opción Múltiple
1. ¿Cuál es la principal ventaja de la arquitectura Transformer sobre las RNNs?
a) Elimina el problema del gradiente evanescente.
b) Utiliza menos parámetros que las RNNs.
c) Procesa secuencias en paralelo.
d) Está limitada a tareas de secuencias cortas.
2. ¿Cuál es el propósito de la codificación posicional en los Transformers?
a) Normalizar los datos de entrada.
b) Codificar el orden de los tokens en una secuencia.
c) Aumentar la velocidad de entrenamiento del Transformer.
d) Reducir el número de parámetros en el modelo.
3. ¿Cuál de los siguientes modelos está basado en la arquitectura Transformer autorregresiva?
a) BERT
b) GPT
c) RoBERTa
d) DistilBERT
4. ¿Cómo alinea CLIP el texto y las imágenes?
a) Entrenando modelos separados para tareas de texto e imagen.
b) Generando imágenes a partir de descripciones textuales.
c) Maximizando la similitud entre embeddings pareados de imagen y texto.
d) Preentrenando exclusivamente con datos textuales.
5. ¿Qué distingue a BioBERT del modelo BERT original?
a) Está preentrenado en corpus biomédicos como PubMed.
b) Utiliza una arquitectura solo de decodificador.
c) Está diseñado para tareas multimodales.
d) Se basa en un contexto unidireccional.
Preguntas Verdadero/Falso
6. La arquitectura solo decodificador de GPT se centra en el contexto bidireccional.
Verdadero / Falso
7. DistilBERT reduce el tamaño y aumenta la velocidad de BERT mediante la destilación del conocimiento.
Verdadero / Falso
8. DALL-E genera imágenes basadas en descripciones textuales.
Verdadero / Falso
Preguntas de Respuesta Corta
9. Explica la principal diferencia entre BERT y GPT en términos de su arquitectura y procesamiento de contexto.
10. Describe un caso de uso donde BioBERT superaría a modelos de propósito general como BERT.
Pregunta Basada en Código
11. Escribe una función en Python para clasificar texto usando BERT preentrenado o una de sus variantes. Utiliza la biblioteca Hugging Face Transformers.