Quiz Parte II
Respuestas
Preguntas de Opción Múltiple
- c) Procesa secuencias en paralelo.
- b) Para codificar el orden de los tokens en una secuencia.
- b) GPT
- c) Maximizando la similitud entre embeddings pareados de imagen y texto.
- a) Está preentrenado en corpus biomédicos como PubMed.
Preguntas Verdadero/Falso
- Falso - GPT utiliza un contexto unidireccional (autorregresivo), no bidireccional.
- Verdadero - DistilBERT utiliza la destilación del conocimiento para lograr un modelo más pequeño y rápido.
- Verdadero - DALL-E genera imágenes basadas en indicaciones textuales.
Preguntas de Respuesta Corta
9. BERT procesa el contexto de manera bidireccional, capturando relaciones entre tokens anteriores y posteriores. En contraste, GPT procesa el texto de manera unidireccional (de izquierda a derecha), centrándose en generar el siguiente token en una secuencia.
10. BioBERT sobresaldría en una tarea como la extracción de relaciones entre productos químicos y enfermedades en artículos de investigación biomédica, ya que está preentrenado en textos específicos del dominio que incluyen terminología y estructura no presentes en conjuntos de datos de propósito general.
Pregunta Basada en Código
Solución:
from transformers import pipeline
def classify_text(model_name, text, labels):
"""
Classify text using a pre-trained BERT or its variant.
model_name: Hugging Face model name (e.g., 'bert-base-uncased').
text: Text to classify.
labels: List of labels to map predictions.
"""
classifier = pipeline("text-classification", model=model_name)
result = classifier(text)
label_id = int(result[0]['label'].split('_')[-1]) # Extract label index
return labels[label_id]
# Example usage
model_name = "bert-base-uncased"
text = "The patient shows symptoms of severe dehydration."
labels = ["Healthy", "Dehydrated"]
predicted_label = classify_text(model_name, text, labels)
print("Predicted Label:", predicted_label)
Expected Output:
Salida Esperada:
Predicted Label: Dehydrated
¡Felicitaciones!
Completar este cuestionario demuestra tu comprensión de la arquitectura Transformer y sus modelos clave. Has cubierto conceptos fundamentales, aplicaciones de modelos multimodales y adaptaciones especializadas como BioBERT y LegalBERT.
Respuestas
Preguntas de Opción Múltiple
- c) Procesa secuencias en paralelo.
- b) Para codificar el orden de los tokens en una secuencia.
- b) GPT
- c) Maximizando la similitud entre embeddings pareados de imagen y texto.
- a) Está preentrenado en corpus biomédicos como PubMed.
Preguntas Verdadero/Falso
- Falso - GPT utiliza un contexto unidireccional (autorregresivo), no bidireccional.
- Verdadero - DistilBERT utiliza la destilación del conocimiento para lograr un modelo más pequeño y rápido.
- Verdadero - DALL-E genera imágenes basadas en indicaciones textuales.
Preguntas de Respuesta Corta
9. BERT procesa el contexto de manera bidireccional, capturando relaciones entre tokens anteriores y posteriores. En contraste, GPT procesa el texto de manera unidireccional (de izquierda a derecha), centrándose en generar el siguiente token en una secuencia.
10. BioBERT sobresaldría en una tarea como la extracción de relaciones entre productos químicos y enfermedades en artículos de investigación biomédica, ya que está preentrenado en textos específicos del dominio que incluyen terminología y estructura no presentes en conjuntos de datos de propósito general.
Pregunta Basada en Código
Solución:
from transformers import pipeline
def classify_text(model_name, text, labels):
"""
Classify text using a pre-trained BERT or its variant.
model_name: Hugging Face model name (e.g., 'bert-base-uncased').
text: Text to classify.
labels: List of labels to map predictions.
"""
classifier = pipeline("text-classification", model=model_name)
result = classifier(text)
label_id = int(result[0]['label'].split('_')[-1]) # Extract label index
return labels[label_id]
# Example usage
model_name = "bert-base-uncased"
text = "The patient shows symptoms of severe dehydration."
labels = ["Healthy", "Dehydrated"]
predicted_label = classify_text(model_name, text, labels)
print("Predicted Label:", predicted_label)
Expected Output:
Salida Esperada:
Predicted Label: Dehydrated
¡Felicitaciones!
Completar este cuestionario demuestra tu comprensión de la arquitectura Transformer y sus modelos clave. Has cubierto conceptos fundamentales, aplicaciones de modelos multimodales y adaptaciones especializadas como BioBERT y LegalBERT.
Respuestas
Preguntas de Opción Múltiple
- c) Procesa secuencias en paralelo.
- b) Para codificar el orden de los tokens en una secuencia.
- b) GPT
- c) Maximizando la similitud entre embeddings pareados de imagen y texto.
- a) Está preentrenado en corpus biomédicos como PubMed.
Preguntas Verdadero/Falso
- Falso - GPT utiliza un contexto unidireccional (autorregresivo), no bidireccional.
- Verdadero - DistilBERT utiliza la destilación del conocimiento para lograr un modelo más pequeño y rápido.
- Verdadero - DALL-E genera imágenes basadas en indicaciones textuales.
Preguntas de Respuesta Corta
9. BERT procesa el contexto de manera bidireccional, capturando relaciones entre tokens anteriores y posteriores. En contraste, GPT procesa el texto de manera unidireccional (de izquierda a derecha), centrándose en generar el siguiente token en una secuencia.
10. BioBERT sobresaldría en una tarea como la extracción de relaciones entre productos químicos y enfermedades en artículos de investigación biomédica, ya que está preentrenado en textos específicos del dominio que incluyen terminología y estructura no presentes en conjuntos de datos de propósito general.
Pregunta Basada en Código
Solución:
from transformers import pipeline
def classify_text(model_name, text, labels):
"""
Classify text using a pre-trained BERT or its variant.
model_name: Hugging Face model name (e.g., 'bert-base-uncased').
text: Text to classify.
labels: List of labels to map predictions.
"""
classifier = pipeline("text-classification", model=model_name)
result = classifier(text)
label_id = int(result[0]['label'].split('_')[-1]) # Extract label index
return labels[label_id]
# Example usage
model_name = "bert-base-uncased"
text = "The patient shows symptoms of severe dehydration."
labels = ["Healthy", "Dehydrated"]
predicted_label = classify_text(model_name, text, labels)
print("Predicted Label:", predicted_label)
Expected Output:
Salida Esperada:
Predicted Label: Dehydrated
¡Felicitaciones!
Completar este cuestionario demuestra tu comprensión de la arquitectura Transformer y sus modelos clave. Has cubierto conceptos fundamentales, aplicaciones de modelos multimodales y adaptaciones especializadas como BioBERT y LegalBERT.
Respuestas
Preguntas de Opción Múltiple
- c) Procesa secuencias en paralelo.
- b) Para codificar el orden de los tokens en una secuencia.
- b) GPT
- c) Maximizando la similitud entre embeddings pareados de imagen y texto.
- a) Está preentrenado en corpus biomédicos como PubMed.
Preguntas Verdadero/Falso
- Falso - GPT utiliza un contexto unidireccional (autorregresivo), no bidireccional.
- Verdadero - DistilBERT utiliza la destilación del conocimiento para lograr un modelo más pequeño y rápido.
- Verdadero - DALL-E genera imágenes basadas en indicaciones textuales.
Preguntas de Respuesta Corta
9. BERT procesa el contexto de manera bidireccional, capturando relaciones entre tokens anteriores y posteriores. En contraste, GPT procesa el texto de manera unidireccional (de izquierda a derecha), centrándose en generar el siguiente token en una secuencia.
10. BioBERT sobresaldría en una tarea como la extracción de relaciones entre productos químicos y enfermedades en artículos de investigación biomédica, ya que está preentrenado en textos específicos del dominio que incluyen terminología y estructura no presentes en conjuntos de datos de propósito general.
Pregunta Basada en Código
Solución:
from transformers import pipeline
def classify_text(model_name, text, labels):
"""
Classify text using a pre-trained BERT or its variant.
model_name: Hugging Face model name (e.g., 'bert-base-uncased').
text: Text to classify.
labels: List of labels to map predictions.
"""
classifier = pipeline("text-classification", model=model_name)
result = classifier(text)
label_id = int(result[0]['label'].split('_')[-1]) # Extract label index
return labels[label_id]
# Example usage
model_name = "bert-base-uncased"
text = "The patient shows symptoms of severe dehydration."
labels = ["Healthy", "Dehydrated"]
predicted_label = classify_text(model_name, text, labels)
print("Predicted Label:", predicted_label)
Expected Output:
Salida Esperada:
Predicted Label: Dehydrated
¡Felicitaciones!
Completar este cuestionario demuestra tu comprensión de la arquitectura Transformer y sus modelos clave. Has cubierto conceptos fundamentales, aplicaciones de modelos multimodales y adaptaciones especializadas como BioBERT y LegalBERT.