Menu iconMenu icon
NLP con Transformadores: Fundamentos y Aplicaciones Básicas

Quiz Parte II

Respuestas

Preguntas de Opción Múltiple

  1. c) Procesa secuencias en paralelo.
  2. b) Para codificar el orden de los tokens en una secuencia.
  3. b) GPT
  4. c) Maximizando la similitud entre embeddings pareados de imagen y texto.
  5. a) Está preentrenado en corpus biomédicos como PubMed.

Preguntas Verdadero/Falso

  1. Falso - GPT utiliza un contexto unidireccional (autorregresivo), no bidireccional.
  2. Verdadero - DistilBERT utiliza la destilación del conocimiento para lograr un modelo más pequeño y rápido.
  3. Verdadero - DALL-E genera imágenes basadas en indicaciones textuales.

Preguntas de Respuesta Corta

9. BERT procesa el contexto de manera bidireccional, capturando relaciones entre tokens anteriores y posteriores. En contraste, GPT procesa el texto de manera unidireccional (de izquierda a derecha), centrándose en generar el siguiente token en una secuencia.

10. BioBERT sobresaldría en una tarea como la extracción de relaciones entre productos químicos y enfermedades en artículos de investigación biomédica, ya que está preentrenado en textos específicos del dominio que incluyen terminología y estructura no presentes en conjuntos de datos de propósito general.

Pregunta Basada en Código

Solución:

from transformers import pipeline

def classify_text(model_name, text, labels):
    """
    Classify text using a pre-trained BERT or its variant.
    model_name: Hugging Face model name (e.g., 'bert-base-uncased').
    text: Text to classify.
    labels: List of labels to map predictions.
    """
    classifier = pipeline("text-classification", model=model_name)
    result = classifier(text)
    label_id = int(result[0]['label'].split('_')[-1])  # Extract label index
    return labels[label_id]

# Example usage
model_name = "bert-base-uncased"
text = "The patient shows symptoms of severe dehydration."
labels = ["Healthy", "Dehydrated"]
predicted_label = classify_text(model_name, text, labels)
print("Predicted Label:", predicted_label)

Expected Output:

Salida Esperada:

Predicted Label: Dehydrated

¡Felicitaciones!

Completar este cuestionario demuestra tu comprensión de la arquitectura Transformer y sus modelos clave. Has cubierto conceptos fundamentales, aplicaciones de modelos multimodales y adaptaciones especializadas como BioBERT y LegalBERT.

Respuestas

Preguntas de Opción Múltiple

  1. c) Procesa secuencias en paralelo.
  2. b) Para codificar el orden de los tokens en una secuencia.
  3. b) GPT
  4. c) Maximizando la similitud entre embeddings pareados de imagen y texto.
  5. a) Está preentrenado en corpus biomédicos como PubMed.

Preguntas Verdadero/Falso

  1. Falso - GPT utiliza un contexto unidireccional (autorregresivo), no bidireccional.
  2. Verdadero - DistilBERT utiliza la destilación del conocimiento para lograr un modelo más pequeño y rápido.
  3. Verdadero - DALL-E genera imágenes basadas en indicaciones textuales.

Preguntas de Respuesta Corta

9. BERT procesa el contexto de manera bidireccional, capturando relaciones entre tokens anteriores y posteriores. En contraste, GPT procesa el texto de manera unidireccional (de izquierda a derecha), centrándose en generar el siguiente token en una secuencia.

10. BioBERT sobresaldría en una tarea como la extracción de relaciones entre productos químicos y enfermedades en artículos de investigación biomédica, ya que está preentrenado en textos específicos del dominio que incluyen terminología y estructura no presentes en conjuntos de datos de propósito general.

Pregunta Basada en Código

Solución:

from transformers import pipeline

def classify_text(model_name, text, labels):
    """
    Classify text using a pre-trained BERT or its variant.
    model_name: Hugging Face model name (e.g., 'bert-base-uncased').
    text: Text to classify.
    labels: List of labels to map predictions.
    """
    classifier = pipeline("text-classification", model=model_name)
    result = classifier(text)
    label_id = int(result[0]['label'].split('_')[-1])  # Extract label index
    return labels[label_id]

# Example usage
model_name = "bert-base-uncased"
text = "The patient shows symptoms of severe dehydration."
labels = ["Healthy", "Dehydrated"]
predicted_label = classify_text(model_name, text, labels)
print("Predicted Label:", predicted_label)

Expected Output:

Salida Esperada:

Predicted Label: Dehydrated

¡Felicitaciones!

Completar este cuestionario demuestra tu comprensión de la arquitectura Transformer y sus modelos clave. Has cubierto conceptos fundamentales, aplicaciones de modelos multimodales y adaptaciones especializadas como BioBERT y LegalBERT.

Respuestas

Preguntas de Opción Múltiple

  1. c) Procesa secuencias en paralelo.
  2. b) Para codificar el orden de los tokens en una secuencia.
  3. b) GPT
  4. c) Maximizando la similitud entre embeddings pareados de imagen y texto.
  5. a) Está preentrenado en corpus biomédicos como PubMed.

Preguntas Verdadero/Falso

  1. Falso - GPT utiliza un contexto unidireccional (autorregresivo), no bidireccional.
  2. Verdadero - DistilBERT utiliza la destilación del conocimiento para lograr un modelo más pequeño y rápido.
  3. Verdadero - DALL-E genera imágenes basadas en indicaciones textuales.

Preguntas de Respuesta Corta

9. BERT procesa el contexto de manera bidireccional, capturando relaciones entre tokens anteriores y posteriores. En contraste, GPT procesa el texto de manera unidireccional (de izquierda a derecha), centrándose en generar el siguiente token en una secuencia.

10. BioBERT sobresaldría en una tarea como la extracción de relaciones entre productos químicos y enfermedades en artículos de investigación biomédica, ya que está preentrenado en textos específicos del dominio que incluyen terminología y estructura no presentes en conjuntos de datos de propósito general.

Pregunta Basada en Código

Solución:

from transformers import pipeline

def classify_text(model_name, text, labels):
    """
    Classify text using a pre-trained BERT or its variant.
    model_name: Hugging Face model name (e.g., 'bert-base-uncased').
    text: Text to classify.
    labels: List of labels to map predictions.
    """
    classifier = pipeline("text-classification", model=model_name)
    result = classifier(text)
    label_id = int(result[0]['label'].split('_')[-1])  # Extract label index
    return labels[label_id]

# Example usage
model_name = "bert-base-uncased"
text = "The patient shows symptoms of severe dehydration."
labels = ["Healthy", "Dehydrated"]
predicted_label = classify_text(model_name, text, labels)
print("Predicted Label:", predicted_label)

Expected Output:

Salida Esperada:

Predicted Label: Dehydrated

¡Felicitaciones!

Completar este cuestionario demuestra tu comprensión de la arquitectura Transformer y sus modelos clave. Has cubierto conceptos fundamentales, aplicaciones de modelos multimodales y adaptaciones especializadas como BioBERT y LegalBERT.

Respuestas

Preguntas de Opción Múltiple

  1. c) Procesa secuencias en paralelo.
  2. b) Para codificar el orden de los tokens en una secuencia.
  3. b) GPT
  4. c) Maximizando la similitud entre embeddings pareados de imagen y texto.
  5. a) Está preentrenado en corpus biomédicos como PubMed.

Preguntas Verdadero/Falso

  1. Falso - GPT utiliza un contexto unidireccional (autorregresivo), no bidireccional.
  2. Verdadero - DistilBERT utiliza la destilación del conocimiento para lograr un modelo más pequeño y rápido.
  3. Verdadero - DALL-E genera imágenes basadas en indicaciones textuales.

Preguntas de Respuesta Corta

9. BERT procesa el contexto de manera bidireccional, capturando relaciones entre tokens anteriores y posteriores. En contraste, GPT procesa el texto de manera unidireccional (de izquierda a derecha), centrándose en generar el siguiente token en una secuencia.

10. BioBERT sobresaldría en una tarea como la extracción de relaciones entre productos químicos y enfermedades en artículos de investigación biomédica, ya que está preentrenado en textos específicos del dominio que incluyen terminología y estructura no presentes en conjuntos de datos de propósito general.

Pregunta Basada en Código

Solución:

from transformers import pipeline

def classify_text(model_name, text, labels):
    """
    Classify text using a pre-trained BERT or its variant.
    model_name: Hugging Face model name (e.g., 'bert-base-uncased').
    text: Text to classify.
    labels: List of labels to map predictions.
    """
    classifier = pipeline("text-classification", model=model_name)
    result = classifier(text)
    label_id = int(result[0]['label'].split('_')[-1])  # Extract label index
    return labels[label_id]

# Example usage
model_name = "bert-base-uncased"
text = "The patient shows symptoms of severe dehydration."
labels = ["Healthy", "Dehydrated"]
predicted_label = classify_text(model_name, text, labels)
print("Predicted Label:", predicted_label)

Expected Output:

Salida Esperada:

Predicted Label: Dehydrated

¡Felicitaciones!

Completar este cuestionario demuestra tu comprensión de la arquitectura Transformer y sus modelos clave. Has cubierto conceptos fundamentales, aplicaciones de modelos multimodales y adaptaciones especializadas como BioBERT y LegalBERT.