Menu iconMenu icon
NLP con Transformers: Técnicas Avanzadas y Aplicaciones Multimodales

Parte I del Cuestionario

Preguntas

El siguiente quiz evaluará tu comprensión de las Aplicaciones Avanzadas de PLN y los dos proyectos prácticos: Traducción Automática con MarianMT y Resumen de Texto con T5. Las preguntas cubren conceptos clave, herramientas e implementaciones prácticas que has explorado en esta sección.

Preguntas de Opción Múltiple

1. ¿Cuál es la principal ventaja de los modelos basados en transformers como MarianMT para la traducción automática?

a) Utilizan traducciones basadas en reglas para mayor precisión.

b) Capturan eficientemente dependencias de largo alcance en el texto.

c) No requieren tokenización del texto de entrada.

d) Se basan en modelos estadísticos para la alineación de palabras.

2. ¿Cuál de los siguientes prefijos se utiliza al realizar resúmenes de texto con T5?

a) translate:

b) summarize:

c) paraphrase:

d) compress:

3. ¿Cuál es la principal diferencia entre el resumen extractivo y el abstractivo?

a) El resumen extractivo genera texto completamente nuevo, mientras que el resumen abstractivo selecciona oraciones directamente del texto fuente.

b) El resumen extractivo selecciona oraciones clave del texto fuente, mientras que el resumen abstractivo genera nuevas oraciones.

c) El resumen extractivo solo funciona con textos largos, mientras que el resumen abstractivo funciona con textos cortos.

d) El resumen abstractivo es más rápido pero menos preciso que el resumen extractivo.

4. ¿Qué controla el parámetro num_beams al generar resúmenes de texto usando T5?

a) El número máximo de palabras en el resumen.

b) El equilibrio entre fluidez y relevancia.

c) El número de haces explorados durante la búsqueda por haces en la generación.

d) La penalización aplicada a las salidas más largas.

5. ¿Qué modelo de Hugging Face cargarías para realizar traducción automática de inglés a alemán?

a) Helsinki-NLP/opus-mt-en-fr

b) Helsinki-NLP/opus-mt-de-en

c) Helsinki-NLP/opus-mt-en-de

d) bert-base-multilingual-cased

Verdadero o Falso

  1. T5 puede manejar múltiples tareas de PLN como resumen, traducción y respuesta a preguntas.

Verdadero / Falso

  1. La búsqueda por haces con un valor num_beams más alto suele producir mejores resultados, pero puede aumentar los costos computacionales.

Verdadero / Falso

  1. MarianMT es un modelo propietario para traducción automática que requiere el pago de licencias para su uso.

Verdadero / Falso

  1. El resumen de texto con T5 requiere que el texto de entrada tenga un prefijo específico para la tarea.

Verdadero / Falso

  1. T5 solo puede usarse para resumen extractivo, no para resumen abstractivo.

Verdadero / Falso

Preguntas de Respuesta Corta

  1. Explica brevemente por qué se utiliza la búsqueda por haces al generar resúmenes o traducciones de texto.
  2. Proporciona un ejemplo del nombre del modelo Helsinki-NLP que usarías para la traducción de francés a inglés.
  3. ¿Cuál es el propósito del parámetro length_penalty en la generación de texto con T5?
  4. ¿Cómo manejarías las entradas de texto que exceden el límite de tokens del modelo T5?
  5. Explica un caso de uso real de traducción automática utilizando MarianMT.

Preguntas

El siguiente quiz evaluará tu comprensión de las Aplicaciones Avanzadas de PLN y los dos proyectos prácticos: Traducción Automática con MarianMT y Resumen de Texto con T5. Las preguntas cubren conceptos clave, herramientas e implementaciones prácticas que has explorado en esta sección.

Preguntas de Opción Múltiple

1. ¿Cuál es la principal ventaja de los modelos basados en transformers como MarianMT para la traducción automática?

a) Utilizan traducciones basadas en reglas para mayor precisión.

b) Capturan eficientemente dependencias de largo alcance en el texto.

c) No requieren tokenización del texto de entrada.

d) Se basan en modelos estadísticos para la alineación de palabras.

2. ¿Cuál de los siguientes prefijos se utiliza al realizar resúmenes de texto con T5?

a) translate:

b) summarize:

c) paraphrase:

d) compress:

3. ¿Cuál es la principal diferencia entre el resumen extractivo y el abstractivo?

a) El resumen extractivo genera texto completamente nuevo, mientras que el resumen abstractivo selecciona oraciones directamente del texto fuente.

b) El resumen extractivo selecciona oraciones clave del texto fuente, mientras que el resumen abstractivo genera nuevas oraciones.

c) El resumen extractivo solo funciona con textos largos, mientras que el resumen abstractivo funciona con textos cortos.

d) El resumen abstractivo es más rápido pero menos preciso que el resumen extractivo.

4. ¿Qué controla el parámetro num_beams al generar resúmenes de texto usando T5?

a) El número máximo de palabras en el resumen.

b) El equilibrio entre fluidez y relevancia.

c) El número de haces explorados durante la búsqueda por haces en la generación.

d) La penalización aplicada a las salidas más largas.

5. ¿Qué modelo de Hugging Face cargarías para realizar traducción automática de inglés a alemán?

a) Helsinki-NLP/opus-mt-en-fr

b) Helsinki-NLP/opus-mt-de-en

c) Helsinki-NLP/opus-mt-en-de

d) bert-base-multilingual-cased

Verdadero o Falso

  1. T5 puede manejar múltiples tareas de PLN como resumen, traducción y respuesta a preguntas.

Verdadero / Falso

  1. La búsqueda por haces con un valor num_beams más alto suele producir mejores resultados, pero puede aumentar los costos computacionales.

Verdadero / Falso

  1. MarianMT es un modelo propietario para traducción automática que requiere el pago de licencias para su uso.

Verdadero / Falso

  1. El resumen de texto con T5 requiere que el texto de entrada tenga un prefijo específico para la tarea.

Verdadero / Falso

  1. T5 solo puede usarse para resumen extractivo, no para resumen abstractivo.

Verdadero / Falso

Preguntas de Respuesta Corta

  1. Explica brevemente por qué se utiliza la búsqueda por haces al generar resúmenes o traducciones de texto.
  2. Proporciona un ejemplo del nombre del modelo Helsinki-NLP que usarías para la traducción de francés a inglés.
  3. ¿Cuál es el propósito del parámetro length_penalty en la generación de texto con T5?
  4. ¿Cómo manejarías las entradas de texto que exceden el límite de tokens del modelo T5?
  5. Explica un caso de uso real de traducción automática utilizando MarianMT.

Preguntas

El siguiente quiz evaluará tu comprensión de las Aplicaciones Avanzadas de PLN y los dos proyectos prácticos: Traducción Automática con MarianMT y Resumen de Texto con T5. Las preguntas cubren conceptos clave, herramientas e implementaciones prácticas que has explorado en esta sección.

Preguntas de Opción Múltiple

1. ¿Cuál es la principal ventaja de los modelos basados en transformers como MarianMT para la traducción automática?

a) Utilizan traducciones basadas en reglas para mayor precisión.

b) Capturan eficientemente dependencias de largo alcance en el texto.

c) No requieren tokenización del texto de entrada.

d) Se basan en modelos estadísticos para la alineación de palabras.

2. ¿Cuál de los siguientes prefijos se utiliza al realizar resúmenes de texto con T5?

a) translate:

b) summarize:

c) paraphrase:

d) compress:

3. ¿Cuál es la principal diferencia entre el resumen extractivo y el abstractivo?

a) El resumen extractivo genera texto completamente nuevo, mientras que el resumen abstractivo selecciona oraciones directamente del texto fuente.

b) El resumen extractivo selecciona oraciones clave del texto fuente, mientras que el resumen abstractivo genera nuevas oraciones.

c) El resumen extractivo solo funciona con textos largos, mientras que el resumen abstractivo funciona con textos cortos.

d) El resumen abstractivo es más rápido pero menos preciso que el resumen extractivo.

4. ¿Qué controla el parámetro num_beams al generar resúmenes de texto usando T5?

a) El número máximo de palabras en el resumen.

b) El equilibrio entre fluidez y relevancia.

c) El número de haces explorados durante la búsqueda por haces en la generación.

d) La penalización aplicada a las salidas más largas.

5. ¿Qué modelo de Hugging Face cargarías para realizar traducción automática de inglés a alemán?

a) Helsinki-NLP/opus-mt-en-fr

b) Helsinki-NLP/opus-mt-de-en

c) Helsinki-NLP/opus-mt-en-de

d) bert-base-multilingual-cased

Verdadero o Falso

  1. T5 puede manejar múltiples tareas de PLN como resumen, traducción y respuesta a preguntas.

Verdadero / Falso

  1. La búsqueda por haces con un valor num_beams más alto suele producir mejores resultados, pero puede aumentar los costos computacionales.

Verdadero / Falso

  1. MarianMT es un modelo propietario para traducción automática que requiere el pago de licencias para su uso.

Verdadero / Falso

  1. El resumen de texto con T5 requiere que el texto de entrada tenga un prefijo específico para la tarea.

Verdadero / Falso

  1. T5 solo puede usarse para resumen extractivo, no para resumen abstractivo.

Verdadero / Falso

Preguntas de Respuesta Corta

  1. Explica brevemente por qué se utiliza la búsqueda por haces al generar resúmenes o traducciones de texto.
  2. Proporciona un ejemplo del nombre del modelo Helsinki-NLP que usarías para la traducción de francés a inglés.
  3. ¿Cuál es el propósito del parámetro length_penalty en la generación de texto con T5?
  4. ¿Cómo manejarías las entradas de texto que exceden el límite de tokens del modelo T5?
  5. Explica un caso de uso real de traducción automática utilizando MarianMT.

Preguntas

El siguiente quiz evaluará tu comprensión de las Aplicaciones Avanzadas de PLN y los dos proyectos prácticos: Traducción Automática con MarianMT y Resumen de Texto con T5. Las preguntas cubren conceptos clave, herramientas e implementaciones prácticas que has explorado en esta sección.

Preguntas de Opción Múltiple

1. ¿Cuál es la principal ventaja de los modelos basados en transformers como MarianMT para la traducción automática?

a) Utilizan traducciones basadas en reglas para mayor precisión.

b) Capturan eficientemente dependencias de largo alcance en el texto.

c) No requieren tokenización del texto de entrada.

d) Se basan en modelos estadísticos para la alineación de palabras.

2. ¿Cuál de los siguientes prefijos se utiliza al realizar resúmenes de texto con T5?

a) translate:

b) summarize:

c) paraphrase:

d) compress:

3. ¿Cuál es la principal diferencia entre el resumen extractivo y el abstractivo?

a) El resumen extractivo genera texto completamente nuevo, mientras que el resumen abstractivo selecciona oraciones directamente del texto fuente.

b) El resumen extractivo selecciona oraciones clave del texto fuente, mientras que el resumen abstractivo genera nuevas oraciones.

c) El resumen extractivo solo funciona con textos largos, mientras que el resumen abstractivo funciona con textos cortos.

d) El resumen abstractivo es más rápido pero menos preciso que el resumen extractivo.

4. ¿Qué controla el parámetro num_beams al generar resúmenes de texto usando T5?

a) El número máximo de palabras en el resumen.

b) El equilibrio entre fluidez y relevancia.

c) El número de haces explorados durante la búsqueda por haces en la generación.

d) La penalización aplicada a las salidas más largas.

5. ¿Qué modelo de Hugging Face cargarías para realizar traducción automática de inglés a alemán?

a) Helsinki-NLP/opus-mt-en-fr

b) Helsinki-NLP/opus-mt-de-en

c) Helsinki-NLP/opus-mt-en-de

d) bert-base-multilingual-cased

Verdadero o Falso

  1. T5 puede manejar múltiples tareas de PLN como resumen, traducción y respuesta a preguntas.

Verdadero / Falso

  1. La búsqueda por haces con un valor num_beams más alto suele producir mejores resultados, pero puede aumentar los costos computacionales.

Verdadero / Falso

  1. MarianMT es un modelo propietario para traducción automática que requiere el pago de licencias para su uso.

Verdadero / Falso

  1. El resumen de texto con T5 requiere que el texto de entrada tenga un prefijo específico para la tarea.

Verdadero / Falso

  1. T5 solo puede usarse para resumen extractivo, no para resumen abstractivo.

Verdadero / Falso

Preguntas de Respuesta Corta

  1. Explica brevemente por qué se utiliza la búsqueda por haces al generar resúmenes o traducciones de texto.
  2. Proporciona un ejemplo del nombre del modelo Helsinki-NLP que usarías para la traducción de francés a inglés.
  3. ¿Cuál es el propósito del parámetro length_penalty en la generación de texto con T5?
  4. ¿Cómo manejarías las entradas de texto que exceden el límite de tokens del modelo T5?
  5. Explica un caso de uso real de traducción automática utilizando MarianMT.