Menu iconMenu icon
NLP con Transformadores: Técnicas Avanzadas y Aplicaciones Multimodales

Parte I del Cuestionario

Clave de Respuestas

Preguntas de Opción Múltiple

  1. b) Capturan eficientemente dependencias de largo alcance en el texto.
  2. b) summarize:
  3. b) El resumen extractivo selecciona oraciones clave del texto fuente, mientras que el resumen abstractivo genera nuevas oraciones.
  4. c) El número de haces explorados durante la búsqueda por haces en la generación.
  5. c) Helsinki-NLP/opus-mt-en-de

Verdadero o Falso

  1. Verdadero
  2. Verdadero
  3. Falso (MarianMT es de código abierto y gratuito.)
  4. Verdadero
  5. Falso (T5 realiza resumen abstractivo.)

Preguntas de Respuesta Corta

  1. La búsqueda por haces explora múltiples secuencias posibles durante la generación y selecciona la salida más probable, mejorando la calidad y fluidez.
  2. Helsinki-NLP/opus-mt-fr-en
  3. El parámetro length_penalty desalienta o fomenta resúmenes más largos. Un valor >1 penaliza las salidas más cortas, mientras que <1 las favorece.
  4. Puedes dividir el texto de entrada en fragmentos más pequeños (por ejemplo, 512 tokens cada uno), resumir cada fragmento individualmente y combinar los resultados.
  5. Un caso de uso real es la traducción de consultas y respuestas de soporte al cliente para ofrecer asistencia multilingüe en negocios globales.

Este cuestionario evalúa tu comprensión de cómo los modelos basados en transformers, como MarianMT y T5, revolucionan las tareas de traducción automática y resumen. Si encuentras alguna pregunta desafiante, revisa las secciones correspondientes o los ejercicios prácticos para mayor claridad. Sigue experimentando con transformers: ¡estás construyendo una base sólida para aplicaciones avanzadas de PLN!

Clave de Respuestas

Preguntas de Opción Múltiple

  1. b) Capturan eficientemente dependencias de largo alcance en el texto.
  2. b) summarize:
  3. b) El resumen extractivo selecciona oraciones clave del texto fuente, mientras que el resumen abstractivo genera nuevas oraciones.
  4. c) El número de haces explorados durante la búsqueda por haces en la generación.
  5. c) Helsinki-NLP/opus-mt-en-de

Verdadero o Falso

  1. Verdadero
  2. Verdadero
  3. Falso (MarianMT es de código abierto y gratuito.)
  4. Verdadero
  5. Falso (T5 realiza resumen abstractivo.)

Preguntas de Respuesta Corta

  1. La búsqueda por haces explora múltiples secuencias posibles durante la generación y selecciona la salida más probable, mejorando la calidad y fluidez.
  2. Helsinki-NLP/opus-mt-fr-en
  3. El parámetro length_penalty desalienta o fomenta resúmenes más largos. Un valor >1 penaliza las salidas más cortas, mientras que <1 las favorece.
  4. Puedes dividir el texto de entrada en fragmentos más pequeños (por ejemplo, 512 tokens cada uno), resumir cada fragmento individualmente y combinar los resultados.
  5. Un caso de uso real es la traducción de consultas y respuestas de soporte al cliente para ofrecer asistencia multilingüe en negocios globales.

Este cuestionario evalúa tu comprensión de cómo los modelos basados en transformers, como MarianMT y T5, revolucionan las tareas de traducción automática y resumen. Si encuentras alguna pregunta desafiante, revisa las secciones correspondientes o los ejercicios prácticos para mayor claridad. Sigue experimentando con transformers: ¡estás construyendo una base sólida para aplicaciones avanzadas de PLN!

Clave de Respuestas

Preguntas de Opción Múltiple

  1. b) Capturan eficientemente dependencias de largo alcance en el texto.
  2. b) summarize:
  3. b) El resumen extractivo selecciona oraciones clave del texto fuente, mientras que el resumen abstractivo genera nuevas oraciones.
  4. c) El número de haces explorados durante la búsqueda por haces en la generación.
  5. c) Helsinki-NLP/opus-mt-en-de

Verdadero o Falso

  1. Verdadero
  2. Verdadero
  3. Falso (MarianMT es de código abierto y gratuito.)
  4. Verdadero
  5. Falso (T5 realiza resumen abstractivo.)

Preguntas de Respuesta Corta

  1. La búsqueda por haces explora múltiples secuencias posibles durante la generación y selecciona la salida más probable, mejorando la calidad y fluidez.
  2. Helsinki-NLP/opus-mt-fr-en
  3. El parámetro length_penalty desalienta o fomenta resúmenes más largos. Un valor >1 penaliza las salidas más cortas, mientras que <1 las favorece.
  4. Puedes dividir el texto de entrada en fragmentos más pequeños (por ejemplo, 512 tokens cada uno), resumir cada fragmento individualmente y combinar los resultados.
  5. Un caso de uso real es la traducción de consultas y respuestas de soporte al cliente para ofrecer asistencia multilingüe en negocios globales.

Este cuestionario evalúa tu comprensión de cómo los modelos basados en transformers, como MarianMT y T5, revolucionan las tareas de traducción automática y resumen. Si encuentras alguna pregunta desafiante, revisa las secciones correspondientes o los ejercicios prácticos para mayor claridad. Sigue experimentando con transformers: ¡estás construyendo una base sólida para aplicaciones avanzadas de PLN!

Clave de Respuestas

Preguntas de Opción Múltiple

  1. b) Capturan eficientemente dependencias de largo alcance en el texto.
  2. b) summarize:
  3. b) El resumen extractivo selecciona oraciones clave del texto fuente, mientras que el resumen abstractivo genera nuevas oraciones.
  4. c) El número de haces explorados durante la búsqueda por haces en la generación.
  5. c) Helsinki-NLP/opus-mt-en-de

Verdadero o Falso

  1. Verdadero
  2. Verdadero
  3. Falso (MarianMT es de código abierto y gratuito.)
  4. Verdadero
  5. Falso (T5 realiza resumen abstractivo.)

Preguntas de Respuesta Corta

  1. La búsqueda por haces explora múltiples secuencias posibles durante la generación y selecciona la salida más probable, mejorando la calidad y fluidez.
  2. Helsinki-NLP/opus-mt-fr-en
  3. El parámetro length_penalty desalienta o fomenta resúmenes más largos. Un valor >1 penaliza las salidas más cortas, mientras que <1 las favorece.
  4. Puedes dividir el texto de entrada en fragmentos más pequeños (por ejemplo, 512 tokens cada uno), resumir cada fragmento individualmente y combinar los resultados.
  5. Un caso de uso real es la traducción de consultas y respuestas de soporte al cliente para ofrecer asistencia multilingüe en negocios globales.

Este cuestionario evalúa tu comprensión de cómo los modelos basados en transformers, como MarianMT y T5, revolucionan las tareas de traducción automática y resumen. Si encuentras alguna pregunta desafiante, revisa las secciones correspondientes o los ejercicios prácticos para mayor claridad. Sigue experimentando con transformers: ¡estás construyendo una base sólida para aplicaciones avanzadas de PLN!