Parte I del Cuestionario
Clave de Respuestas
Preguntas de Opción Múltiple
- b) Capturan eficientemente dependencias de largo alcance en el texto.
- b)
summarize:
- b) El resumen extractivo selecciona oraciones clave del texto fuente, mientras que el resumen abstractivo genera nuevas oraciones.
- c) El número de haces explorados durante la búsqueda por haces en la generación.
- c)
Helsinki-NLP/opus-mt-en-de
Verdadero o Falso
- Verdadero
- Verdadero
- Falso (MarianMT es de código abierto y gratuito.)
- Verdadero
- Falso (T5 realiza resumen abstractivo.)
Preguntas de Respuesta Corta
- La búsqueda por haces explora múltiples secuencias posibles durante la generación y selecciona la salida más probable, mejorando la calidad y fluidez.
Helsinki-NLP/opus-mt-fr-en
- El parámetro
length_penalty
desalienta o fomenta resúmenes más largos. Un valor >1 penaliza las salidas más cortas, mientras que <1 las favorece. - Puedes dividir el texto de entrada en fragmentos más pequeños (por ejemplo, 512 tokens cada uno), resumir cada fragmento individualmente y combinar los resultados.
- Un caso de uso real es la traducción de consultas y respuestas de soporte al cliente para ofrecer asistencia multilingüe en negocios globales.
Este cuestionario evalúa tu comprensión de cómo los modelos basados en transformers, como MarianMT y T5, revolucionan las tareas de traducción automática y resumen. Si encuentras alguna pregunta desafiante, revisa las secciones correspondientes o los ejercicios prácticos para mayor claridad. Sigue experimentando con transformers: ¡estás construyendo una base sólida para aplicaciones avanzadas de PLN!
Clave de Respuestas
Preguntas de Opción Múltiple
- b) Capturan eficientemente dependencias de largo alcance en el texto.
- b)
summarize:
- b) El resumen extractivo selecciona oraciones clave del texto fuente, mientras que el resumen abstractivo genera nuevas oraciones.
- c) El número de haces explorados durante la búsqueda por haces en la generación.
- c)
Helsinki-NLP/opus-mt-en-de
Verdadero o Falso
- Verdadero
- Verdadero
- Falso (MarianMT es de código abierto y gratuito.)
- Verdadero
- Falso (T5 realiza resumen abstractivo.)
Preguntas de Respuesta Corta
- La búsqueda por haces explora múltiples secuencias posibles durante la generación y selecciona la salida más probable, mejorando la calidad y fluidez.
Helsinki-NLP/opus-mt-fr-en
- El parámetro
length_penalty
desalienta o fomenta resúmenes más largos. Un valor >1 penaliza las salidas más cortas, mientras que <1 las favorece. - Puedes dividir el texto de entrada en fragmentos más pequeños (por ejemplo, 512 tokens cada uno), resumir cada fragmento individualmente y combinar los resultados.
- Un caso de uso real es la traducción de consultas y respuestas de soporte al cliente para ofrecer asistencia multilingüe en negocios globales.
Este cuestionario evalúa tu comprensión de cómo los modelos basados en transformers, como MarianMT y T5, revolucionan las tareas de traducción automática y resumen. Si encuentras alguna pregunta desafiante, revisa las secciones correspondientes o los ejercicios prácticos para mayor claridad. Sigue experimentando con transformers: ¡estás construyendo una base sólida para aplicaciones avanzadas de PLN!
Clave de Respuestas
Preguntas de Opción Múltiple
- b) Capturan eficientemente dependencias de largo alcance en el texto.
- b)
summarize:
- b) El resumen extractivo selecciona oraciones clave del texto fuente, mientras que el resumen abstractivo genera nuevas oraciones.
- c) El número de haces explorados durante la búsqueda por haces en la generación.
- c)
Helsinki-NLP/opus-mt-en-de
Verdadero o Falso
- Verdadero
- Verdadero
- Falso (MarianMT es de código abierto y gratuito.)
- Verdadero
- Falso (T5 realiza resumen abstractivo.)
Preguntas de Respuesta Corta
- La búsqueda por haces explora múltiples secuencias posibles durante la generación y selecciona la salida más probable, mejorando la calidad y fluidez.
Helsinki-NLP/opus-mt-fr-en
- El parámetro
length_penalty
desalienta o fomenta resúmenes más largos. Un valor >1 penaliza las salidas más cortas, mientras que <1 las favorece. - Puedes dividir el texto de entrada en fragmentos más pequeños (por ejemplo, 512 tokens cada uno), resumir cada fragmento individualmente y combinar los resultados.
- Un caso de uso real es la traducción de consultas y respuestas de soporte al cliente para ofrecer asistencia multilingüe en negocios globales.
Este cuestionario evalúa tu comprensión de cómo los modelos basados en transformers, como MarianMT y T5, revolucionan las tareas de traducción automática y resumen. Si encuentras alguna pregunta desafiante, revisa las secciones correspondientes o los ejercicios prácticos para mayor claridad. Sigue experimentando con transformers: ¡estás construyendo una base sólida para aplicaciones avanzadas de PLN!
Clave de Respuestas
Preguntas de Opción Múltiple
- b) Capturan eficientemente dependencias de largo alcance en el texto.
- b)
summarize:
- b) El resumen extractivo selecciona oraciones clave del texto fuente, mientras que el resumen abstractivo genera nuevas oraciones.
- c) El número de haces explorados durante la búsqueda por haces en la generación.
- c)
Helsinki-NLP/opus-mt-en-de
Verdadero o Falso
- Verdadero
- Verdadero
- Falso (MarianMT es de código abierto y gratuito.)
- Verdadero
- Falso (T5 realiza resumen abstractivo.)
Preguntas de Respuesta Corta
- La búsqueda por haces explora múltiples secuencias posibles durante la generación y selecciona la salida más probable, mejorando la calidad y fluidez.
Helsinki-NLP/opus-mt-fr-en
- El parámetro
length_penalty
desalienta o fomenta resúmenes más largos. Un valor >1 penaliza las salidas más cortas, mientras que <1 las favorece. - Puedes dividir el texto de entrada en fragmentos más pequeños (por ejemplo, 512 tokens cada uno), resumir cada fragmento individualmente y combinar los resultados.
- Un caso de uso real es la traducción de consultas y respuestas de soporte al cliente para ofrecer asistencia multilingüe en negocios globales.
Este cuestionario evalúa tu comprensión de cómo los modelos basados en transformers, como MarianMT y T5, revolucionan las tareas de traducción automática y resumen. Si encuentras alguna pregunta desafiante, revisa las secciones correspondientes o los ejercicios prácticos para mayor claridad. Sigue experimentando con transformers: ¡estás construyendo una base sólida para aplicaciones avanzadas de PLN!