Menu iconMenu icon
NLP con Transformadores: Técnicas Avanzadas y Aplicaciones Multimodales

Quiz Parte II

Verdadero o Falso

6. La biblioteca Hugging Face Tokenizers es responsable de proporcionar acceso a modelos transformer preentrenados.

Verdadero / Falso

7. El Prefix Tuning mantiene el modelo preentrenado congelado y añade tokens entrenables para guiar el aprendizaje específico de la tarea.

Verdadero / Falso

8. ONNXRuntime se utiliza para realizar el ajuste fino de modelos transformer durante el entrenamiento.

Verdadero / Falso

9. FastAPI es una opción adecuada para construir APIs de nivel producción para modelos transformer.

Verdadero / Falso

10. TensorFlow Lite se utiliza principalmente para optimizar modelos transformer para el despliegue en la nube.

Verdadero / Falso

Verdadero o Falso

6. La biblioteca Hugging Face Tokenizers es responsable de proporcionar acceso a modelos transformer preentrenados.

Verdadero / Falso

7. El Prefix Tuning mantiene el modelo preentrenado congelado y añade tokens entrenables para guiar el aprendizaje específico de la tarea.

Verdadero / Falso

8. ONNXRuntime se utiliza para realizar el ajuste fino de modelos transformer durante el entrenamiento.

Verdadero / Falso

9. FastAPI es una opción adecuada para construir APIs de nivel producción para modelos transformer.

Verdadero / Falso

10. TensorFlow Lite se utiliza principalmente para optimizar modelos transformer para el despliegue en la nube.

Verdadero / Falso

Verdadero o Falso

6. La biblioteca Hugging Face Tokenizers es responsable de proporcionar acceso a modelos transformer preentrenados.

Verdadero / Falso

7. El Prefix Tuning mantiene el modelo preentrenado congelado y añade tokens entrenables para guiar el aprendizaje específico de la tarea.

Verdadero / Falso

8. ONNXRuntime se utiliza para realizar el ajuste fino de modelos transformer durante el entrenamiento.

Verdadero / Falso

9. FastAPI es una opción adecuada para construir APIs de nivel producción para modelos transformer.

Verdadero / Falso

10. TensorFlow Lite se utiliza principalmente para optimizar modelos transformer para el despliegue en la nube.

Verdadero / Falso

Verdadero o Falso

6. La biblioteca Hugging Face Tokenizers es responsable de proporcionar acceso a modelos transformer preentrenados.

Verdadero / Falso

7. El Prefix Tuning mantiene el modelo preentrenado congelado y añade tokens entrenables para guiar el aprendizaje específico de la tarea.

Verdadero / Falso

8. ONNXRuntime se utiliza para realizar el ajuste fino de modelos transformer durante el entrenamiento.

Verdadero / Falso

9. FastAPI es una opción adecuada para construir APIs de nivel producción para modelos transformer.

Verdadero / Falso

10. TensorFlow Lite se utiliza principalmente para optimizar modelos transformer para el despliegue en la nube.

Verdadero / Falso