Menu iconMenu icon
Ingeniería de Características para el Aprendizaje Automático Moderno con Scikit-Learn

Cuestionario Parte 2: Integración con Scikit-Learn para la Construcción de Modelos

Preguntas

Este quiz evaluará tu comprensión sobre la ingeniería de características con pipelines, técnicas de mejora de modelos y evaluación avanzada. Cada pregunta está diseñada para reforzar los conceptos clave discutidos en la Parte 2.

Pregunta 1: Pipelines en Scikit-Learn

¿Cuál de las siguientes afirmaciones sobre los pipelines en Scikit-Learn es verdadera?

  • A) Los pipelines aplican cada paso en paralelo para mejorar la eficiencia.
  • B) Los pipelines aseguran que las transformaciones se apliquen consistentemente tanto a los datos de entrenamiento como de prueba.
  • C) Los pipelines no soportan ajuste de hiperparámetros entre pasos individuales.
  • D) Los pipelines están limitados a modelos lineales en Scikit-Learn.

Pregunta 2: FeatureUnion y combinación de transformaciones

¿Cuál es el propósito de usar FeatureUnion en un pipeline?

  • A) Aplicar transformaciones secuenciales a cada característica.
  • B) Combinar múltiples transformaciones aplicadas en paralelo en un solo conjunto de datos.
  • C) Asegurar que las transformaciones de datos se apliquen solo a los datos de entrenamiento.
  • D) Estandarizar los datos antes de dividirlos en entrenamiento y prueba.

Pregunta 3: Eliminación Recursiva de Características (RFE)

¿Cuál de las siguientes describe mejor la Eliminación Recursiva de Características (RFE)?

  • A) Un método para ajustar automáticamente los hiperparámetros para un rendimiento óptimo del modelo.
  • B) Una técnica para seleccionar las características más importantes eliminando recursivamente las menos relevantes.
  • C) Un algoritmo que reduce la complejidad del modelo limitando la profundidad de los árboles de decisión.
  • D) Un método de escalado de características usado para normalizar datos.

Pregunta 4: Uso del Pesado de Clases para Manejar Datos Desequilibrados

¿Cuándo es especialmente beneficioso usar el parámetro class_weight='balanced'?

  • A) Cuando los datos contienen solo características numéricas.
  • B) Cuando todas las clases del conjunto de datos están equilibradas.
  • C) Cuando el conjunto de datos tiene un desequilibrio significativo de clases.
  • D) Cuando se realiza agrupamiento en lugar de clasificación.

Pregunta 5: Beneficios de SMOTE para Conjuntos de Datos Desequilibrados

¿Cuál es una de las principales ventajas de SMOTE para manejar conjuntos de datos desequilibrados?

  • A) Incrementa la precisión de la clase mayoritaria.
  • B) Crea muestras sintéticas duplicando las existentes de la clase minoritaria.
  • C) Genera muestras sintéticas interpolando entre muestras existentes de la clase minoritaria.
  • D) Requiere menos computación que el pesado de clases.

Pregunta 6: Técnicas de Validación Cruzada para Datos de Series Temporales

¿Qué técnica de validación cruzada es más apropiada para datos de series temporales?

  • A) Validación Cruzada con Estratificación (Stratified K-Folds)
  • B) Validación Cruzada con División por Series Temporales (Time-Series Split)
  • C) Validación Cruzada con División Aleatoria (Randomized Split)
  • D) Validación Cruzada con SMOTE

Pregunta 7: Evaluación de Modelos en Datos Desequilibrados

¿Por qué puede ser engañosa la métrica de precisión para evaluar modelos en datos desequilibrados?

  • A) La precisión siempre sobreestima el rendimiento del modelo en datos equilibrados.
  • B) La precisión no tiene en cuenta el sesgo del modelo hacia la clase mayoritaria.
  • C) La precisión solo es útil para problemas de regresión, no de clasificación.
  • D) La precisión es mayor para modelos entrenados en datos secuenciales.

Pregunta 8: Elección de Métricas de Evaluación para Datos Desequilibrados

¿Cuál de las siguientes métricas es más adecuada para evaluar el rendimiento en datos desequilibrados?

  • A) Error Cuadrático Medio (Mean Squared Error)
  • B) Puntaje F1 (F1 Score)
  • C) R-Cuadrado Ajustado (Adjusted R-Squared)
  • D) Error Absoluto Medio (Mean Absolute Error)

Pregunta 9: Combinación de SMOTE con Validación Cruzada

¿Cuál es una consideración clave al usar SMOTE con validación cruzada?

  • A) SMOTE solo debe aplicarse después de la validación cruzada para evitar fugas de datos.
  • B) SMOTE puede aplicarse en cada partición de validación cruzada utilizando un pipeline para equilibrar las clases en cada partición.
  • C) SMOTE no es necesario si se usa un método de validación cruzada equilibrado.
  • D) SMOTE solo se aplica a modelos de regresión, no de clasificación.

Pregunta 10: Aplicación de la Ingeniería de Características en Pipelines

¿Por qué es útil incorporar pasos de ingeniería de características dentro de un pipeline de Scikit-Learn?

  • A) Para estandarizar todos los datos antes de aplicar transformaciones.
  • B) Para asegurar que los pasos de ingeniería de características se apliquen consistentemente tanto en los datos de entrenamiento como de prueba.
  • C) Para permitir la ingeniería de características solo durante el entrenamiento del modelo, no en la predicción.
  • D) Para hacer que el pipeline sea compatible con modelos que no son de Scikit-Learn.

Preguntas

Este quiz evaluará tu comprensión sobre la ingeniería de características con pipelines, técnicas de mejora de modelos y evaluación avanzada. Cada pregunta está diseñada para reforzar los conceptos clave discutidos en la Parte 2.

Pregunta 1: Pipelines en Scikit-Learn

¿Cuál de las siguientes afirmaciones sobre los pipelines en Scikit-Learn es verdadera?

  • A) Los pipelines aplican cada paso en paralelo para mejorar la eficiencia.
  • B) Los pipelines aseguran que las transformaciones se apliquen consistentemente tanto a los datos de entrenamiento como de prueba.
  • C) Los pipelines no soportan ajuste de hiperparámetros entre pasos individuales.
  • D) Los pipelines están limitados a modelos lineales en Scikit-Learn.

Pregunta 2: FeatureUnion y combinación de transformaciones

¿Cuál es el propósito de usar FeatureUnion en un pipeline?

  • A) Aplicar transformaciones secuenciales a cada característica.
  • B) Combinar múltiples transformaciones aplicadas en paralelo en un solo conjunto de datos.
  • C) Asegurar que las transformaciones de datos se apliquen solo a los datos de entrenamiento.
  • D) Estandarizar los datos antes de dividirlos en entrenamiento y prueba.

Pregunta 3: Eliminación Recursiva de Características (RFE)

¿Cuál de las siguientes describe mejor la Eliminación Recursiva de Características (RFE)?

  • A) Un método para ajustar automáticamente los hiperparámetros para un rendimiento óptimo del modelo.
  • B) Una técnica para seleccionar las características más importantes eliminando recursivamente las menos relevantes.
  • C) Un algoritmo que reduce la complejidad del modelo limitando la profundidad de los árboles de decisión.
  • D) Un método de escalado de características usado para normalizar datos.

Pregunta 4: Uso del Pesado de Clases para Manejar Datos Desequilibrados

¿Cuándo es especialmente beneficioso usar el parámetro class_weight='balanced'?

  • A) Cuando los datos contienen solo características numéricas.
  • B) Cuando todas las clases del conjunto de datos están equilibradas.
  • C) Cuando el conjunto de datos tiene un desequilibrio significativo de clases.
  • D) Cuando se realiza agrupamiento en lugar de clasificación.

Pregunta 5: Beneficios de SMOTE para Conjuntos de Datos Desequilibrados

¿Cuál es una de las principales ventajas de SMOTE para manejar conjuntos de datos desequilibrados?

  • A) Incrementa la precisión de la clase mayoritaria.
  • B) Crea muestras sintéticas duplicando las existentes de la clase minoritaria.
  • C) Genera muestras sintéticas interpolando entre muestras existentes de la clase minoritaria.
  • D) Requiere menos computación que el pesado de clases.

Pregunta 6: Técnicas de Validación Cruzada para Datos de Series Temporales

¿Qué técnica de validación cruzada es más apropiada para datos de series temporales?

  • A) Validación Cruzada con Estratificación (Stratified K-Folds)
  • B) Validación Cruzada con División por Series Temporales (Time-Series Split)
  • C) Validación Cruzada con División Aleatoria (Randomized Split)
  • D) Validación Cruzada con SMOTE

Pregunta 7: Evaluación de Modelos en Datos Desequilibrados

¿Por qué puede ser engañosa la métrica de precisión para evaluar modelos en datos desequilibrados?

  • A) La precisión siempre sobreestima el rendimiento del modelo en datos equilibrados.
  • B) La precisión no tiene en cuenta el sesgo del modelo hacia la clase mayoritaria.
  • C) La precisión solo es útil para problemas de regresión, no de clasificación.
  • D) La precisión es mayor para modelos entrenados en datos secuenciales.

Pregunta 8: Elección de Métricas de Evaluación para Datos Desequilibrados

¿Cuál de las siguientes métricas es más adecuada para evaluar el rendimiento en datos desequilibrados?

  • A) Error Cuadrático Medio (Mean Squared Error)
  • B) Puntaje F1 (F1 Score)
  • C) R-Cuadrado Ajustado (Adjusted R-Squared)
  • D) Error Absoluto Medio (Mean Absolute Error)

Pregunta 9: Combinación de SMOTE con Validación Cruzada

¿Cuál es una consideración clave al usar SMOTE con validación cruzada?

  • A) SMOTE solo debe aplicarse después de la validación cruzada para evitar fugas de datos.
  • B) SMOTE puede aplicarse en cada partición de validación cruzada utilizando un pipeline para equilibrar las clases en cada partición.
  • C) SMOTE no es necesario si se usa un método de validación cruzada equilibrado.
  • D) SMOTE solo se aplica a modelos de regresión, no de clasificación.

Pregunta 10: Aplicación de la Ingeniería de Características en Pipelines

¿Por qué es útil incorporar pasos de ingeniería de características dentro de un pipeline de Scikit-Learn?

  • A) Para estandarizar todos los datos antes de aplicar transformaciones.
  • B) Para asegurar que los pasos de ingeniería de características se apliquen consistentemente tanto en los datos de entrenamiento como de prueba.
  • C) Para permitir la ingeniería de características solo durante el entrenamiento del modelo, no en la predicción.
  • D) Para hacer que el pipeline sea compatible con modelos que no son de Scikit-Learn.

Preguntas

Este quiz evaluará tu comprensión sobre la ingeniería de características con pipelines, técnicas de mejora de modelos y evaluación avanzada. Cada pregunta está diseñada para reforzar los conceptos clave discutidos en la Parte 2.

Pregunta 1: Pipelines en Scikit-Learn

¿Cuál de las siguientes afirmaciones sobre los pipelines en Scikit-Learn es verdadera?

  • A) Los pipelines aplican cada paso en paralelo para mejorar la eficiencia.
  • B) Los pipelines aseguran que las transformaciones se apliquen consistentemente tanto a los datos de entrenamiento como de prueba.
  • C) Los pipelines no soportan ajuste de hiperparámetros entre pasos individuales.
  • D) Los pipelines están limitados a modelos lineales en Scikit-Learn.

Pregunta 2: FeatureUnion y combinación de transformaciones

¿Cuál es el propósito de usar FeatureUnion en un pipeline?

  • A) Aplicar transformaciones secuenciales a cada característica.
  • B) Combinar múltiples transformaciones aplicadas en paralelo en un solo conjunto de datos.
  • C) Asegurar que las transformaciones de datos se apliquen solo a los datos de entrenamiento.
  • D) Estandarizar los datos antes de dividirlos en entrenamiento y prueba.

Pregunta 3: Eliminación Recursiva de Características (RFE)

¿Cuál de las siguientes describe mejor la Eliminación Recursiva de Características (RFE)?

  • A) Un método para ajustar automáticamente los hiperparámetros para un rendimiento óptimo del modelo.
  • B) Una técnica para seleccionar las características más importantes eliminando recursivamente las menos relevantes.
  • C) Un algoritmo que reduce la complejidad del modelo limitando la profundidad de los árboles de decisión.
  • D) Un método de escalado de características usado para normalizar datos.

Pregunta 4: Uso del Pesado de Clases para Manejar Datos Desequilibrados

¿Cuándo es especialmente beneficioso usar el parámetro class_weight='balanced'?

  • A) Cuando los datos contienen solo características numéricas.
  • B) Cuando todas las clases del conjunto de datos están equilibradas.
  • C) Cuando el conjunto de datos tiene un desequilibrio significativo de clases.
  • D) Cuando se realiza agrupamiento en lugar de clasificación.

Pregunta 5: Beneficios de SMOTE para Conjuntos de Datos Desequilibrados

¿Cuál es una de las principales ventajas de SMOTE para manejar conjuntos de datos desequilibrados?

  • A) Incrementa la precisión de la clase mayoritaria.
  • B) Crea muestras sintéticas duplicando las existentes de la clase minoritaria.
  • C) Genera muestras sintéticas interpolando entre muestras existentes de la clase minoritaria.
  • D) Requiere menos computación que el pesado de clases.

Pregunta 6: Técnicas de Validación Cruzada para Datos de Series Temporales

¿Qué técnica de validación cruzada es más apropiada para datos de series temporales?

  • A) Validación Cruzada con Estratificación (Stratified K-Folds)
  • B) Validación Cruzada con División por Series Temporales (Time-Series Split)
  • C) Validación Cruzada con División Aleatoria (Randomized Split)
  • D) Validación Cruzada con SMOTE

Pregunta 7: Evaluación de Modelos en Datos Desequilibrados

¿Por qué puede ser engañosa la métrica de precisión para evaluar modelos en datos desequilibrados?

  • A) La precisión siempre sobreestima el rendimiento del modelo en datos equilibrados.
  • B) La precisión no tiene en cuenta el sesgo del modelo hacia la clase mayoritaria.
  • C) La precisión solo es útil para problemas de regresión, no de clasificación.
  • D) La precisión es mayor para modelos entrenados en datos secuenciales.

Pregunta 8: Elección de Métricas de Evaluación para Datos Desequilibrados

¿Cuál de las siguientes métricas es más adecuada para evaluar el rendimiento en datos desequilibrados?

  • A) Error Cuadrático Medio (Mean Squared Error)
  • B) Puntaje F1 (F1 Score)
  • C) R-Cuadrado Ajustado (Adjusted R-Squared)
  • D) Error Absoluto Medio (Mean Absolute Error)

Pregunta 9: Combinación de SMOTE con Validación Cruzada

¿Cuál es una consideración clave al usar SMOTE con validación cruzada?

  • A) SMOTE solo debe aplicarse después de la validación cruzada para evitar fugas de datos.
  • B) SMOTE puede aplicarse en cada partición de validación cruzada utilizando un pipeline para equilibrar las clases en cada partición.
  • C) SMOTE no es necesario si se usa un método de validación cruzada equilibrado.
  • D) SMOTE solo se aplica a modelos de regresión, no de clasificación.

Pregunta 10: Aplicación de la Ingeniería de Características en Pipelines

¿Por qué es útil incorporar pasos de ingeniería de características dentro de un pipeline de Scikit-Learn?

  • A) Para estandarizar todos los datos antes de aplicar transformaciones.
  • B) Para asegurar que los pasos de ingeniería de características se apliquen consistentemente tanto en los datos de entrenamiento como de prueba.
  • C) Para permitir la ingeniería de características solo durante el entrenamiento del modelo, no en la predicción.
  • D) Para hacer que el pipeline sea compatible con modelos que no son de Scikit-Learn.

Preguntas

Este quiz evaluará tu comprensión sobre la ingeniería de características con pipelines, técnicas de mejora de modelos y evaluación avanzada. Cada pregunta está diseñada para reforzar los conceptos clave discutidos en la Parte 2.

Pregunta 1: Pipelines en Scikit-Learn

¿Cuál de las siguientes afirmaciones sobre los pipelines en Scikit-Learn es verdadera?

  • A) Los pipelines aplican cada paso en paralelo para mejorar la eficiencia.
  • B) Los pipelines aseguran que las transformaciones se apliquen consistentemente tanto a los datos de entrenamiento como de prueba.
  • C) Los pipelines no soportan ajuste de hiperparámetros entre pasos individuales.
  • D) Los pipelines están limitados a modelos lineales en Scikit-Learn.

Pregunta 2: FeatureUnion y combinación de transformaciones

¿Cuál es el propósito de usar FeatureUnion en un pipeline?

  • A) Aplicar transformaciones secuenciales a cada característica.
  • B) Combinar múltiples transformaciones aplicadas en paralelo en un solo conjunto de datos.
  • C) Asegurar que las transformaciones de datos se apliquen solo a los datos de entrenamiento.
  • D) Estandarizar los datos antes de dividirlos en entrenamiento y prueba.

Pregunta 3: Eliminación Recursiva de Características (RFE)

¿Cuál de las siguientes describe mejor la Eliminación Recursiva de Características (RFE)?

  • A) Un método para ajustar automáticamente los hiperparámetros para un rendimiento óptimo del modelo.
  • B) Una técnica para seleccionar las características más importantes eliminando recursivamente las menos relevantes.
  • C) Un algoritmo que reduce la complejidad del modelo limitando la profundidad de los árboles de decisión.
  • D) Un método de escalado de características usado para normalizar datos.

Pregunta 4: Uso del Pesado de Clases para Manejar Datos Desequilibrados

¿Cuándo es especialmente beneficioso usar el parámetro class_weight='balanced'?

  • A) Cuando los datos contienen solo características numéricas.
  • B) Cuando todas las clases del conjunto de datos están equilibradas.
  • C) Cuando el conjunto de datos tiene un desequilibrio significativo de clases.
  • D) Cuando se realiza agrupamiento en lugar de clasificación.

Pregunta 5: Beneficios de SMOTE para Conjuntos de Datos Desequilibrados

¿Cuál es una de las principales ventajas de SMOTE para manejar conjuntos de datos desequilibrados?

  • A) Incrementa la precisión de la clase mayoritaria.
  • B) Crea muestras sintéticas duplicando las existentes de la clase minoritaria.
  • C) Genera muestras sintéticas interpolando entre muestras existentes de la clase minoritaria.
  • D) Requiere menos computación que el pesado de clases.

Pregunta 6: Técnicas de Validación Cruzada para Datos de Series Temporales

¿Qué técnica de validación cruzada es más apropiada para datos de series temporales?

  • A) Validación Cruzada con Estratificación (Stratified K-Folds)
  • B) Validación Cruzada con División por Series Temporales (Time-Series Split)
  • C) Validación Cruzada con División Aleatoria (Randomized Split)
  • D) Validación Cruzada con SMOTE

Pregunta 7: Evaluación de Modelos en Datos Desequilibrados

¿Por qué puede ser engañosa la métrica de precisión para evaluar modelos en datos desequilibrados?

  • A) La precisión siempre sobreestima el rendimiento del modelo en datos equilibrados.
  • B) La precisión no tiene en cuenta el sesgo del modelo hacia la clase mayoritaria.
  • C) La precisión solo es útil para problemas de regresión, no de clasificación.
  • D) La precisión es mayor para modelos entrenados en datos secuenciales.

Pregunta 8: Elección de Métricas de Evaluación para Datos Desequilibrados

¿Cuál de las siguientes métricas es más adecuada para evaluar el rendimiento en datos desequilibrados?

  • A) Error Cuadrático Medio (Mean Squared Error)
  • B) Puntaje F1 (F1 Score)
  • C) R-Cuadrado Ajustado (Adjusted R-Squared)
  • D) Error Absoluto Medio (Mean Absolute Error)

Pregunta 9: Combinación de SMOTE con Validación Cruzada

¿Cuál es una consideración clave al usar SMOTE con validación cruzada?

  • A) SMOTE solo debe aplicarse después de la validación cruzada para evitar fugas de datos.
  • B) SMOTE puede aplicarse en cada partición de validación cruzada utilizando un pipeline para equilibrar las clases en cada partición.
  • C) SMOTE no es necesario si se usa un método de validación cruzada equilibrado.
  • D) SMOTE solo se aplica a modelos de regresión, no de clasificación.

Pregunta 10: Aplicación de la Ingeniería de Características en Pipelines

¿Por qué es útil incorporar pasos de ingeniería de características dentro de un pipeline de Scikit-Learn?

  • A) Para estandarizar todos los datos antes de aplicar transformaciones.
  • B) Para asegurar que los pasos de ingeniería de características se apliquen consistentemente tanto en los datos de entrenamiento como de prueba.
  • C) Para permitir la ingeniería de características solo durante el entrenamiento del modelo, no en la predicción.
  • D) Para hacer que el pipeline sea compatible con modelos que no son de Scikit-Learn.