Menu iconMenu icon
NLP con Transformadores: Fundamentos y Aplicaciones Básicas

Quiz Parte I

Preguntas

Este quiz está diseñado para evaluar tu comprensión de los conceptos cubiertos en la Parte I del libro. Responde las siguientes preguntas basándote en el material de los Capítulos 1, 2 y 3.

Preguntas de Opción Múltiple

  1. ¿Cuál es el objetivo principal del Procesamiento del Lenguaje Natural (NLP)?

a) Crear reglas lingüísticas escritas a mano.

b) Convertir el lenguaje hablado en código binario.

c) Permitir que las máquinas procesen, comprendan y generen lenguaje humano.

d) Imitar la inteligencia humana en todos los aspectos de la vida.

  1. ¿Cuál de las siguientes es una limitación del modelo Bag-of-Words (BoW)?

a) Captura efectivamente dependencias de largo alcance.

b) Ignora el orden y el contexto de las palabras.

c) Asigna incrustaciones dinámicas a cada palabra.

d) Utiliza redes neuronales profundas para el aprendizaje de características.

  1. ¿Qué tipo de aprendizaje se utiliza principalmente en tareas de clasificación de texto?

a) Aprendizaje por refuerzo.

b) Aprendizaje no supervisado.

c) Aprendizaje supervisado.

d) Aprendizaje auto-supervisado.

  1. En una red neuronal, ¿cuál es el propósito de una función de activación como ReLU?

a) Estandarizar los datos de entrada.

b) Introducir no linealidad al modelo.

c) Actualizar los pesos durante la retropropagación.

d) Calcular el gradiente de la función de pérdida.

  1. ¿Cuál es una ventaja clave de las incrustaciones de palabras como Word2Vec sobre representaciones tradicionales como TF-IDF?

a) Representan palabras como vectores one-hot.

b) Capturan relaciones semánticas entre palabras.

c) Requieren ingeniería manual de características.

d) Ignoran el contexto de las palabras.

Preguntas de Verdadero/Falso

  1. Los mecanismos de self-attention permiten que cada token atienda únicamente al token inmediatamente precedente.

Verdadero / Falso

  1. Los mecanismos de atención dispersa reducen la complejidad computacional al limitar las interacciones entre tokens a subconjuntos relevantes.

Verdadero / Falso

  1. Los Transformers dependen completamente de las RNNs para procesar secuencias.

Verdadero / Falso

Preguntas de Respuesta Corta

  1. Explica por qué las RNNs enfrentan desafíos con dependencias de largo alcance.
  2. Describe el papel de los vectores Query, Key y Value en el mecanismo de atención.

Pregunta Basada en Código

  1. Implementa una función simple en Python para calcular la atención escalada por producto punto para un Query, Key y Value dados.

Preguntas

Este quiz está diseñado para evaluar tu comprensión de los conceptos cubiertos en la Parte I del libro. Responde las siguientes preguntas basándote en el material de los Capítulos 1, 2 y 3.

Preguntas de Opción Múltiple

  1. ¿Cuál es el objetivo principal del Procesamiento del Lenguaje Natural (NLP)?

a) Crear reglas lingüísticas escritas a mano.

b) Convertir el lenguaje hablado en código binario.

c) Permitir que las máquinas procesen, comprendan y generen lenguaje humano.

d) Imitar la inteligencia humana en todos los aspectos de la vida.

  1. ¿Cuál de las siguientes es una limitación del modelo Bag-of-Words (BoW)?

a) Captura efectivamente dependencias de largo alcance.

b) Ignora el orden y el contexto de las palabras.

c) Asigna incrustaciones dinámicas a cada palabra.

d) Utiliza redes neuronales profundas para el aprendizaje de características.

  1. ¿Qué tipo de aprendizaje se utiliza principalmente en tareas de clasificación de texto?

a) Aprendizaje por refuerzo.

b) Aprendizaje no supervisado.

c) Aprendizaje supervisado.

d) Aprendizaje auto-supervisado.

  1. En una red neuronal, ¿cuál es el propósito de una función de activación como ReLU?

a) Estandarizar los datos de entrada.

b) Introducir no linealidad al modelo.

c) Actualizar los pesos durante la retropropagación.

d) Calcular el gradiente de la función de pérdida.

  1. ¿Cuál es una ventaja clave de las incrustaciones de palabras como Word2Vec sobre representaciones tradicionales como TF-IDF?

a) Representan palabras como vectores one-hot.

b) Capturan relaciones semánticas entre palabras.

c) Requieren ingeniería manual de características.

d) Ignoran el contexto de las palabras.

Preguntas de Verdadero/Falso

  1. Los mecanismos de self-attention permiten que cada token atienda únicamente al token inmediatamente precedente.

Verdadero / Falso

  1. Los mecanismos de atención dispersa reducen la complejidad computacional al limitar las interacciones entre tokens a subconjuntos relevantes.

Verdadero / Falso

  1. Los Transformers dependen completamente de las RNNs para procesar secuencias.

Verdadero / Falso

Preguntas de Respuesta Corta

  1. Explica por qué las RNNs enfrentan desafíos con dependencias de largo alcance.
  2. Describe el papel de los vectores Query, Key y Value en el mecanismo de atención.

Pregunta Basada en Código

  1. Implementa una función simple en Python para calcular la atención escalada por producto punto para un Query, Key y Value dados.

Preguntas

Este quiz está diseñado para evaluar tu comprensión de los conceptos cubiertos en la Parte I del libro. Responde las siguientes preguntas basándote en el material de los Capítulos 1, 2 y 3.

Preguntas de Opción Múltiple

  1. ¿Cuál es el objetivo principal del Procesamiento del Lenguaje Natural (NLP)?

a) Crear reglas lingüísticas escritas a mano.

b) Convertir el lenguaje hablado en código binario.

c) Permitir que las máquinas procesen, comprendan y generen lenguaje humano.

d) Imitar la inteligencia humana en todos los aspectos de la vida.

  1. ¿Cuál de las siguientes es una limitación del modelo Bag-of-Words (BoW)?

a) Captura efectivamente dependencias de largo alcance.

b) Ignora el orden y el contexto de las palabras.

c) Asigna incrustaciones dinámicas a cada palabra.

d) Utiliza redes neuronales profundas para el aprendizaje de características.

  1. ¿Qué tipo de aprendizaje se utiliza principalmente en tareas de clasificación de texto?

a) Aprendizaje por refuerzo.

b) Aprendizaje no supervisado.

c) Aprendizaje supervisado.

d) Aprendizaje auto-supervisado.

  1. En una red neuronal, ¿cuál es el propósito de una función de activación como ReLU?

a) Estandarizar los datos de entrada.

b) Introducir no linealidad al modelo.

c) Actualizar los pesos durante la retropropagación.

d) Calcular el gradiente de la función de pérdida.

  1. ¿Cuál es una ventaja clave de las incrustaciones de palabras como Word2Vec sobre representaciones tradicionales como TF-IDF?

a) Representan palabras como vectores one-hot.

b) Capturan relaciones semánticas entre palabras.

c) Requieren ingeniería manual de características.

d) Ignoran el contexto de las palabras.

Preguntas de Verdadero/Falso

  1. Los mecanismos de self-attention permiten que cada token atienda únicamente al token inmediatamente precedente.

Verdadero / Falso

  1. Los mecanismos de atención dispersa reducen la complejidad computacional al limitar las interacciones entre tokens a subconjuntos relevantes.

Verdadero / Falso

  1. Los Transformers dependen completamente de las RNNs para procesar secuencias.

Verdadero / Falso

Preguntas de Respuesta Corta

  1. Explica por qué las RNNs enfrentan desafíos con dependencias de largo alcance.
  2. Describe el papel de los vectores Query, Key y Value en el mecanismo de atención.

Pregunta Basada en Código

  1. Implementa una función simple en Python para calcular la atención escalada por producto punto para un Query, Key y Value dados.

Preguntas

Este quiz está diseñado para evaluar tu comprensión de los conceptos cubiertos en la Parte I del libro. Responde las siguientes preguntas basándote en el material de los Capítulos 1, 2 y 3.

Preguntas de Opción Múltiple

  1. ¿Cuál es el objetivo principal del Procesamiento del Lenguaje Natural (NLP)?

a) Crear reglas lingüísticas escritas a mano.

b) Convertir el lenguaje hablado en código binario.

c) Permitir que las máquinas procesen, comprendan y generen lenguaje humano.

d) Imitar la inteligencia humana en todos los aspectos de la vida.

  1. ¿Cuál de las siguientes es una limitación del modelo Bag-of-Words (BoW)?

a) Captura efectivamente dependencias de largo alcance.

b) Ignora el orden y el contexto de las palabras.

c) Asigna incrustaciones dinámicas a cada palabra.

d) Utiliza redes neuronales profundas para el aprendizaje de características.

  1. ¿Qué tipo de aprendizaje se utiliza principalmente en tareas de clasificación de texto?

a) Aprendizaje por refuerzo.

b) Aprendizaje no supervisado.

c) Aprendizaje supervisado.

d) Aprendizaje auto-supervisado.

  1. En una red neuronal, ¿cuál es el propósito de una función de activación como ReLU?

a) Estandarizar los datos de entrada.

b) Introducir no linealidad al modelo.

c) Actualizar los pesos durante la retropropagación.

d) Calcular el gradiente de la función de pérdida.

  1. ¿Cuál es una ventaja clave de las incrustaciones de palabras como Word2Vec sobre representaciones tradicionales como TF-IDF?

a) Representan palabras como vectores one-hot.

b) Capturan relaciones semánticas entre palabras.

c) Requieren ingeniería manual de características.

d) Ignoran el contexto de las palabras.

Preguntas de Verdadero/Falso

  1. Los mecanismos de self-attention permiten que cada token atienda únicamente al token inmediatamente precedente.

Verdadero / Falso

  1. Los mecanismos de atención dispersa reducen la complejidad computacional al limitar las interacciones entre tokens a subconjuntos relevantes.

Verdadero / Falso

  1. Los Transformers dependen completamente de las RNNs para procesar secuencias.

Verdadero / Falso

Preguntas de Respuesta Corta

  1. Explica por qué las RNNs enfrentan desafíos con dependencias de largo alcance.
  2. Describe el papel de los vectores Query, Key y Value en el mecanismo de atención.

Pregunta Basada en Código

  1. Implementa una función simple en Python para calcular la atención escalada por producto punto para un Query, Key y Value dados.