Menu iconMenu icon
Superhéroe de Aprendizaje Profundo e IA

Capítulo 8: Aprendizaje Automático en la Nube y Computación en el Borde

Resumen del Capítulo 8

En el Capítulo 8, exploramos los conceptos clave para desplegar modelos de machine learning en entornos en la nube y dispositivos edge. El capítulo se centró en cómo la transición de la computación local tradicional a la computación en la nube y en el borde ha transformado la escalabilidad, la eficiencia y la accesibilidad de los sistemas de machine learning. Con la creciente complejidad de los modelos y la necesidad de inferencia en tiempo real, aprovechar los servicios en la nube y desplegar modelos optimizados en dispositivos edge es fundamental para las aplicaciones modernas de IA.

Comenzamos discutiendo el machine learning basado en la nube, que permite a las organizaciones delegar los altos requisitos computacionales del entrenamiento y despliegue de modelos a poderosas plataformas en la nube. Los principales proveedores de servicios en la nube como Amazon Web Services (AWS)Google Cloud Platform (GCP) y Microsoft Azure ofrecen infraestructuras robustas y herramientas que facilitan todo el flujo de trabajo de machine learning, desde el entrenamiento de modelos hasta su despliegue. Estas plataformas permiten a los desarrolladores escalar sus modelos sin esfuerzo, mientras brindan servicios gestionados que manejan grandes conjuntos de datos e inferencia en tiempo real. Por ejemplo, AWS SageMaker y Google AI Platform simplifican el proceso de construcción y despliegue de modelos de machine learning con una configuración mínima. Con estos servicios, los usuarios pueden entrenar modelos en hardware distribuido, optimizarlos para el despliegue y desplegarlos como APIs o servicios escalables.

El capítulo luego se adentró en TensorFlow Lite (TFLite) y ONNX (Open Neural Network Exchange), dos frameworks cruciales diseñados para llevar modelos de machine learning a dispositivos edge con recursos limitados. TensorFlow Lite está orientado a dispositivos móviles y embebidos, permitiendo a los desarrolladores convertir modelos de TensorFlow a un formato ligero que puede desplegarse en smartphones, sensores IoT y otros dispositivos de bajo consumo. ONNX, por otro lado, es un estándar abierto que permite desplegar modelos de múltiples frameworks, como PyTorch y TensorFlow, en diferentes entornos sin problemas. Al optimizar los modelos mediante técnicas como la cuantización, la poda y la destilación, tanto TensorFlow Lite como ONNX permiten una inferencia rápida y eficiente en dispositivos edge.

También examinamos los pasos prácticos para desplegar modelos en AndroidiOS y dispositivos IoT como el Raspberry Pi. Para Android, TensorFlow Lite ofrece el TFLite Interpreter, que se integra fácilmente con aplicaciones Android para ejecutar inferencias en el dispositivo. De manera similar, los modelos de TensorFlow Lite pueden convertirse a Core ML para su despliegue en iOS, permitiendo a los desarrolladores de aplicaciones móviles utilizar modelos de machine learning en sus apps. Además, exploramos cómo ONNX Runtime admite la ejecución de modelos en dispositivos como el Raspberry Pi, lo que habilita potentes aplicaciones de IA en entornos de computación en el borde.

El capítulo concluyó discutiendo las mejores prácticas para desplegar modelos en dispositivos edge, incluyendo aprovechar la aceleración por hardware (p. ej., usando GPUs, NPUs o DSPs), comprimir modelos para una inferencia más rápida y mantener los modelos actualizados con reentrenamiento periódico. Estas prácticas ayudan a garantizar que los modelos funcionen eficientemente sin comprometer la precisión, incluso en entornos con recursos limitados.

En resumen, el Capítulo 8 proporcionó una visión profunda de cómo las plataformas en la nube y los frameworks de computación en el borde como TensorFlow Lite y ONNX permiten a los desarrolladores escalar sus modelos de machine learning para aplicaciones del mundo real. Al comprender estos conceptos, estarás mejor preparado para aprovechar la flexibilidad de la nube y la capacidad de respuesta del edge, permitiendo que la IA se integre en todo, desde dispositivos móviles hasta sistemas IoT.

Resumen del Capítulo 8

En el Capítulo 8, exploramos los conceptos clave para desplegar modelos de machine learning en entornos en la nube y dispositivos edge. El capítulo se centró en cómo la transición de la computación local tradicional a la computación en la nube y en el borde ha transformado la escalabilidad, la eficiencia y la accesibilidad de los sistemas de machine learning. Con la creciente complejidad de los modelos y la necesidad de inferencia en tiempo real, aprovechar los servicios en la nube y desplegar modelos optimizados en dispositivos edge es fundamental para las aplicaciones modernas de IA.

Comenzamos discutiendo el machine learning basado en la nube, que permite a las organizaciones delegar los altos requisitos computacionales del entrenamiento y despliegue de modelos a poderosas plataformas en la nube. Los principales proveedores de servicios en la nube como Amazon Web Services (AWS)Google Cloud Platform (GCP) y Microsoft Azure ofrecen infraestructuras robustas y herramientas que facilitan todo el flujo de trabajo de machine learning, desde el entrenamiento de modelos hasta su despliegue. Estas plataformas permiten a los desarrolladores escalar sus modelos sin esfuerzo, mientras brindan servicios gestionados que manejan grandes conjuntos de datos e inferencia en tiempo real. Por ejemplo, AWS SageMaker y Google AI Platform simplifican el proceso de construcción y despliegue de modelos de machine learning con una configuración mínima. Con estos servicios, los usuarios pueden entrenar modelos en hardware distribuido, optimizarlos para el despliegue y desplegarlos como APIs o servicios escalables.

El capítulo luego se adentró en TensorFlow Lite (TFLite) y ONNX (Open Neural Network Exchange), dos frameworks cruciales diseñados para llevar modelos de machine learning a dispositivos edge con recursos limitados. TensorFlow Lite está orientado a dispositivos móviles y embebidos, permitiendo a los desarrolladores convertir modelos de TensorFlow a un formato ligero que puede desplegarse en smartphones, sensores IoT y otros dispositivos de bajo consumo. ONNX, por otro lado, es un estándar abierto que permite desplegar modelos de múltiples frameworks, como PyTorch y TensorFlow, en diferentes entornos sin problemas. Al optimizar los modelos mediante técnicas como la cuantización, la poda y la destilación, tanto TensorFlow Lite como ONNX permiten una inferencia rápida y eficiente en dispositivos edge.

También examinamos los pasos prácticos para desplegar modelos en AndroidiOS y dispositivos IoT como el Raspberry Pi. Para Android, TensorFlow Lite ofrece el TFLite Interpreter, que se integra fácilmente con aplicaciones Android para ejecutar inferencias en el dispositivo. De manera similar, los modelos de TensorFlow Lite pueden convertirse a Core ML para su despliegue en iOS, permitiendo a los desarrolladores de aplicaciones móviles utilizar modelos de machine learning en sus apps. Además, exploramos cómo ONNX Runtime admite la ejecución de modelos en dispositivos como el Raspberry Pi, lo que habilita potentes aplicaciones de IA en entornos de computación en el borde.

El capítulo concluyó discutiendo las mejores prácticas para desplegar modelos en dispositivos edge, incluyendo aprovechar la aceleración por hardware (p. ej., usando GPUs, NPUs o DSPs), comprimir modelos para una inferencia más rápida y mantener los modelos actualizados con reentrenamiento periódico. Estas prácticas ayudan a garantizar que los modelos funcionen eficientemente sin comprometer la precisión, incluso en entornos con recursos limitados.

En resumen, el Capítulo 8 proporcionó una visión profunda de cómo las plataformas en la nube y los frameworks de computación en el borde como TensorFlow Lite y ONNX permiten a los desarrolladores escalar sus modelos de machine learning para aplicaciones del mundo real. Al comprender estos conceptos, estarás mejor preparado para aprovechar la flexibilidad de la nube y la capacidad de respuesta del edge, permitiendo que la IA se integre en todo, desde dispositivos móviles hasta sistemas IoT.

Resumen del Capítulo 8

En el Capítulo 8, exploramos los conceptos clave para desplegar modelos de machine learning en entornos en la nube y dispositivos edge. El capítulo se centró en cómo la transición de la computación local tradicional a la computación en la nube y en el borde ha transformado la escalabilidad, la eficiencia y la accesibilidad de los sistemas de machine learning. Con la creciente complejidad de los modelos y la necesidad de inferencia en tiempo real, aprovechar los servicios en la nube y desplegar modelos optimizados en dispositivos edge es fundamental para las aplicaciones modernas de IA.

Comenzamos discutiendo el machine learning basado en la nube, que permite a las organizaciones delegar los altos requisitos computacionales del entrenamiento y despliegue de modelos a poderosas plataformas en la nube. Los principales proveedores de servicios en la nube como Amazon Web Services (AWS)Google Cloud Platform (GCP) y Microsoft Azure ofrecen infraestructuras robustas y herramientas que facilitan todo el flujo de trabajo de machine learning, desde el entrenamiento de modelos hasta su despliegue. Estas plataformas permiten a los desarrolladores escalar sus modelos sin esfuerzo, mientras brindan servicios gestionados que manejan grandes conjuntos de datos e inferencia en tiempo real. Por ejemplo, AWS SageMaker y Google AI Platform simplifican el proceso de construcción y despliegue de modelos de machine learning con una configuración mínima. Con estos servicios, los usuarios pueden entrenar modelos en hardware distribuido, optimizarlos para el despliegue y desplegarlos como APIs o servicios escalables.

El capítulo luego se adentró en TensorFlow Lite (TFLite) y ONNX (Open Neural Network Exchange), dos frameworks cruciales diseñados para llevar modelos de machine learning a dispositivos edge con recursos limitados. TensorFlow Lite está orientado a dispositivos móviles y embebidos, permitiendo a los desarrolladores convertir modelos de TensorFlow a un formato ligero que puede desplegarse en smartphones, sensores IoT y otros dispositivos de bajo consumo. ONNX, por otro lado, es un estándar abierto que permite desplegar modelos de múltiples frameworks, como PyTorch y TensorFlow, en diferentes entornos sin problemas. Al optimizar los modelos mediante técnicas como la cuantización, la poda y la destilación, tanto TensorFlow Lite como ONNX permiten una inferencia rápida y eficiente en dispositivos edge.

También examinamos los pasos prácticos para desplegar modelos en AndroidiOS y dispositivos IoT como el Raspberry Pi. Para Android, TensorFlow Lite ofrece el TFLite Interpreter, que se integra fácilmente con aplicaciones Android para ejecutar inferencias en el dispositivo. De manera similar, los modelos de TensorFlow Lite pueden convertirse a Core ML para su despliegue en iOS, permitiendo a los desarrolladores de aplicaciones móviles utilizar modelos de machine learning en sus apps. Además, exploramos cómo ONNX Runtime admite la ejecución de modelos en dispositivos como el Raspberry Pi, lo que habilita potentes aplicaciones de IA en entornos de computación en el borde.

El capítulo concluyó discutiendo las mejores prácticas para desplegar modelos en dispositivos edge, incluyendo aprovechar la aceleración por hardware (p. ej., usando GPUs, NPUs o DSPs), comprimir modelos para una inferencia más rápida y mantener los modelos actualizados con reentrenamiento periódico. Estas prácticas ayudan a garantizar que los modelos funcionen eficientemente sin comprometer la precisión, incluso en entornos con recursos limitados.

En resumen, el Capítulo 8 proporcionó una visión profunda de cómo las plataformas en la nube y los frameworks de computación en el borde como TensorFlow Lite y ONNX permiten a los desarrolladores escalar sus modelos de machine learning para aplicaciones del mundo real. Al comprender estos conceptos, estarás mejor preparado para aprovechar la flexibilidad de la nube y la capacidad de respuesta del edge, permitiendo que la IA se integre en todo, desde dispositivos móviles hasta sistemas IoT.

Resumen del Capítulo 8

En el Capítulo 8, exploramos los conceptos clave para desplegar modelos de machine learning en entornos en la nube y dispositivos edge. El capítulo se centró en cómo la transición de la computación local tradicional a la computación en la nube y en el borde ha transformado la escalabilidad, la eficiencia y la accesibilidad de los sistemas de machine learning. Con la creciente complejidad de los modelos y la necesidad de inferencia en tiempo real, aprovechar los servicios en la nube y desplegar modelos optimizados en dispositivos edge es fundamental para las aplicaciones modernas de IA.

Comenzamos discutiendo el machine learning basado en la nube, que permite a las organizaciones delegar los altos requisitos computacionales del entrenamiento y despliegue de modelos a poderosas plataformas en la nube. Los principales proveedores de servicios en la nube como Amazon Web Services (AWS)Google Cloud Platform (GCP) y Microsoft Azure ofrecen infraestructuras robustas y herramientas que facilitan todo el flujo de trabajo de machine learning, desde el entrenamiento de modelos hasta su despliegue. Estas plataformas permiten a los desarrolladores escalar sus modelos sin esfuerzo, mientras brindan servicios gestionados que manejan grandes conjuntos de datos e inferencia en tiempo real. Por ejemplo, AWS SageMaker y Google AI Platform simplifican el proceso de construcción y despliegue de modelos de machine learning con una configuración mínima. Con estos servicios, los usuarios pueden entrenar modelos en hardware distribuido, optimizarlos para el despliegue y desplegarlos como APIs o servicios escalables.

El capítulo luego se adentró en TensorFlow Lite (TFLite) y ONNX (Open Neural Network Exchange), dos frameworks cruciales diseñados para llevar modelos de machine learning a dispositivos edge con recursos limitados. TensorFlow Lite está orientado a dispositivos móviles y embebidos, permitiendo a los desarrolladores convertir modelos de TensorFlow a un formato ligero que puede desplegarse en smartphones, sensores IoT y otros dispositivos de bajo consumo. ONNX, por otro lado, es un estándar abierto que permite desplegar modelos de múltiples frameworks, como PyTorch y TensorFlow, en diferentes entornos sin problemas. Al optimizar los modelos mediante técnicas como la cuantización, la poda y la destilación, tanto TensorFlow Lite como ONNX permiten una inferencia rápida y eficiente en dispositivos edge.

También examinamos los pasos prácticos para desplegar modelos en AndroidiOS y dispositivos IoT como el Raspberry Pi. Para Android, TensorFlow Lite ofrece el TFLite Interpreter, que se integra fácilmente con aplicaciones Android para ejecutar inferencias en el dispositivo. De manera similar, los modelos de TensorFlow Lite pueden convertirse a Core ML para su despliegue en iOS, permitiendo a los desarrolladores de aplicaciones móviles utilizar modelos de machine learning en sus apps. Además, exploramos cómo ONNX Runtime admite la ejecución de modelos en dispositivos como el Raspberry Pi, lo que habilita potentes aplicaciones de IA en entornos de computación en el borde.

El capítulo concluyó discutiendo las mejores prácticas para desplegar modelos en dispositivos edge, incluyendo aprovechar la aceleración por hardware (p. ej., usando GPUs, NPUs o DSPs), comprimir modelos para una inferencia más rápida y mantener los modelos actualizados con reentrenamiento periódico. Estas prácticas ayudan a garantizar que los modelos funcionen eficientemente sin comprometer la precisión, incluso en entornos con recursos limitados.

En resumen, el Capítulo 8 proporcionó una visión profunda de cómo las plataformas en la nube y los frameworks de computación en el borde como TensorFlow Lite y ONNX permiten a los desarrolladores escalar sus modelos de machine learning para aplicaciones del mundo real. Al comprender estos conceptos, estarás mejor preparado para aprovechar la flexibilidad de la nube y la capacidad de respuesta del edge, permitiendo que la IA se integre en todo, desde dispositivos móviles hasta sistemas IoT.