Proyecto 1: Traducción automática con MarianMT
Implementación Base del Proyecto
La traducción automática (TA) representa una aplicación revolucionaria dentro del Procesamiento del Lenguaje Natural (PLN) que ha transformado la comunicación global. Al convertir automáticamente texto de un idioma a otro, los sistemas de TA eliminan las barreras lingüísticas y fomentan la colaboración internacional. Esta tecnología se ha vuelto cada vez más sofisticada, permitiendo capacidades de traducción en tiempo real que antes se consideraban imposibles. En este proyecto, profundizaremos en la implementación de traducción automática utilizando MarianMT, un modelo de traducción neuronal de última generación que aprovecha el poder de la biblioteca Transformers de Hugging Face.
MarianMT destaca en el campo de la traducción neuronal automática por varias razones convincentes. Su arquitectura está específicamente optimizada para la eficiencia de procesamiento y la precisión de traducción, lo que le permite manejar patrones lingüísticos complejos y matices a través de diversos pares de idiomas. El modelo fue desarrollado por el grupo Marian NMT, un equipo de investigadores dedicados a avanzar en la tecnología de traducción de código abierto. Su naturaleza de código abierto, combinada con una documentación exhaustiva y el apoyo de la comunidad, lo ha convertido en un recurso invaluable tanto para la investigación académica como para aplicaciones comerciales. La eficiencia del modelo es particularmente notable, ya que logra traducciones de alta calidad mientras mantiene requisitos computacionales razonables.
Objetivos del Proyecto
Este proyecto integral te guiará a través de varios objetivos de aprendizaje clave:
- Dominar los fundamentos de la implementación de MarianMT, incluyendo la comprensión de su arquitectura, principios de funcionamiento y cómo utilizarlo eficazmente para traducir contenido entre múltiples pares de idiomas. Aprenderás sobre los mecanismos internos del modelo y cómo contribuyen a traducciones precisas.
- Desarrollar habilidades prácticas en el trabajo con la biblioteca Transformers, centrándose en la carga y configuración de modelos MarianMT preentrenados y sus tokenizadores correspondientes. Esto incluye comprender el versionado de modelos, manejar diferentes configuraciones de idiomas y gestionar parámetros del modelo para un rendimiento óptimo.
- Desarrollar experiencia en el procesamiento y gestión de conjuntos de datos multilingües, incluyendo técnicas de preparación, limpieza y validación de datos. Aprenderás sobre desafíos comunes en el manejo de datos multilingües y estrategias para superarlos eficazmente.
- Descubrir e implementar técnicas avanzadas de personalización para flujos de trabajo de traducción, incluyendo procesamiento por lotes, manejo de errores y estrategias de optimización para diferentes casos de uso. También aprenderás cómo evaluar la calidad de la traducción y realizar los ajustes necesarios.
Este proyecto sirve como base esencial para profesionales y entusiastas que desean implementar soluciones prácticas de traducción automática. Ya sea que estés interesado en desarrollar aplicaciones multilingües para localización de contenido, crear sistemas de traducción automatizada para artículos de investigación académica o construir chatbots multilingües sofisticados, las habilidades que adquirirás serán directamente aplicables a escenarios del mundo real.
El enfoque práctico del proyecto asegura que no solo comprenderás los aspectos teóricos, sino que también obtendrás experiencia práctica en la implementación y despliegue de soluciones de traducción automática.
pip install transformers
from transformers import MarianMTModel, MarianTokenizer
import torch
import time
def initialize_translation_model(source_lang="en", target_lang="fr"):
"""
Initialize the MarianMT model and tokenizer for specified language pair
Args:
source_lang (str): Source language code
target_lang (str): Target language code
Returns:
tuple: (tokenizer, model)
"""
model_name = f"Helsinki-NLP/opus-mt-{source_lang}-{target_lang}"
try:
# Load tokenizer and model with error handling
tokenizer = MarianTokenizer.from_pretrained(model_name)
model = MarianMTModel.from_pretrained(model_name)
# Move model to GPU if available
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
print(f"Model loaded successfully on {device}")
return tokenizer, model
except Exception as e:
print(f"Error loading model: {str(e)}")
return None, None
def translate_text(text, tokenizer, model, max_length=128):
"""
Translate text using the loaded model
Args:
text (str or list): Text to translate
tokenizer: MarianTokenizer instance
model: MarianMTModel instance
max_length (int): Maximum length of generated translation
Returns:
list: Translated text(s)
"""
# Convert single string to list for batch processing
if isinstance(text, str):
text = [text]
try:
# Tokenize with padding and attention mask
inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True, max_length=max_length)
# Move inputs to same device as model
inputs = {k: v.to(model.device) for k, v in inputs.items()}
# Generate translation with beam search
start_time = time.time()
outputs = model.generate(
**inputs,
max_length=max_length,
num_beams=4,
length_penalty=0.6,
early_stopping=True
)
translation_time = time.time() - start_time
# Decode translations
translations = [tokenizer.decode(t, skip_special_tokens=True) for t in outputs]
print(f"Translation completed in {translation_time:.2f} seconds")
return translations
except Exception as e:
print(f"Translation error: {str(e)}")
return None
# Initialize the model
tokenizer, model = initialize_translation_model()
# Example usage with multiple sentences
texts = [
"Hello, how are you?",
"Machine translation is fascinating.",
"This is a comprehensive example."
]
if tokenizer and model:
translations = translate_text(texts, tokenizer, model)
# Print results
for original, translated in zip(texts, translations):
print(f"\nOriginal: {original}")
print(f"Translated: {translated}")
Explicación del Desglose del Código:
- Inicialización del Modelo
- El código define una función
initialize_translation_model()
que maneja la configuración del modelo - Incluye detección automática de GPU para mejor rendimiento
- Implementa manejo de errores para uso robusto en producción
- El código define una función
- Función de Traducción
- La función
translate_text()
admite tanto cadenas individuales como lotes - Incluye cronometraje de rendimiento y manejo de errores
- Utiliza búsqueda por haz para mejor calidad de traducción
- La función
- Características Avanzadas
- Longitud máxima configurable para traducciones
- Capacidad de procesamiento por lotes para múltiples oraciones
- Gestión eficiente de memoria con manejo apropiado de dispositivos
- Elementos Listos para Producción
- Manejo integral de errores en todo el proceso
- Monitoreo de rendimiento con mediciones de tiempo
- Manejo flexible de entrada (cadena individual o lista de cadenas)
Implementación Base del Proyecto
La traducción automática (TA) representa una aplicación revolucionaria dentro del Procesamiento del Lenguaje Natural (PLN) que ha transformado la comunicación global. Al convertir automáticamente texto de un idioma a otro, los sistemas de TA eliminan las barreras lingüísticas y fomentan la colaboración internacional. Esta tecnología se ha vuelto cada vez más sofisticada, permitiendo capacidades de traducción en tiempo real que antes se consideraban imposibles. En este proyecto, profundizaremos en la implementación de traducción automática utilizando MarianMT, un modelo de traducción neuronal de última generación que aprovecha el poder de la biblioteca Transformers de Hugging Face.
MarianMT destaca en el campo de la traducción neuronal automática por varias razones convincentes. Su arquitectura está específicamente optimizada para la eficiencia de procesamiento y la precisión de traducción, lo que le permite manejar patrones lingüísticos complejos y matices a través de diversos pares de idiomas. El modelo fue desarrollado por el grupo Marian NMT, un equipo de investigadores dedicados a avanzar en la tecnología de traducción de código abierto. Su naturaleza de código abierto, combinada con una documentación exhaustiva y el apoyo de la comunidad, lo ha convertido en un recurso invaluable tanto para la investigación académica como para aplicaciones comerciales. La eficiencia del modelo es particularmente notable, ya que logra traducciones de alta calidad mientras mantiene requisitos computacionales razonables.
Objetivos del Proyecto
Este proyecto integral te guiará a través de varios objetivos de aprendizaje clave:
- Dominar los fundamentos de la implementación de MarianMT, incluyendo la comprensión de su arquitectura, principios de funcionamiento y cómo utilizarlo eficazmente para traducir contenido entre múltiples pares de idiomas. Aprenderás sobre los mecanismos internos del modelo y cómo contribuyen a traducciones precisas.
- Desarrollar habilidades prácticas en el trabajo con la biblioteca Transformers, centrándose en la carga y configuración de modelos MarianMT preentrenados y sus tokenizadores correspondientes. Esto incluye comprender el versionado de modelos, manejar diferentes configuraciones de idiomas y gestionar parámetros del modelo para un rendimiento óptimo.
- Desarrollar experiencia en el procesamiento y gestión de conjuntos de datos multilingües, incluyendo técnicas de preparación, limpieza y validación de datos. Aprenderás sobre desafíos comunes en el manejo de datos multilingües y estrategias para superarlos eficazmente.
- Descubrir e implementar técnicas avanzadas de personalización para flujos de trabajo de traducción, incluyendo procesamiento por lotes, manejo de errores y estrategias de optimización para diferentes casos de uso. También aprenderás cómo evaluar la calidad de la traducción y realizar los ajustes necesarios.
Este proyecto sirve como base esencial para profesionales y entusiastas que desean implementar soluciones prácticas de traducción automática. Ya sea que estés interesado en desarrollar aplicaciones multilingües para localización de contenido, crear sistemas de traducción automatizada para artículos de investigación académica o construir chatbots multilingües sofisticados, las habilidades que adquirirás serán directamente aplicables a escenarios del mundo real.
El enfoque práctico del proyecto asegura que no solo comprenderás los aspectos teóricos, sino que también obtendrás experiencia práctica en la implementación y despliegue de soluciones de traducción automática.
pip install transformers
from transformers import MarianMTModel, MarianTokenizer
import torch
import time
def initialize_translation_model(source_lang="en", target_lang="fr"):
"""
Initialize the MarianMT model and tokenizer for specified language pair
Args:
source_lang (str): Source language code
target_lang (str): Target language code
Returns:
tuple: (tokenizer, model)
"""
model_name = f"Helsinki-NLP/opus-mt-{source_lang}-{target_lang}"
try:
# Load tokenizer and model with error handling
tokenizer = MarianTokenizer.from_pretrained(model_name)
model = MarianMTModel.from_pretrained(model_name)
# Move model to GPU if available
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
print(f"Model loaded successfully on {device}")
return tokenizer, model
except Exception as e:
print(f"Error loading model: {str(e)}")
return None, None
def translate_text(text, tokenizer, model, max_length=128):
"""
Translate text using the loaded model
Args:
text (str or list): Text to translate
tokenizer: MarianTokenizer instance
model: MarianMTModel instance
max_length (int): Maximum length of generated translation
Returns:
list: Translated text(s)
"""
# Convert single string to list for batch processing
if isinstance(text, str):
text = [text]
try:
# Tokenize with padding and attention mask
inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True, max_length=max_length)
# Move inputs to same device as model
inputs = {k: v.to(model.device) for k, v in inputs.items()}
# Generate translation with beam search
start_time = time.time()
outputs = model.generate(
**inputs,
max_length=max_length,
num_beams=4,
length_penalty=0.6,
early_stopping=True
)
translation_time = time.time() - start_time
# Decode translations
translations = [tokenizer.decode(t, skip_special_tokens=True) for t in outputs]
print(f"Translation completed in {translation_time:.2f} seconds")
return translations
except Exception as e:
print(f"Translation error: {str(e)}")
return None
# Initialize the model
tokenizer, model = initialize_translation_model()
# Example usage with multiple sentences
texts = [
"Hello, how are you?",
"Machine translation is fascinating.",
"This is a comprehensive example."
]
if tokenizer and model:
translations = translate_text(texts, tokenizer, model)
# Print results
for original, translated in zip(texts, translations):
print(f"\nOriginal: {original}")
print(f"Translated: {translated}")
Explicación del Desglose del Código:
- Inicialización del Modelo
- El código define una función
initialize_translation_model()
que maneja la configuración del modelo - Incluye detección automática de GPU para mejor rendimiento
- Implementa manejo de errores para uso robusto en producción
- El código define una función
- Función de Traducción
- La función
translate_text()
admite tanto cadenas individuales como lotes - Incluye cronometraje de rendimiento y manejo de errores
- Utiliza búsqueda por haz para mejor calidad de traducción
- La función
- Características Avanzadas
- Longitud máxima configurable para traducciones
- Capacidad de procesamiento por lotes para múltiples oraciones
- Gestión eficiente de memoria con manejo apropiado de dispositivos
- Elementos Listos para Producción
- Manejo integral de errores en todo el proceso
- Monitoreo de rendimiento con mediciones de tiempo
- Manejo flexible de entrada (cadena individual o lista de cadenas)
Implementación Base del Proyecto
La traducción automática (TA) representa una aplicación revolucionaria dentro del Procesamiento del Lenguaje Natural (PLN) que ha transformado la comunicación global. Al convertir automáticamente texto de un idioma a otro, los sistemas de TA eliminan las barreras lingüísticas y fomentan la colaboración internacional. Esta tecnología se ha vuelto cada vez más sofisticada, permitiendo capacidades de traducción en tiempo real que antes se consideraban imposibles. En este proyecto, profundizaremos en la implementación de traducción automática utilizando MarianMT, un modelo de traducción neuronal de última generación que aprovecha el poder de la biblioteca Transformers de Hugging Face.
MarianMT destaca en el campo de la traducción neuronal automática por varias razones convincentes. Su arquitectura está específicamente optimizada para la eficiencia de procesamiento y la precisión de traducción, lo que le permite manejar patrones lingüísticos complejos y matices a través de diversos pares de idiomas. El modelo fue desarrollado por el grupo Marian NMT, un equipo de investigadores dedicados a avanzar en la tecnología de traducción de código abierto. Su naturaleza de código abierto, combinada con una documentación exhaustiva y el apoyo de la comunidad, lo ha convertido en un recurso invaluable tanto para la investigación académica como para aplicaciones comerciales. La eficiencia del modelo es particularmente notable, ya que logra traducciones de alta calidad mientras mantiene requisitos computacionales razonables.
Objetivos del Proyecto
Este proyecto integral te guiará a través de varios objetivos de aprendizaje clave:
- Dominar los fundamentos de la implementación de MarianMT, incluyendo la comprensión de su arquitectura, principios de funcionamiento y cómo utilizarlo eficazmente para traducir contenido entre múltiples pares de idiomas. Aprenderás sobre los mecanismos internos del modelo y cómo contribuyen a traducciones precisas.
- Desarrollar habilidades prácticas en el trabajo con la biblioteca Transformers, centrándose en la carga y configuración de modelos MarianMT preentrenados y sus tokenizadores correspondientes. Esto incluye comprender el versionado de modelos, manejar diferentes configuraciones de idiomas y gestionar parámetros del modelo para un rendimiento óptimo.
- Desarrollar experiencia en el procesamiento y gestión de conjuntos de datos multilingües, incluyendo técnicas de preparación, limpieza y validación de datos. Aprenderás sobre desafíos comunes en el manejo de datos multilingües y estrategias para superarlos eficazmente.
- Descubrir e implementar técnicas avanzadas de personalización para flujos de trabajo de traducción, incluyendo procesamiento por lotes, manejo de errores y estrategias de optimización para diferentes casos de uso. También aprenderás cómo evaluar la calidad de la traducción y realizar los ajustes necesarios.
Este proyecto sirve como base esencial para profesionales y entusiastas que desean implementar soluciones prácticas de traducción automática. Ya sea que estés interesado en desarrollar aplicaciones multilingües para localización de contenido, crear sistemas de traducción automatizada para artículos de investigación académica o construir chatbots multilingües sofisticados, las habilidades que adquirirás serán directamente aplicables a escenarios del mundo real.
El enfoque práctico del proyecto asegura que no solo comprenderás los aspectos teóricos, sino que también obtendrás experiencia práctica en la implementación y despliegue de soluciones de traducción automática.
pip install transformers
from transformers import MarianMTModel, MarianTokenizer
import torch
import time
def initialize_translation_model(source_lang="en", target_lang="fr"):
"""
Initialize the MarianMT model and tokenizer for specified language pair
Args:
source_lang (str): Source language code
target_lang (str): Target language code
Returns:
tuple: (tokenizer, model)
"""
model_name = f"Helsinki-NLP/opus-mt-{source_lang}-{target_lang}"
try:
# Load tokenizer and model with error handling
tokenizer = MarianTokenizer.from_pretrained(model_name)
model = MarianMTModel.from_pretrained(model_name)
# Move model to GPU if available
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
print(f"Model loaded successfully on {device}")
return tokenizer, model
except Exception as e:
print(f"Error loading model: {str(e)}")
return None, None
def translate_text(text, tokenizer, model, max_length=128):
"""
Translate text using the loaded model
Args:
text (str or list): Text to translate
tokenizer: MarianTokenizer instance
model: MarianMTModel instance
max_length (int): Maximum length of generated translation
Returns:
list: Translated text(s)
"""
# Convert single string to list for batch processing
if isinstance(text, str):
text = [text]
try:
# Tokenize with padding and attention mask
inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True, max_length=max_length)
# Move inputs to same device as model
inputs = {k: v.to(model.device) for k, v in inputs.items()}
# Generate translation with beam search
start_time = time.time()
outputs = model.generate(
**inputs,
max_length=max_length,
num_beams=4,
length_penalty=0.6,
early_stopping=True
)
translation_time = time.time() - start_time
# Decode translations
translations = [tokenizer.decode(t, skip_special_tokens=True) for t in outputs]
print(f"Translation completed in {translation_time:.2f} seconds")
return translations
except Exception as e:
print(f"Translation error: {str(e)}")
return None
# Initialize the model
tokenizer, model = initialize_translation_model()
# Example usage with multiple sentences
texts = [
"Hello, how are you?",
"Machine translation is fascinating.",
"This is a comprehensive example."
]
if tokenizer and model:
translations = translate_text(texts, tokenizer, model)
# Print results
for original, translated in zip(texts, translations):
print(f"\nOriginal: {original}")
print(f"Translated: {translated}")
Explicación del Desglose del Código:
- Inicialización del Modelo
- El código define una función
initialize_translation_model()
que maneja la configuración del modelo - Incluye detección automática de GPU para mejor rendimiento
- Implementa manejo de errores para uso robusto en producción
- El código define una función
- Función de Traducción
- La función
translate_text()
admite tanto cadenas individuales como lotes - Incluye cronometraje de rendimiento y manejo de errores
- Utiliza búsqueda por haz para mejor calidad de traducción
- La función
- Características Avanzadas
- Longitud máxima configurable para traducciones
- Capacidad de procesamiento por lotes para múltiples oraciones
- Gestión eficiente de memoria con manejo apropiado de dispositivos
- Elementos Listos para Producción
- Manejo integral de errores en todo el proceso
- Monitoreo de rendimiento con mediciones de tiempo
- Manejo flexible de entrada (cadena individual o lista de cadenas)
Implementación Base del Proyecto
La traducción automática (TA) representa una aplicación revolucionaria dentro del Procesamiento del Lenguaje Natural (PLN) que ha transformado la comunicación global. Al convertir automáticamente texto de un idioma a otro, los sistemas de TA eliminan las barreras lingüísticas y fomentan la colaboración internacional. Esta tecnología se ha vuelto cada vez más sofisticada, permitiendo capacidades de traducción en tiempo real que antes se consideraban imposibles. En este proyecto, profundizaremos en la implementación de traducción automática utilizando MarianMT, un modelo de traducción neuronal de última generación que aprovecha el poder de la biblioteca Transformers de Hugging Face.
MarianMT destaca en el campo de la traducción neuronal automática por varias razones convincentes. Su arquitectura está específicamente optimizada para la eficiencia de procesamiento y la precisión de traducción, lo que le permite manejar patrones lingüísticos complejos y matices a través de diversos pares de idiomas. El modelo fue desarrollado por el grupo Marian NMT, un equipo de investigadores dedicados a avanzar en la tecnología de traducción de código abierto. Su naturaleza de código abierto, combinada con una documentación exhaustiva y el apoyo de la comunidad, lo ha convertido en un recurso invaluable tanto para la investigación académica como para aplicaciones comerciales. La eficiencia del modelo es particularmente notable, ya que logra traducciones de alta calidad mientras mantiene requisitos computacionales razonables.
Objetivos del Proyecto
Este proyecto integral te guiará a través de varios objetivos de aprendizaje clave:
- Dominar los fundamentos de la implementación de MarianMT, incluyendo la comprensión de su arquitectura, principios de funcionamiento y cómo utilizarlo eficazmente para traducir contenido entre múltiples pares de idiomas. Aprenderás sobre los mecanismos internos del modelo y cómo contribuyen a traducciones precisas.
- Desarrollar habilidades prácticas en el trabajo con la biblioteca Transformers, centrándose en la carga y configuración de modelos MarianMT preentrenados y sus tokenizadores correspondientes. Esto incluye comprender el versionado de modelos, manejar diferentes configuraciones de idiomas y gestionar parámetros del modelo para un rendimiento óptimo.
- Desarrollar experiencia en el procesamiento y gestión de conjuntos de datos multilingües, incluyendo técnicas de preparación, limpieza y validación de datos. Aprenderás sobre desafíos comunes en el manejo de datos multilingües y estrategias para superarlos eficazmente.
- Descubrir e implementar técnicas avanzadas de personalización para flujos de trabajo de traducción, incluyendo procesamiento por lotes, manejo de errores y estrategias de optimización para diferentes casos de uso. También aprenderás cómo evaluar la calidad de la traducción y realizar los ajustes necesarios.
Este proyecto sirve como base esencial para profesionales y entusiastas que desean implementar soluciones prácticas de traducción automática. Ya sea que estés interesado en desarrollar aplicaciones multilingües para localización de contenido, crear sistemas de traducción automatizada para artículos de investigación académica o construir chatbots multilingües sofisticados, las habilidades que adquirirás serán directamente aplicables a escenarios del mundo real.
El enfoque práctico del proyecto asegura que no solo comprenderás los aspectos teóricos, sino que también obtendrás experiencia práctica en la implementación y despliegue de soluciones de traducción automática.
pip install transformers
from transformers import MarianMTModel, MarianTokenizer
import torch
import time
def initialize_translation_model(source_lang="en", target_lang="fr"):
"""
Initialize the MarianMT model and tokenizer for specified language pair
Args:
source_lang (str): Source language code
target_lang (str): Target language code
Returns:
tuple: (tokenizer, model)
"""
model_name = f"Helsinki-NLP/opus-mt-{source_lang}-{target_lang}"
try:
# Load tokenizer and model with error handling
tokenizer = MarianTokenizer.from_pretrained(model_name)
model = MarianMTModel.from_pretrained(model_name)
# Move model to GPU if available
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
print(f"Model loaded successfully on {device}")
return tokenizer, model
except Exception as e:
print(f"Error loading model: {str(e)}")
return None, None
def translate_text(text, tokenizer, model, max_length=128):
"""
Translate text using the loaded model
Args:
text (str or list): Text to translate
tokenizer: MarianTokenizer instance
model: MarianMTModel instance
max_length (int): Maximum length of generated translation
Returns:
list: Translated text(s)
"""
# Convert single string to list for batch processing
if isinstance(text, str):
text = [text]
try:
# Tokenize with padding and attention mask
inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True, max_length=max_length)
# Move inputs to same device as model
inputs = {k: v.to(model.device) for k, v in inputs.items()}
# Generate translation with beam search
start_time = time.time()
outputs = model.generate(
**inputs,
max_length=max_length,
num_beams=4,
length_penalty=0.6,
early_stopping=True
)
translation_time = time.time() - start_time
# Decode translations
translations = [tokenizer.decode(t, skip_special_tokens=True) for t in outputs]
print(f"Translation completed in {translation_time:.2f} seconds")
return translations
except Exception as e:
print(f"Translation error: {str(e)}")
return None
# Initialize the model
tokenizer, model = initialize_translation_model()
# Example usage with multiple sentences
texts = [
"Hello, how are you?",
"Machine translation is fascinating.",
"This is a comprehensive example."
]
if tokenizer and model:
translations = translate_text(texts, tokenizer, model)
# Print results
for original, translated in zip(texts, translations):
print(f"\nOriginal: {original}")
print(f"Translated: {translated}")
Explicación del Desglose del Código:
- Inicialización del Modelo
- El código define una función
initialize_translation_model()
que maneja la configuración del modelo - Incluye detección automática de GPU para mejor rendimiento
- Implementa manejo de errores para uso robusto en producción
- El código define una función
- Función de Traducción
- La función
translate_text()
admite tanto cadenas individuales como lotes - Incluye cronometraje de rendimiento y manejo de errores
- Utiliza búsqueda por haz para mejor calidad de traducción
- La función
- Características Avanzadas
- Longitud máxima configurable para traducciones
- Capacidad de procesamiento por lotes para múltiples oraciones
- Gestión eficiente de memoria con manejo apropiado de dispositivos
- Elementos Listos para Producción
- Manejo integral de errores en todo el proceso
- Monitoreo de rendimiento con mediciones de tiempo
- Manejo flexible de entrada (cadena individual o lista de cadenas)