La Posedición de Traducción Automática
Introducción
La posedición de traducción automática (PEMT) es una competencia esencial en el panorama actual de la traducción profesional. A medida que los sistemas de traducción automática neuronal (NMT) se integran cada vez más en los flujos de trabajo de localización, las traductoras y los traductores necesitan desarrollar habilidades específicas para revisar y mejorar el output de estos sistemas de manera eficiente.
En esta sesión, exploraremos diferentes perspectivas sobre la traducción automática y la posedición, desde posiciones institucionales hasta estándares industriales y guías prácticas. El objetivo es que desarrolles una comprensión crítica de la PEMT y comiences a construir tu propio enfoque profesional hacia esta práctica.
Ejercicio 1: Perspectivas Actuales sobre la Traducción Automática
Instrucciones
De manera individual o en grupo, selecciona una de las lecturas que presentan perspectivas actuales sobre la traducción automática. Cada lectura puede ser seleccionada solo una vez por clase. Luego responde a las preguntas correspondientes a tu lectura. Después del trabajo individual o la discusión grupal, compartirás tus conclusiones con la clase.
Lecturas Disponibles
- ATA Position Paper on Machine Translation: A Clear Approach to a Complex Topic
- Teaching Post-editing: A Proposal for Course Content por Sharon O’Brien
- Industry Standards Demystified: ISO 18587:2017 Translation services — Post-editing of machine translation output — Requirements
- Diversification into Machine Translation por Alaina Brandt
- “Machine-Translation Post editing” capítulo de la publicación MT POST-EDITING GUIDELINES por TAUS
Opción 1: ATA Position Paper
Enlace: ATA_OnMachineTranslation.pdf
Preguntas de Discusión:
- ¿Qué argumentos se presentan sobre la traducción automática en el documento de posición de la ATA y por qué?
- ¿Son convincentes los argumentos presentados?
- ¿Cómo podrían mejorarse los argumentos?
Opción 2: Teaching Post-editing
Enlace: O-Brien_TeachingPostEditing.pdf
Pregunta de Discusión:
- ¿En qué difiere la capacitación en PEMT de la capacitación en traducción tradicional?
Opción 3: ISO 18587
Enlace: ISO-18587-Demystified.pdf
Preguntas de Discusión:
- ¿Qué parámetros y requisitos establece ISO para la posedición de traducción automática?
- ¿Qué competencias y calificaciones se requieren para realizar PEMT?
Opción 4: Diversification into MT
Enlace: Brandt_DiversificationIntoMachineTranslation.pdf
Preguntas de Discusión:
- Según el artículo, ¿qué tipos de trabajo relacionados con la traducción automática pueden realizar las traductoras y los traductores?
- ¿Qué otros tipos de trabajo relacionados con la traducción automática, más allá de los mencionados en el artículo, pueden realizar las personas dedicadas a la traducción?
Opción 5: TAUS Guidelines
Enlace: TAUS_PostEditingGuidelines.pdf
Preguntas de Discusión:
- ¿Qué elementos textuales se deben revisar durante la PEMT?
- Define terminología común (y no tan común) de la traducción automática: ¿Qué es un “casual translator”? ¿Qué es una sobre-edición? ¿Qué es una sub-edición? ¿Qué es la posedición ligera? ¿Qué es la posedición completa?
Ejercicio 2: Guías de Buenas Prácticas y Errores Comunes en PEMT
Instrucciones
En las Guías TAUS sobre PEMT, se presentan directrices amplias para lograr una calidad “suficientemente buena” en la posedición. El problema para muchas personas nuevas en PEMT es que llevan sus revisiones demasiado lejos. Después de completar su trabajo, la distancia de edición muestra que han intervenido y mejorado la traducción automática más de lo necesario para sus propósitos.
Por ello, se recomienda desarrollar guías de “Qué NO Hacer” junto con las guías de “Qué Hacer” para PEMT.
Actividad: Selecciona un texto fuente, tradúcelo automáticamente y luego realiza PEMT del output. Mientras trabajas, construye tus propias guías de Qué Hacer y Qué NO Hacer.
Nota: Tu tarea para este módulo es realizar una evaluación MQM de una traducción automática, así que usa este ejercicio como oportunidad para practicar con PEMT.
| Qué Hacer | Qué NO Hacer |
|---|---|
| [Tu respuesta aquí] | [Tu respuesta aquí] |
Ejercicio 3: La Consistencia entre Evaluadores Diferentes
En la Semana 9, realizaste evaluaciones de traducción usando Label Studio para marcar errores según la tipología MQM. Ahora es momento de reflexionar sobre un aspecto crítico de este proceso: la consistencia entre evaluadores.
Análisis de Concordancia
Tu instructora te proporcionará un análisis de las evaluaciones que completaste en Label Studio. Este análisis mostrará el nivel de concordancia entre quienes evalúan las mismas traducciones, y probablemente encontrarás que el nivel de concordancia es muy bajo.
¿Por qué es tan difícil lograr concordancia?
Para que dos evaluadores “concuerden” en un error, deben coincidir en varios niveles:
- El tramo de texto exacto que constituye el error
- La dimensión del error (Precisión, Estilo, Convenciones Lingüísticas, etc.)
- El tipo específico del error dentro de esa dimensión
- El nivel de gravedad del error (crítico, mayor, menor)
Lograr este nivel de precisión es extremadamente difícil, especialmente cuando quienes evalúan están desarrollando estas competencias por primera vez.
Mejorando la Consistencia a lo Largo del Tiempo
El repositorio Translation Quality Management presenta un sistema diseñado para ayudar a equipos de evaluadores a alcanzar mayores niveles de consistencia con el tiempo. El repositorio está organizado en seis pasos clave:
- Textos fuente en formato markdown
- Conversión de textos a formato JSON compatible con Label Studio
- Configuración de la interfaz de etiquetado en Label Studio
- Procesamiento de las evaluaciones exportadas
- Distribución de evaluaciones mediante páginas web dinámicas
- Análisis de concordancia entre evaluadores mediante notebooks de Python
El componente clave para mejorar la consistencia se encuentra en el paso 6: después de que un grupo de evaluadores marca errores en las mismas traducciones, se calcula la concordancia entre sus anotaciones usando métricas como:
- Concordancia exacta: ¿Marcaron exactamente el mismo tramo de texto?
- Puntuación F1: ¿Qué tan bien se solapan sus marcas parciales?
- Kappa: ¿Qué tan consistentes son sus categorías de error?
Basándose en estos resultados, el equipo identifica las áreas de mayor discrepancia y desarrolla un plan de mejora (materiales de capacitación, discusiones en grupo, ejemplos compartidos). Este proceso se repite hasta que las anotaciones del grupo alcanzan umbrales mínimos de concordancia.
¿Por Qué Importa la Consistencia?
La consistencia entre evaluadores es fundamental por varias razones:
- Para traductoras y traductores: Las evaluaciones inconsistentes generan confusión. Si dos evaluadores marcan el mismo texto de manera diferente, ¿cómo puede quien traduce saber qué mejorar?
- Para la industria: Los estándares de calidad como ISO 18587 requieren evaluaciones confiables y reproducibles.
- Para el entrenamiento de IAG: En la era de la inteligencia artificial generativa, las anotaciones de alta calidad se utilizan para entrenar sistemas de evaluación automática. Si las anotaciones humanas son inconsistentes, los sistemas de IAG aprenderán esa inconsistencia.
Reflexión sobre Tus Evaluaciones
Después de revisar el análisis de concordancia de tus evaluaciones de la Semana 9:
- ¿Qué patrones de discrepancia observas? ¿Las diferencias están en la identificación de tramos de texto, en la categorización de errores, o en ambas?
- ¿Qué podría explicar estas discrepancias? ¿Diferentes interpretaciones de las especificaciones? ¿Diferentes niveles de tolerancia para ciertos tipos de errores?
- Si tuvieras que volver a evaluar las mismas traducciones, ¿qué harías diferente? ¿Qué estrategias podrías usar para acercarte más a la concordancia con otros evaluadores?
Reflexión
Reflexiona sobre las siguientes preguntas después de completar las actividades de hoy:
-
Perspectivas Profesionales: ¿Cómo han cambiado o evolucionado tus perspectivas sobre la traducción automática después de explorar diferentes posiciones institucionales y profesionales?
-
Competencias PEMT: ¿Qué competencias específicas identificaste que son únicas para la posedición, en contraste con la traducción tradicional?
-
Ética y Transparencia: ¿Qué responsabilidad tienen las traductoras y los traductores de informar a los clientes sobre el uso de traducción automática? ¿Cómo equilibras la eficiencia con la transparencia?
-
Práctica Personal: Basándote en tu experiencia con el Ejercicio 3, ¿qué desafíos enfrentaste al intentar no sobre-editar el output de la traducción automática?
📥 Descarga este Contenido
Encuentra este archivo en nuestro repositorio y descárgalo.
🤖 Prompts de Estudio con IAG
Copia el contenido descargado y prueba estos prompts:
- “Ayúdame a entender las diferencias entre la posedición ligera y la posedición completa, con ejemplos concretos de cuándo usar cada una.”
- “Acabo de leer sobre los estándares ISO 18587 para PEMT. ¿Puedes explicarme cómo aplicar estos estándares en un proyecto real de posedición?”
- “Estoy desarrollando mis guías personales de Qué Hacer y Qué NO Hacer en PEMT. ¿Puedes ayudarme a identificar situaciones específicas donde es fácil sobre-editar?”
- “¿Cómo puedo explicarle a un cliente la diferencia entre traducción humana, PEMT y traducción automática sin editar? Necesito un enfoque claro y profesional.”
- “Practiquemos: Aquí está un texto en español que traduje automáticamente al inglés. ¿Puedes guiarme en el proceso de posedición sin sobre-editar?”
- “¿Qué estrategias puedo usar para mantenerme dentro del alcance de la posedición ligera cuando mi instinto es corregir todo lo que veo?
Siguiente: Proyecto 10 - Anotación y Posedición Colaborativa T-MEC