Leon Hunter

10 pistas para detectar traducciones realizadas con Google

De caraduras está el mundo lleno y cuando aprieta la crisis y con los plazos cada vez más absurdos que piden los clientes, más de uno se habrá desesperado y habrá visto en la traducción automática su tabla de salvación… O no.

En este artículo se dan 10 pistas para detectar que una traducción se ha realizado con Google y son señales inequívocas. Puede que el posteditor fuera muy concienzudo pero algo se cuela siempre y aquí te contaremos cómo saber si te han dado gato por liebre.

Lo que se proporciona es una guía para encontrar los errores más comunes en TA que aún posteditados revelan que la traducción no se ha hecho de manera humana (o, al menos, no únicamente humana). Lógicamente, además del problema de la calidad, hay otro problema que es el de la confidencialidad, la protección de los secretos comerciales del cliente e, incluso, los derechos de autor.

Por último, el proveedor puede haber firmado con la empresa o agencia un contrato que impide expresamente trabajar con Google o sistemas similares de Machine Translation y, por ello, en caso de haber empleado estas herramientas estaría vulnerando el acuerdo firmado (es decir, se podría alegar incumplimiento de contrato).

Los indicios de que un texto ha sido traducido con TA (aunque esté posteditado)

Dicho lo anterior, ahora existen varias combinaciones de traducción y de postedición que bien pueden producir textos de una calidad media pero también existen (a veces) casos de personas o empresas que pasan el texto por el Google y puede que incluso lo cuelen… Habrá los que digan que han tenido un mal día o que el traductor no era nativo o que se han copiado y pegado palabras… Hay unas excusas de lo más inverosímiles pero en este artículo vamos a dar unas pistas para los que quieran saber si un texto ha sido traducido con Google (o similar). Puede que se haya posteditado posteriormente para quitar “lo gordo” pero siempre quedan cosillas en la traducción que “huelen a Google”… Y a la legua.

1.- Los formatos: los formatos de tablas no se convierten bien en Google Translate o Google Translator Toolkit y son frecuentes los casos de:

– Redonda cambiada a cursiva;

– Mayúsculas cambiadas a minúsculas;

– Negrita cambiada a cursiva;

– Cambios de color en el fondo de las celdas (gris a blanco, negro a gris, etc.);

– Cambios del tipo de letra (Times New Roman a Arial, etc.).

Dado que es improbable que un traductor humano se dedicara a cambiar el color de fondo de las tablas o a cambiar mayúsculas a minúsculas en una tabla. Ni lo dudes… Huele a Google.

2.- Inglés americano en textos británicos:

Es otra de las señales inequívocas. Por mucho que hayan posteditado siempre habrá algo de inglés USA que se les haya colado inadvertidamente.

Por ejemplo: la mayoría de las formas que acaban en –ize: organize, conceptualize, etc.

Otro ejemplo fácil de detectar: program en vez de programme (aunque hay personas en inglés UK que defienden el uso de program para programas informáticos y programme para programas de eventos, etc.). Pero si es un “program” y se refiere a algo que no es de informática, esa excusa no la tienen…

Vocabulario marcadamente americano: restrooms para cuartos de baño, etc.

Y si de repente están hablando de restrooms en vez de toilets, de diapers en vez de nappies, de “toilet tissue” en vez de “loo roll”… No es que sean muy finos los traductores al hablar de cosas de cuartos de baño es que huele a mier … Google.

3.- Incoherencias raras:

Nos llevan diciendo años (gracias a la perniciosa influencia de las CAT) que todas las incoherencias e inconsistencias “son errores”. Si bien no estoy muy de acuerdo porque pienso que la sinonimia dota de riqueza a un texto y es señal de buena redacción el tipo de incoherencias que encontramos en traducción automática son distintas. Son incoherencias que no vienen a cuento.

Por ejemplo:

Living room table = en un lugar: “mesa del cuarto de estar” y en otro: “tabla de la sala

Traducciones inconsistentes: mesa – tabla; cuarto de estar – sala

En TA aparecen incoherencias e inconsistencias como estas todo el tiempo y unas al lado de otras (incluso en la misma tabla o el mismo apartado o en la misma frase) de tal manera que se ve claramente que se trata de TA y no de un esfuerzo de un humano por utilizar sinónimos.

4.- Traducciones muy literales – estructura calcada:

Hay tantísimos ejemplos que se podría llenar otra entrada.

También es destacable que en castellano hay muchos circunloquios y frases un tanto vacuas, por ejemplo: “Supone una manera” para decir “Es”. Naturalmente en inglés “It supposes a manner” no significa nada.

Ni lo dudes… “Google smells”.

 Huele a Google

5.- Traducciones literales – palabras sueltas:

También hay infinidad de palabras sueltas que se traducen mal

Palabras como:

Campana (de horno) = bell en vez de hood;

Grasa (grease) = fat

Si de repente en un texto sobre cocinas hablan de “bell fat” o «fat bell» porque la campana está grasienta… Pon el extractor porque huele a Google.

5.- No reconoce los errores de ortografía o tipográficos y traduce mal las erratas y frases mal escritas:

La traducción automática no interpreta nada: solo traduce literalmente lo que dice. Por tanto, cualquier frase mal escrita en el original va a dar lugar a una frase incoherente en el destino. Estos errores son mucho más comunes de lo que pensamos porque pocos son los textos bien escritos y sin erratas, omisiones, frases hechas mal utilizadas, etc. Hay un sinfín de ejemplos de mala redacción y lo malo es que estamos tan acostumbrados que la mayor parte de la población es ya medio disléxica y ni se da cuenta.

Pongamos que en el texto original han puesto “sensores de calor”… Han hecho una mala conversión del PDF, se ha juntado la n con la s y sensores se ha convertido en “señores”. Si un traductor humano ve “encienda los señores de calor” en una traducción de un manual técnico dudaría un poco pero finalmente llegaría a la conclusión de que se refieren a “sensores de calor” tras ver un poco el contexto o tras hacer alguna búsqueda (puede que en el propio Google) y darse cuenta de que no existen los “señores de calor” y son “sensores”… Pero Google Translate no hace esa operación y traduce literalmente. Por tanto, “encienda los señores de calor” se convierte en “turn on the hot men”…

Grooovy, baby… Y huele a Google a la legua.

6.- Por supuesto que no reconoce frases con una redacción mejorable en el original

Cualquiera que se dedique a traducir sabrá de lo que hablo… Sobre todo los que traduzcan textos técnicos podrán pensar en miles de frases que “se entienden” pero que son de redacción nefasta.

Puede que uno de los principales trabajos del traductor sea precisamente eso: entender el bodrio que le han pasado y redactarlo en el otro idioma “en cristiano”. Y como las personas que desarrollaron el software de MT tenían poca o ninguna idea de en qué consiste el trabajo del traductor (que frecuentemente es un trabajo de “rephrasing” o reformulación), pues pensaron que traducir era decir palabra por palabra lo que dice el original… Y no.

De hecho, frecuentemente una traducción es muy buena cuando no se apega nada al original y dice lo mismo pero en otras palabras completamente distintas y bien escritas en el idioma destino. Sin alterar en nada el sentido original comunicado – «lo que quisieron decir» – el traductor produce un texto perfecto en el idioma de llegada y «hace magia». Y en ese momento es cuando el traductor o revisor se sonríen y se maravillan porque en eso consiste el arte de la traducción.

Por eso la MT no funciona, porque al igual que muchos bodrios de CAT o de QA y «análisis de calidad» (de los que disponemos hace tiempo en el mercado de la traducción), no se hizo nunca pensando desde la óptica del traductor y tampoco la del usuario. El desconocimiento profundo de la tarea de traducción y en qué consiste es el mayor fracaso de estos programas.

Es, en gran medida, un problema de diseño: porque la gente que hizo el diseño no conocía (ni posiblemente les interesaba saber) en qué consiste nuestro trabajo. Pensaban que por ser informáticos eran mejores y más listos que nosotros y ni se molestaron en consultarnos y, por eso, estos programas fracasan con los usuarios.

7.- Traduce siglas / abreviaturas / medidas que no se traducen

La T.I.A. (de Mortadelo y Filemón) es… The aunt.

8.- Convierte medidas mal o las convierte a otra cosa que no tiene que ver:

Así:

deca (da), hecto (h), kilo (k), mega (M), giga (G), tera (T), peta (P), exa (E), zetta (Z), yotta (Y)

Se convierte en:

deca (da), *hector* (h), kilo (k), mega (M), giga (*GA*), tera (T), peta (P), exa (E), zetta (Z), yotta (Y)

Por motivos que desconozco, siempre añade algo de su propia cosecha en medidas.

9.- Hay partes sin traducir en el idioma original:

Ojo, porque SIEMPRE hay palabras sin traducir en un documento traducido con MT. Cualquier cosa con la que se tope que no le cuadre, lo deja sin traducir. También tiene dificultades con las tablas y alguna celda se quedará sin traducir siempre.

10.- Traduce también los nombres de los archivos:

Es una pista de las poco comunes pero cuando “Informe anual.docx” de repente está traducido al inglés (y, a veces, mal traducido) ya te indica que lo han hecho con Google. Porque un traductor pondría “Informe anual_EN” o no traduciría el nombre del archivo porque no es costumbre hacerlo. Un traductor muy novato o de tres al cuarto guardaría el archivo con algún nombre que no tiene que ver tipo: “Traducción Pepita”, “Hasta la parte 2”, “Sin la parte 3”, “Mis trabajillos” (lo sé porque he echado muchas broncas por eso a gente nueva o seminueva por ese motivo) pero traducir el nombre del archivo al inglés, lo dudo mucho.

Seguramente haya más cosas que se puedan ver en propiedades del archivo o en etiquetas y demás (sabiendo de cosas de informática) pero, sin saber nada nada de informática, ya el nombre del archivo traducido te puede indicar que hay “algo raro.

De modo, que por mucho que nieguen que no hicieron la traducción con Google, ya veis que hay formas inequívocas de saberlo.