10 pistas para detectar traducciones realizadas con Google

En este artículo se dan 10 pistas para detectar que una traducción se ha realizado con Google y son señales inequívocas. Puede que el posteditor fuera muy concienzudo pero algo se cuela siempre y aquí te contaremos cómo saber si te han dado gato por liebre.
Lo que se proporciona es una guía para encontrar los errores más comunes en TA que aún posteditados revelan que la traducción no se ha hecho de manera humana (o, al menos, no únicamente humana). Lógicamente, además del problema de la calidad, hay otro problema que es el de la confidencialidad, la protección de los secretos comerciales del cliente e, incluso, los derechos de autor.
Por último, el proveedor puede haber firmado con la empresa o agencia un contrato que impide expresamente trabajar con Google o sistemas similares de Machine Translation y, por ello, en caso de haber empleado estas herramientas estaría vulnerando el acuerdo firmado (es decir, se podría alegar incumplimiento de contrato).
Los indicios de que un texto ha sido traducido con TA (aunque esté posteditado)
Dicho lo anterior, ahora existen varias combinaciones de traducción y de postedición que bien pueden producir textos de una calidad media pero también existen (a veces) casos de personas o empresas que pasan el texto por el Google y puede que incluso lo cuelen… Habrá los que digan que han tenido un mal día o que el traductor no era nativo o que se han copiado y pegado palabras… Hay unas excusas de lo más inverosímiles pero en este artículo vamos a dar unas pistas para los que quieran saber si un texto ha sido traducido con Google (o similar). Puede que se haya posteditado posteriormente para quitar “lo gordo” pero siempre quedan cosillas en la traducción que “huelen a Google”… Y a la legua.
1.- Los formatos: los formatos de tablas no se convierten bien en Google Translate o Google Translator Toolkit y son frecuentes los casos de:
– Redonda cambiada a cursiva;
– Mayúsculas cambiadas a minúsculas;
– Negrita cambiada a cursiva;
– Cambios de color en el fondo de las celdas (gris a blanco, negro a gris, etc.);
– Cambios del tipo de letra (Times New Roman a Arial, etc.).
Dado que es improbable que un traductor humano se dedicara a cambiar el color de fondo de las tablas o a cambiar mayúsculas a minúsculas en una tabla. Ni lo dudes… Huele a Google.
2.- Inglés americano en textos británicos:
Es otra de las señales inequívocas. Por mucho que hayan posteditado siempre habrá algo de inglés USA que se les haya colado inadvertidamente.
Por ejemplo: la mayoría de las formas que acaban en –ize: organize, conceptualize, etc.
Otro ejemplo fácil de detectar: program en vez de programme (aunque hay personas en inglés UK que defienden el uso de program para programas informáticos y programme para programas de eventos, etc.). Pero si es un “program” y se refiere a algo que no es de informática, esa excusa no la tienen…
Vocabulario marcadamente americano: restrooms para cuartos de baño, etc.
Y si de repente están hablando de restrooms en vez de toilets, de diapers en vez de nappies, de “toilet tissue” en vez de “loo roll”… No es que sean muy finos los traductores al hablar de cosas de cuartos de baño es que huele a mier … Google.
3.- Incoherencias raras:
Nos llevan diciendo años (gracias a la perniciosa influencia de las CAT) que todas las incoherencias e inconsistencias “son errores”. Si bien no estoy muy de acuerdo porque pienso que la sinonimia dota de riqueza a un texto y es señal de buena redacción el tipo de incoherencias que encontramos en traducción automática son distintas. Son incoherencias que no vienen a cuento.
Por ejemplo:
Living room table = en un lugar: “mesa del cuarto de estar” y en otro: “tabla de la sala”
Traducciones inconsistentes: mesa – tabla; cuarto de estar – sala
En TA aparecen incoherencias e inconsistencias como estas todo el tiempo y unas al lado de otras (incluso en la misma tabla o el mismo apartado o en la misma frase) de tal manera que se ve claramente que se trata de TA y no de un esfuerzo de un humano por utilizar sinónimos.
4.- Traducciones muy literales – estructura calcada:
Hay tantísimos ejemplos que se podría llenar otra entrada.
También es destacable que en castellano hay muchos circunloquios y frases un tanto vacuas, por ejemplo: “Supone una manera” para decir “Es”. Naturalmente en inglés “It supposes a manner” no significa nada.
Ni lo dudes… “Google smells”.
5.- Traducciones literales – palabras sueltas:
También hay infinidad de palabras sueltas que se traducen mal
Palabras como:
Campana (de horno) = bell en vez de hood;
Grasa (grease) = fat
Si de repente en un texto sobre cocinas hablan de “bell fat” o «fat bell» porque la campana está grasienta… Pon el extractor porque huele a Google.
5.- No reconoce los errores de ortografía o tipográficos y traduce mal las erratas y frases mal escritas:
La traducción automática no interpreta nada: solo traduce literalmente lo que dice. Por tanto, cualquier frase mal escrita en el original va a dar lugar a una frase incoherente en el destino. Estos errores son mucho más comunes de lo que pensamos porque pocos son los textos bien escritos y sin erratas, omisiones, frases hechas mal utilizadas, etc. Hay un sinfín de ejemplos de mala redacción y lo malo es que estamos tan acostumbrados que la mayor parte de la población es ya medio disléxica y ni se da cuenta.
Pongamos que en el texto original han puesto “sensores de calor”… Han hecho una mala conversión del PDF, se ha juntado la n con la s y sensores se ha convertido en “señores”. Si un traductor humano ve “encienda los señores de calor” en una traducción de un manual técnico dudaría un poco pero finalmente llegaría a la conclusión de que se refieren a “sensores de calor” tras ver un poco el contexto o tras hacer alguna búsqueda (puede que en el propio Google) y darse cuenta de que no existen los “señores de calor” y son “sensores”… Pero Google Translate no hace esa operación y traduce literalmente. Por tanto, “encienda los señores de calor” se convierte en “turn on the hot men”…
Grooovy, baby… Y huele a Google a la legua.
6.- Por supuesto que no reconoce frases con una redacción mejorable en el original
Cualquiera que se dedique a traducir sabrá de lo que hablo… Sobre todo los que traduzcan textos técnicos podrán pensar en miles de frases que “se entienden” pero que son de redacción nefasta.
Puede que uno de los principales trabajos del traductor sea precisamente eso: entender el bodrio que le han pasado y redactarlo en el otro idioma “en cristiano”. Y como las personas que desarrollaron el software de MT tenían poca o ninguna idea de en qué consiste el trabajo del traductor (que frecuentemente es un trabajo de “rephrasing” o reformulación), pues pensaron que traducir era decir palabra por palabra lo que dice el original… Y no.
De hecho, frecuentemente una traducción es muy buena cuando no se apega nada al original y dice lo mismo pero en otras palabras completamente distintas y bien escritas en el idioma destino. Sin alterar en nada el sentido original comunicado – «lo que quisieron decir» – el traductor produce un texto perfecto en el idioma de llegada y «hace magia». Y en ese momento es cuando el traductor o revisor se sonríen y se maravillan porque en eso consiste el arte de la traducción.
Por eso la MT no funciona, porque al igual que muchos bodrios de CAT o de QA y «análisis de calidad» (de los que disponemos hace tiempo en el mercado de la traducción), no se hizo nunca pensando desde la óptica del traductor y tampoco la del usuario. El desconocimiento profundo de la tarea de traducción y en qué consiste es el mayor fracaso de estos programas.
Es, en gran medida, un problema de diseño: porque la gente que hizo el diseño no conocía (ni posiblemente les interesaba saber) en qué consiste nuestro trabajo. Pensaban que por ser informáticos eran mejores y más listos que nosotros y ni se molestaron en consultarnos y, por eso, estos programas fracasan con los usuarios.
7.- Traduce siglas / abreviaturas / medidas que no se traducen
La T.I.A. (de Mortadelo y Filemón) es… The aunt.
8.- Convierte medidas mal o las convierte a otra cosa que no tiene que ver:
Así:
deca (da), hecto (h), kilo (k), mega (M), giga (G), tera (T), peta (P), exa (E), zetta (Z), yotta (Y)
Se convierte en:
deca (da), *hector* (h), kilo (k), mega (M), giga (*GA*), tera (T), peta (P), exa (E), zetta (Z), yotta (Y)
Por motivos que desconozco, siempre añade algo de su propia cosecha en medidas.
9.- Hay partes sin traducir en el idioma original:
Ojo, porque SIEMPRE hay palabras sin traducir en un documento traducido con MT. Cualquier cosa con la que se tope que no le cuadre, lo deja sin traducir. También tiene dificultades con las tablas y alguna celda se quedará sin traducir siempre.
10.- Traduce también los nombres de los archivos:
Es una pista de las poco comunes pero cuando “Informe anual.docx” de repente está traducido al inglés (y, a veces, mal traducido) ya te indica que lo han hecho con Google. Porque un traductor pondría “Informe anual_EN” o no traduciría el nombre del archivo porque no es costumbre hacerlo. Un traductor muy novato o de tres al cuarto guardaría el archivo con algún nombre que no tiene que ver tipo: “Traducción Pepita”, “Hasta la parte 2”, “Sin la parte 3”, “Mis trabajillos” (lo sé porque he echado muchas broncas por eso a gente nueva o seminueva por ese motivo) pero traducir el nombre del archivo al inglés, lo dudo mucho.
Seguramente haya más cosas que se puedan ver en propiedades del archivo o en etiquetas y demás (sabiendo de cosas de informática) pero, sin saber nada nada de informática, ya el nombre del archivo traducido te puede indicar que hay “algo raro”.
De modo, que por mucho que nieguen que no hicieron la traducción con Google, ya veis que hay formas inequívocas de saberlo.
- Omisiones en las traducciones juradas – 03/12/2023
- Las direcciones en las traducciones juradas – 01/12/2023
- La traducción de términos del mercado monetario – 29/01/2021



¡Buenísimo! 🙂
¡Muy bueno el artículo!
Muy cierto todo lo comentado. Y si a todo ello le sumas que, cuando se trata de textos de marketing con un estilo algo informal con frases hechas o referencias y guiños, ya ni te cuento. Hay quien dice que, si tardas más de 2 segundos en arreglar una frase traducida con TA, mejor empezar de cero.
A mí hay proyectos en los que me ayuda mucho y otros en los que prefiero no tenerla para no «contaminarme». ¡Pero muchas veces no se sabe cuál será el caso hasta que llega el momento de ponerse manos a la obra! De cualquier forma, es una experiencia curiosa con la que te puedes echar unas buenas risas (como lo de T.I.A. = aunt :-P)
¡Saludos!
[…] que alguien se fuera a dar cuenta. Total, no se han escrito artículos sobre el tema (como este) ni se han hecho memes al respecto… ¿Qué más da si tu quieres poner Vino en botella y te […]
¿Por qué «inconsistencias e incoherencias»? Son «incoherencias» o «inconsecuencias», y nada más. «Inconsistency» no es nunca inconsistencia, ni «inconsistent» inconsistente. Es un falso amigo de primaria.
Hola:
Eso es en referencia a los términos que utilizan tanto las CAT Tools como los gestores de proyectos, que siempre hablan de «inconsistencias e incoherencias». En inglés tampoco tiene mucho sentido. Para muchos casos que llaman «inconsistency» tampoco usaría esa palabra.
Leon Hunter
Cuidado con el enfoque de artículos. Es MUY dañino dar la impresión de que si hay segmentos del texto contenido en la traducción que coincide con la respuesta de una herramienta CAT, el texto es de baja calidad. Aquí no hablamos de subir un archivo y entregarlo como sale de la herramienta.
Porque alimentamos los troles que se lucran con herramientas que comparan con salidas de CAT, SIN TENER JAMÁS EN CUENTA:
* Si el texto ofrece alternativas
* Si deformar intencionadamente los segmentos reduce la calidad de la traducción
* Si el traductor al no poder ganar tiempo tecleando tiene que sacarlo de la traducción
* Si el traductor renuncia a comparar su propuesta con las de los CAT por si algún cliente «iluminado» se niega a pagarle alegando SOLO que se parece a un CAT.
Sentido común, por favor, el objetivo número 1 de l traducción es la calidad. No porque coincida con una herramienta es malo, y no porque sea completamente distinto es bueno.
De hecho, en los pocos casos que he discutido por similitud de segmentos a una herramienta (0,5% o menos), el cliente SIEMPRE ha sido incapaz de sostener cualquier tipo de problema de calidad con ejemplos concretos.
Así que traductores, aboguemos por lo sensato… Si una salida de CAT para un segmento mejora la del traductor, se cambia.