Google dice que “los inmigrantes son delincuentes y un problema”

Según la función de autocompletado de Google, los argentinos son italianos que hablan español y el rey es 'un reptil que mató un elefante'

Los inmigrantes son “delincuentes” y un “problema”, según la función de autocompletado de Google. Los argentinos son italianos que hablan español, además de indios, racistas, falsos y muy creídos. Los alemanes son “nazis y feos” y los rumanos, “machistas y peligrosos”.

Barcelona | Ferran Barber. Si tal y como entiende Naciones Unidas, las predicciones del buscador más popular del planeta son una expresión de la psique colectiva de los usuarios, los españoles tienen un grave problema estructural de sexismo, racismo y xenofobia.

Hace sólo siete años que Google integró el “autocompletado” en su navegador apelando, como siempre, a su deseo de mejorar el servicio y facilitar las búsquedas. Sencillo es. Uno empieza a escribir los términos que está buscando y la inteligencia artificial del explorador trata de anticipar y predecir nuestros deseos sugiriendo entre una y más opciones.

O dicho de otro modo, el buscador asume que somos más bien vagos y nos completa el texto de la búsqueda para ahorrarnos teclear unos cuantos caracteres. Hasta aquí, casi perfecto. Cuanto más pequeño es el terminal de ordenador, más engorroso se hace deslizar los dedos sobre la pantalla, de manera que cualquier ayuda puede ser eventualmente bien recibida.

¿Pero qué sucedería si al comenzar a introducir en el motor de búsqueda el nombre y apellidos de uno la inteligencia artificial de Google añadiera cuatro epítetos del estilo de “cerdo”, “estafador” o “violador”? No sólo se han dado casos de ello, sino que además es relativamente frecuente. Y lo es hasta el punto de que, en algunos países como Alemania, se han dictado ya autos que prohibían a Google activar sus predicciones junto a determinados nombres. ¿Por ejemplo? El de Rolf Sorg, un ejecutivo germano cuyo apellido aparecía por sistema acompañado de “Cienciología” y “fraude” pese a que no tenía vinculación alguna con la secta ni se había visto inmerso en ningún caso de estafa. También Google España fue en su día denunciado por un ciudadano cuyo nombre aparecía por sistema junto a “gay” en la casilla del motor de búsqueda.

Google insiste en sus condiciones de uso que todas esas predicciones son “meras yuxtaposiciones de los términos de búsqueda que aparecen normalmente juntos de acuerdo a criterios puramente estadísticos”. Es decir, que no existe ninguna relación semántica entre lo que hemos tecleado y las predicciones que sus algoritmos nos proponen de manera automática.

¿En qué se basan entonces los algoritmos de Google para completar los términos de uno u otro modo? El lugar y momento desde el que nos hemos conectado, la lengua que utilizamos o nuestro historial previo de búsqueda puede modificar la predicción, pero la variable principal que maneja su inteligencia artificial se sostiene sobre una cuestión básicamente estadística. Cuantas más veces han aparecido asociados determinados términos, más probabilidades hay de que estemos buscando lo mismo y de que nos propongan esa opción en lugar de otra. ¿Más claro? Si junto a tu nombre aparece “idiota” o “guapo”, en ningún caso significa que lo seas. No obstante, el buscador se anticipa a tus deseos y te ofrece esos términos porque, en determinado momento y circunstancias, el grueso de los usuarios que han realizado una búsqueda han asociado esos conceptos de algún modo.

No es un asunto baladí porque, de alguna forma eso significa que las prediccin

No es un asunto baladí porque, de alguna forma eso significa que las predicciones que el explorador brinda a los usuarios vienen a reflejar sus valores colectivos. Las predicciones son una proyección estadística y como tales, contienen los prejuicios del grueso de sus usuarios. Así lo entendió, a finales de 2013, Naciones Unidas, cuando se lamentaba del sexismo que existe en el planeta mostrando las opciones que el autocompletado de Google ofrece sobre las mujeres. De acuerdo a esas predicciones, éstas deben ser sumisas y depilarse el vello púbico. La inteligencia “taliban” de Google les espeta asimismo a actuar “como alfombras donde la gente puede pisotear”.

¿Cuáles son las opciones que nos ofrece el autocompletado cuando realizamos una búsqueda sobre los vecinos del entorno? Los resultados son espeluznantes y sugieren que la cultura del chiste de jaimito -un chovinismo rancio y pacato, salpicado de xenofobia pura y dura- sigue absolutamente viva.

Así las cosas, tenemos que los franceses son “sucios”, los alemanes, “nazis” y los ingleses, “feos”. Vistas las predicciones como proyecciones estadísticas de las búsquedas más frecuentes realizadas en castellano, es necesario concluir que las fobias tradicionales de los íberos hacia los rivales históricos del país se mantienen incólumes. Cabe preguntarse entonces si los usuarios españoles de Google son algo más generosos con sus vecinos pobres, y pedirle al buscador que autocomplete “rumano” o “marroquí”. En este caso, los resultados son en parte desalentadores, en parte sorprendentes.

De una parte, tenemos que la función de autocompletado concreta con precisión casi matemática todos los prejuicios y falsas verdades que existen en España acerca de los rumanos y propone al usuario las opciones de “machista”, “peligroso”, “malo”, “eslavo” y “gitano”. Claro que por otro lado, realiza ciertas predicciones acerca de los marroquíes cuando menos misteriosas. Salen mejor parados, de eso no cabe duda. “Son árabes y la tienen grande”. ¿Pero “celebrar la Navidad”?

¿Qué predicciones realiza el buscador con respecto a los griegos o los argentinos? Una de cal, y otra de arena. La de arena es de los griegos, suponiendo que la cal sea la mala.

En realidad, las predicciones que Google ofrece para Grecia no son tales. Adoptan más bien la forma de preguntas de aire aristotélico y vienen a expresar la perplejidad, cuando no la curiosidad intelectual, del usuario. “¿Los griegos de dónde son?”, se preguntan a menudo los españoles, según los algoritmos estadísticos de Google. La duda, testadura, todavía persiste en la segunda opción que ofrece el buscador. “¿Pero de qué país?”. La tercera propone que griegos y romanos son lo mismo y la cuarta, muy poética, vuelve a preguntarse “los griegos quiénes son”.

Contra los argentinos, más prejuicios y una afirmación no exenta de lirismo y con un no-sé-qué de greguería: “Son italianos que hablan español”.

¿Qué pasaría si ponemos a la función en un apuro y le pedimos predicciones sobre los cameruneses o los nigerianos? En realidad, no pasa nada. El autocompletado calla o miente.

Así pues, tenemos que los cameruneses no son nada, muy probablemente porque el grueso de los usuarios ubicarían el país en las proximidades de la Antártida o en algún rincón ignoto de Guayana. Los nigerianos son “lo peor”, pero “más grandes” (en un sentido estrictamente físico, se supone) y los africanos, rubios, una osada sinécdoque que reduce al conjunto de los hijos de ese continente a los descendientes de boers y británicos.

Esta misma austeridad y espíritu simplificador mantienen las predicciones de Google cuando se reclama opciones de autocompletado sobre el rey de España. El monarca es un reptil, el señor que mató un día un elefante.

¿Qué sucede cuando escribimos en la barra del motor de búsqueda “alemana” o “rumana”? ¿Saldrán tan mal paradas como sus compatriotas? En realidad, lo que se genera son predicciones claramente inspiradas por las búsquedas de hombres. En el caso de las alemanas, son guapas y bonitas, fáciles y buenas en la cama. Salta a la vista que semejante presunción es antes un deseo que una evidencia basada en la experiencia personal. A juzgar por lo que vemos, toda la percepción de los castellano-hablantes que usan Google se sostiene sobre clichés y estereotipos. Tristemente, negativos, cuando no atrozmente sexistas.

A diferencia de las alemanas, las predicciones relativas a las rumanas portan los estigmas típicamente asociados a los trabajadores extranjeros pobres. Incluso los adjetivos laudatorios que propone la función son inequívocamente sexistas. Este el resultado que se obtiene al teclear “inmigrante”: Aterrador.

Vistos los resultados precedentes, aún persiste la duda de si las predicciones que Google ofrece en España se basan en las búsquedas de los españoles o en las del conjunto de los hispano-hablantes. Salta a la vista que este hecho es importante, pues en función de ello, las opciones que vemos expresarían sólo el sentir de los españoles, el de los diferentes pueblos hispanos o el de todos en conjunto.

Según los responsables de Google, los resultados están en buena parte determinados por la geolocalización del usuario. Idéntica búsqueda realizada desde México arrojaría un resultado diferente -o no- en las propuestas del autocompletado. Por otro lado, los usuarios españoles del servicio son mayoría, de manera que también tienen un peso específico mayor a la hora de determinar los resultados. En vista de todo ello, es razonable concluir que las predicciones que se ofrecen a los usuarios conectados desde España son en buena medida representantivas de la opinión de los castellano-hablantes españoles. Lo que lleva inevitablemente a preguntarse cuáles son las percepciones de los españoles acerca de sí mismos. ¿Son igual de severos a la hora de enjuiciarse?

Por si queda alguna duda sobre nuestro chovinismo y complacencia, las siguientes predicciones deberían despejarlas:

Somos, por supuesto, los mejores. Somos “racistas y espérate” (¿al IV Reich?). Hispanos, pero caucásicos, arios y de raza blanca. Sorprendente resulta que buena parte de las sugerencias guarden alguna relación con la necesidad de reafirmarse como blancos y caucásicos. En el séptimo lugar, residualmente, aparece lo de árabe. Y en el segundo, la asunción de que, en efecto, el español es un racista. “Somos”, ergo existimos, figura como quinta opción, y a renglón seguido el buscador propone “vago”. ¿También lo hemos asumido o la predicción se realiza atendiendo a las búsquedas de otros hispanohablantes no españoles?

Para terminar, le hemos pedido predicciones a las ediciones británica y gala del autocompletado. ¿Son las opciones inglesas y francesas que ofrece el buscador tan crueles y mezquinas como las que da a los españoles? En teoría, deberían expresar sus percepciones acerca de nosotros. Y ésto es lo que uno encuentra:

Sorprendentemente, tanto en francés como en inglés se ofrece “blanco” (otro concepto racial) como segunda y primera opción, respectivamente. La segunda y tercera predicción de una búsqueda en inglés sugiere que somos racistas y no europeos. La primera y tercera predicción de la versión francesa de la búsqueda propone “guapos” y “orgullosos”. En fin, toreros. De toda la vida. “Una vez que me etiqueta, usted me niega”, dijo en su día Kirkegaard.

*Información originalmente publicada en Diásporas el 09/05/2015

© Copyright por Diásporas | Público 2015

Categorias
Noticias

VERITAS filia temporis. Reportero. dos o mas veces guardameta. Más de 25 años dando cuenta de los rotos y los descosidos del planeta. Autor de una novela, dos libros de viaje y realizador de varios documentales sobre temas informativos de actualidad. Allere flammam VERITAS.
Sin comentarios

Deja una réplica

Te podría interesar también