Les pagan por mirar lo que muchas veces nadie quiere ver. Pasan largas jornadas sentados frente a la pantalla del computador. No se conocen entre sí y tampoco tienen relación directa con las compañías a las cuales les prestan servicios. Cuando los cibernautas logran encontrar las fisuras del algoritmo, actúan.  En sus manos recae muchas veces la decisión de mantener o sacar determinados contenidos de las redes. Reciben cerca de quince dólares la hora por bucear entre videos pornográficos, insultos, racismo, homofobia, etc. Ellos navegan en lugares de internet en que no queremos indagar y así logran descubrir el material que contraviene las políticas de las plataformas.

Amenazas terroristas, mensajes suicidas, desnudos. Discursos de odio, desinformación y noticias falsas. Todo cabe en alguna categoría previamente establecida. Los “social media content moderators” (moderadores de contenido de redes sociales) son cerca de 150 mil personas en el mundo y su rol tiende a ser solapado, secreto y rodeado de un halo de misterio. En la red, donde supuestamente no existe censura, ellos tienen un papel clave. Facebook declara contar con más 15 mil moderadores. Twitter aumentó considerablemente su equipo. Todo para evitar errores como el del linkear videos de pornografía infantil con los de vacaciones familiares.

Errores que forman parte de las grietas de un sistema en permanente perfeccionamiento que se sostiene en base a algoritmos, término que la RAE define como un “conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”. En internet dice relación con una serie de instrucciones que muestran la ruta para encontrar un dato en la red, dentro de miles y miles de sitios; un instrumento que permite acotar una búsqueda y que le facilita a compañías como Google entregar una lista de respuestas antes de que incluso se termine de escribir lo que se busca.

¿Quién inventó ese algoritmo? En el caso de Google, Larry Page y Sergey Brin, creadores del Pagerank, fórmula que le asigna un valor numérico a una página dependiendo de si ésta cumple o no con una serie de características, algunas públicas y otras no tanto. Así, las consultas entrantes y salientes son administradas por motores de búsqueda, que deben estar en permanente perfeccionamiento. Porque si de burlar el sistema se trata, tanto la imaginación como la creatividad no conocen límites.

¿La solución? Entender el cambio socio cultural que hay detrás de las nuevas tecnologías y aprender a desarrollar un espíritu crítico frente a la información disponible en la red.

Cada segundo los internautas crean nuevas estrategias para que sus contenidos entren a Google e incluso logren posicionarse en los primeros lugares de las búsquedas. El ejemplo más potente es el que sucedió hace un par de años, cuando The Guardian publicó una serie de historias que mostraban cómo el motor de búsqueda promueve el contenido extremista. A los periodistas de este medio británico les bastó ingresar un par de palabras en Google para dejar en evidencia las falencias del sistema: “sucedió el Holocausto”. El resultado principal fue un link a Stormfront, sitio de supremacistas blancos, donde aparecen detallados los argumentos para incentivar la negación de este hecho histórico.  A continuación se sumaban los textos “El engaño del holocausto: NUNCA SUCEDIÓ” y “50 razones por las que el Holocausto no sucedió”. Además de un video en Youtube “¿Ocurrió realmente el Holocausto?” y como corolario “El Holocausto contra los judíos es una prueba total de mentiras”. Ahora el mismo criterio de búsqueda lleva al museo conmemorativo del Holocausto en Washington.

¿Qué habría pasado si The Guardian no hubiese realizado esta investigación? Probablemente los niños interesados en el tema tendrían una grave confusión. Siendo Google una de las principales fuentes para buscar información, difícil para ellos imaginar que pudiese haber una equivocación, la que llevada al extremo le permitiría a Google incluso reescribir la historia.

Pero el tema va más allá aún. Hace unas semanas, en el sitio Reddit los usuarios se vieron enfrascados en una curiosa conversación: “¿es posible cocinar la clara de huevo sin un sartén”. Todo tipo de opiniones culinarias tuvieron cabida, pero lo que hace este diálogo tan especial es que se llevó a cabo entre robots con inteligencia artificial utilizando GPT-2, un generador de lenguaje de aprendizaje automático que consiste en entrenar un algoritmo para predecir la siguiente palabra más probable en una oración. Si  bien en el caso del huevo la discusión versaba sobre el punto de cocción, el nuevo sistema permite que las máquinas interactúen imitando el estilo del mismísimo Shakespeare con tan solo procesar un par de sus textos.

Algoritmos y humanos se ven enfrentados a desafíos cada vez mayores. Esta misma herramienta puede usarse para difundir información falsa a gran escala copiando la redacción de los suplantados y muchos temen que la red se convierta en terreno fértil  para textos simulados de los cuales sería cada vez más difícil descubrir el origen. Otros consideran que, independientemente de si hay o no más técnicas para crear noticias falsas, éstas ya son una realidad y no es necesario un software muy sofisticado para elaborarlas. ¿La solución? Entender el cambio socio cultural que hay detrás de las nuevas tecnologías y aprender a desarrollar un espíritu crítico frente a la información disponible en la red. No porque Google ponga en los diez primeros lugares de una búsqueda determinados resultados significa que éstos son los correctos. Basta con avanzar un par de páginas para ir aclarando el tema. No porque alguien escriba como el Bardo de Avon es la reencarnación del dramaturgo. Y no porque existan los moderadores de contenidos de redes sociales vamos a tomar tribuna y esperar que otros nos hagan el trabajo.