El poder político ha aprendido el algoritmo, pero también nosotros
Detalle BN6
- Inicio
- "El poder político ha aprendido el algoritmo, pero también nosotros"
"El poder político ha aprendido el algoritmo, pero también nosotros"
La profesora Rossana Reguillo cuenta la manera en que SignaLab, laboratorio del ITESO que analiza el comportamiento de las redes sociales, participará como parte de los proyectos con que cuenta la universidad para darle seguimiento al proceso electoral de 2018.
Édgar Velasco
Durante el proceso electoral de 2012, México fue testigo de la irrupción de un nuevo actor en la contienda: las redes sociales. Si bien tomaron impulso años antes, coyunturas como la llamada Primavera Árabe o el movimiento de Los Indignados en España (cuyo sello principal fue el hashtag #15M) recurrieron a Facebook y Twitter como espacios para la expresión politizada.
Prueba de ello fue el episodio que se vivió en la Universidad Iberoamericana (Ibero) Ciudad de México el 11 de mayo de 2012, cuando Enrique Peña Nieto estuvo ahí de visita como candidato a la Presidencia para presentar su plataforma política. Los dichos de Pedro Joaquín Coldwell, entonces presidente del partido Revolucionario Institucional (PRI), acusando que quienes se manifestaron en esa visita no eran alumnos, tuvieron como reacción la elaboración y difusión del video 131 alumnos de la Ibero responden, que se volvió viral y derivó en el surgimiento de #YoSoy132, movimiento que se articuló por medio de las redes sociales y, de manera particular, en Twitter.
Seis años han pasado y el contexto es otro. Las redes sociales están instaladas en la vida cotidiana y el escenario político-electoral no es la excepción. Han aparecido nuevos actores (bots, influencers, cyborg bots, trolls), todos buscando incidir en la percepción sobre los contendientes, ya sea difundiendo a uno y otro candidato, polarizando las opiniones o generando ruido y anulando conversaciones.
De todo esto ha quedado registro en las computadoras de Signa_Lab ITESO, el espacio de análisis del comportamiento de las redes sociales con que cuenta esta casa de estudios. Rossana Reguillo, profesora del Departamento de Estudios Socioculturales, asegura que en el laboratorio ya están listos para enfrentar el proceso electoral y tratar de arrojar alguna luz que permita a estudiantes, investigadores y ciudadanos llegar más informados a la cita del próximo 1 de julio.
¿Cómo ves el escenario electoral actual, ya con las redes sociales bien instaladas como parte del proceso electoral?
Veo un escenario muy complejo, muy complicado y muy desafiante en lo que significa el discernimiento de la información. Ese va a ser el reto principal no sólo para la universidad y sus proyectos, sino para la ciudadanía en general. Veo un escenario pobre políticamente, donde lo que uno ve son descalificaciones de uno y otro lado y poquísimas propuestas. Hay unas alianzas realmente muy extrañas, por no decir ofensivas, en las que parece que los ciudadanos no tenemos memoria. También veo que va a ser una elección donde las redes van a jugar un papel muy importante. Si bien ni Facebook ni Twitter van decidir el núcleo duro de lo electoral, sí van a tener una importancia clave, central.
¿Cuál va a ser esa importancia en comparación con el proceso de 2012?
En 2012 comenzaba el uso de los bots, de ahí vienen los llamados peñabots, por ejemplo, y comenzó a configurarse una especie de periodismo ciudadano, por llamarlo de algún modo, fuera de la lógica corporativa y empresarial. Hoy vemos una proliferación de estos espacios de información y de formación de la opinión pública, algunos verdaderamente notables y otros montados en esa ola, pero que no son confiables. Entonces, hay multiplicidad de voces que no había en 2012.
Otra diferencia fundamental, documentada incluso por el Instituto Nacional de Estadística y Geografía (Inegi), es la pérdida de credibilidad de los medios convencionales, como la televisión, y el desplazamiento de jóvenes y no tan jóvenes que se informan saltando por medio de Facebook, Twitter, blogs, un artículo de opinión de Le Monde o un reportaje de El País. Todo eso va armando una configuración, una nube de sentido, diferente a lo que teníamos en 2012, cuando era mucho más fácil impulsar una determinada visión de los acontecimientos.
Al mismo tiempo, el uso oscuro de la red se ha ido afinando. Hoy tenemos estrategias muy sofisticadas, operaciones que hemos podido analizar desde Signa_Lab ITESO, ubicando perfectamente cuentas pagadas para llevar la discusión hacia determinados rumbos, entorpeciendo un debate o "aniquilando" algunos trending topics. Y hay operaciones rapidísimas.
Por ejemplo, el caso de Marco Antonio, el joven desaparecido un tiempo por la policía. Cuando empezó la exigencia ciudadana de su presentación con vida y la indignación por el estado en el que apareció, estas cuentas levantaron en menos de dos horas un hashtag sobre las mentiras más populares y con eso tiraron la discusión sobre Marco Antonio. Alguien que no es experto y entra a su timeline, el resultado es que deja de ver la discusión política, que es la que importa.
Ahora hay granjas de cultivo de cuentas que combinan bots con la inteligencia humana, lo que lo vuelve más sofisticado, ya no es sólo la estrategia del bot programado para retuitear a los candidatos, vemos estrategias mucho más sofisticadas.
También hay un dominio mayor en términos de capacidades tecnológicas instaladas para producir noticias falsas (fake news) que resulta muy difícil distinguir porque se camuflan detrás de algoritmos muy sofisticados.
Los algoritmos, sobre todo el de Facebook, tienden a crear "burbujas informativas", en las que el usuario sólo recibe información acorde con sus intereses, pero que no necesariamente documentan el estado de las cosas. ¿Cómo evitar estas burbujas?
Es muy difícil. Las redes sociales tienen como características principales eso: acercarte a los universos que te son afines. Pero me parece que los usuarios más jóvenes ya tienen la habilidad para navegar en mundos distintos de manera intencionada. Eso de alguna manera puede romper estas mónadas, este universo en el que todos queremos lo mismo. Hay una cosa que no me atrevo a nombrar todavía, porque la idea es producir un aparato teórico y metodológico de pensamiento y análisis, pero creo que hay un proceso de autorregulación de la red. Eso me parece más interesante porque permite que no te vayas con la finta de que todos somos del mismo color y queremos lo mismo. No es sencillo y es más fácil hacerlo en Twitter que en Facebook.
¿Por qué?
Porque el algoritmo funciona diferente. En Twitter depende en buena medida de a quién sigues, quién te sigue y quién retuitea a gente que ni sabes quiénes eran. Es un algoritmo que se alimenta de mayor diversidad, funciona más como un fractal, mientras que el algoritmo de Facebook tiende a ser centrífugo, agarra de las orillas y lleva al centro.
¿Qué trabajo han venido realizando en Signa_Lab y qué viene delante?
Empezamos a trabajar desde octubre del año pasado. Hemos organizado el trabajo en tres etapas analíticas: la preelectoral, de la que ya tenemos montón de material, descargas de Facebook y Twitter de temas nodales y puntuales sobre los que estamos haciendo análisis. Hemos publicado algunos y otros los iremos soltando.
Después tenemos la etapa electoral, que es en la que estamos desde finales de diciembre con el seguimiento a los precandidatos. Para esta etapa tenemos un programa de trabajo de siete puntos, que incluye pedagogía electoral, donde estamos proveyendo y trabajando sobre material que a los ciudadanos, a los estudiantes y a los académicos les permita llegar a julio con mayores herramientas. Estamos trabajando un conjunto de visualizaciones y librerías en 3D para ver las relaciones de poder entre los candidatos, de tal modo que éstas se puedan representar gráficamente.
Una tercera cuestión tiene que ver con el análisis y seguimiento puntual de coyunturas que se vinculan con las campañas. Trabajamos con dos scripts de desarrollo propio de Signa_Lab ITESO: Thot, que permite hacer minería en Twitter, y Protonpack, en honor a la pistola de Ghostbusters, para identificación y seguimiento de bots. Estamos afinando otro script para descarga de datos de Instagram.
Otra área de trabajo que me trae fascinada es el análisis de discurso de los candidatos en nivel big data para identificar, por ejemplo, las palabras más utilizadas. Por ejemplo, ves el vocabulario de "El Bronco" y te quieres ir para atrás… También estamos haciendo algunos ensayos de juegos probabilísticos tipo "Si crees en el matrimonio igualitario y la defensa de derechos humanos, el candidato que más se parece a tu perfil es X", para que la gente pueda jugar. Estamos tratando de hacer un uso creativo de la ciencia de redes y próximos a tener nuestro sitio web, para publicar a nuestro ritmo.
Finalmente, tenemos la descarga habitual de información, en la que cada tres días se descarga todo lo de redes sociales de los precandidatos y aspirantes.
¿Qué valor puede tener toda esta información para la gente? ¿Cómo puede utilizarla?
Queremos romper con el conocimiento encriptado y por eso estamos haciendo visualizaciones al alcance de la mayoría de los ciudadanos. Cuando el grafo [representación gráfica de una conversación en redes sociales] es indispensable para mostrar cierto tipo de relaciones, lo explicamos hasta el menor detalle. Como somos un laboratorio interdisciplinario de estudios aplicados, nuestra responsabilidad es poner el conocimiento a disposición de la sociedad. Por eso también podemos armar paquetes de información para los medios interesados o para los investigadores.
En 2012 aparecieron los bots y ahora tenemos las fake news. ¿Cuáles otros fenómenos están viciando el comportamiento de las redes?
Los bots inteligentes. Oxford los llama cyborg bot, que no es más que la combinación de la inteligencia humana con la tecnología automatizada. Otra cosa que no se había visto de manera muy clara en 2012 y que ha ido creciendo y ganando espacio son los trolls, que no son lo mismo que los bots. El troll es una cuenta peligrosa que se dedica no sólo a generar trending topics o matar conversaciones, sino que llega incluso a amenazar a voces puntuales. Vamos a tener muchas amenazas e intentos de silenciar a voces que son claves.
¿Y cómo se puede prevenir esta dinámica?
Twitter no está haciendo la chamba como debería. Ofreció más controles pero no ha pasado, es una red corporativa que va a lo suyo, por su lana. Tampoco lo va a regular la Fiscalía Especial para la Atención de Delitos Cometidos contra de la Libertad de Expresión (Feadle), que tiene un rezago enorme de casos. La prevención tiene que ver más con una estrategia de autocuidado y autorregulación, que no censura. Creo que, a diferencia de 2012, Artículo 19 ya es una ONG fuerte en el país.
El poder político ha aprendido el algoritmo y cómo montarse en él, pero también nosotros hemos aprendido mucho. Tiendo a ser optimista en esto.
Noticia