Páginas

lunes, 14 de marzo de 2016

Adiós al PageRank de Google. Consecuencias

Adiós al PageRank

El anuncio de Google de volver el PageRank a su naturaleza de métrica interna de la compañía, en lugar de ser una magnitud que podía ser observada por cualquiera, exhibida en una amplia variedad de herramientas o consultada mediante una API pública, debería llevarnos a pensar en las consecuencias de este tipo de medidas de relevancia y las formas de manejarse en una web caracterizada por una brutal sobreabundancia de información.
El PageRank nació como elemento fundamental que dio origen a Google. La idea, original de Larry Page y que lleva su nombre, respondía a una modificación de algo que el fundador veía de manera constante durante su período de estudiante doctoral: el citation index que, en el mundo académico, identifica a los autores más relevantes. 
El PageRank suponía, en realidad, la traslación prácticamente exacta de la idea de ese índice científico: si en el mundo académico, para saber si un paper determinado es relevante o no, consultamos cuántos otros autores lo citan en su bibliografía y, a su vez, cuál el la importancia relativa de cada uno de los que lo citan, en la web podíamos aplicar lo mismo para atribuir a una página una idea de relevancia.
A partir de esa idea original y tan aparentemente simple, el PageRank se convirtió en una manera de alejar la métrica de relevancia de las sucias manos de unos webmasters que, si podían influirla directamente, la iban invariablemente a contaminar. 
En efecto, mientras las métricas estuvieron basadas en criterios presentes en la página, el deterioro de los motores de búsqueda fue constante: spam con las palabras clave más buscadas, intentos de esconder absurdamente términos dentro de la página para que los motores de búsqueda los viesen pero los usuarios no, y mil perversiones más. 
La llegada del PageRank convirtió la manipulación en una tarea indudablemente más compleja, inventó toda una industria millonaria – el SEO – y, al introducir en sus criterios los enlaces provenientes de las redes sociales, tapizó las páginas web de pegatinas de “comparte eso en todas las redes que puedas”, al tiempo que daba lugar a toda una obsesión por el sensacionalismo y el clickbait. 
Curiosamente, nunca pudimos decir que no se viese venir: si conviertes en métrica sacrosanta el número de veces que otros han compartido o enlazado lo que tú dijiste, no es de extrañar que el sensacionalismo sea el resultado.
En las últimas iteraciones del algoritmo, Google ha ido degradando progresivamente la importancia de las redes sociales, al tiempo que trabajaba en una nueva métrica, el Knowledge-Based Trust score o KBT. 
Google conforma una red de páginas de confianza, elabora una serie de criterios que considera objetivos, verídicos o fiables, y compara cada página con esos criterios aceptados con el fin de descartar las páginas sensacionalistas, las llenas de factoides absurdos, las inútiles, o las que directamente mienten o dicen barbaridades consideradas en contra de la ciencia o de los criterios de verosimilitud generalmente aceptados.
La idea de un KBT, de una clasificación de las páginas web en función de si dicen la verdad o no, parece interesante desde un punto de vista científico, pero indudablemente peligrosa en manos de una compañía que no solo puede tener su propio criterio sobre lo que es verdad o no, sino también un pasado relativamente turbio en cuanto a la posible manipulación del algoritmo para beneficiarse de ello. 
¿Qué ocurriría si, del mismo modo en que Google manipuló su algoritmo en su momento para degradar a determinados competidores a riesgo de dañar a sus usuarios, la compañía terminase estando en una posición desde la que fuese capaz de afectar la manera en que consideramos o evaluamos determinadas cuestiones para concluir si son ciertas o falsas? 
La idea de un mundo en el que pseudociencias como la homepatía o teorías de la conspiración o pseudocientíficas como los chemtrails o el movimiento antivacunas caigan a la zona de irrelevancia de la web resulta obviamente interesante, pero ¿y si, de manera imperceptible, aquellos movimientos sociopolíticos que no resultasen convenientes para los intereses de Google fuesen relegándose igualmente a esa zona? 
¿Estamos dispuestos a confiar ciegamente en que Google – o la empresa que sea – utilizará un algoritmo así de manera completamente objetiva y sin manipulación alguna? 
¿Estaría dispuesta Google – o la empresa que fuese – a supervisar sus prácticas en ese sentido con los niveles de transparencia adecuados como para que esa sospecha no pudiese existir?
Los años que han ido desde 1999 hasta 2016 se han caracterizado por definir un mundo en el que lo social era la única manera conocida de evaluar la relevancia. 
Mientras Google ha definido su algoritmo fundamentalmente mediante componentes sociales, hemos ido viendo cómo todo el resto de los motores de búsqueda se adaptaban a jugar al mismo juego – con resultados obviamente poco exitosos – o desaparecían, al tiempo que veíamos cómo un nuevo tipo de sensacionalismo invadía la web. 
Pasar a definir la relevancia mediante otros criterios parece recomendable si no queremos pasar el resto de nuestra vida rodeados de titulares absurdamente intrigantes, de listas estúpidas, de personajes dedicados a compartirlo todo a cambio de dinero y de spam social.
Si Google no cambia su algoritmo, no podrás creer lo que pasará después. 
Pero si efectivamente decide cambiarlo y tratar de consagrar la verdad y la ciencia como criterios, la gran realidad es que tampoco va a ser nada sencillo, y que nos esperan aún unas cuántas curvas. Ese cambio no es trivial: de hecho, es enormemente importante. 
El criterio por el que el mundo entero decide lo que es o no fiable, lo que es o no relevante o lo que merece o no la pena leer no se cambia fácilmente…
This article is also available in English in my Medium page, “Bye bye, PageRank
Logo de Enrique Dans

Enrique Dans

No hay comentarios:

Publicar un comentario