Els gestors dels mitjans informatius a l’era digital corren el perill de sacralitzar el tràfic com en els mitjans tradicionals alguns van convertir els grps en una mena de deïtat totpoderosa deslligada del públic. Si atenem només al tràfic per donar valor a la informació, els reis del mambo són els buscadors, especialment Google que s’ha convertit en el gran àrbitre de l’èxit o el fracàs de la informació a les xarxes. Tècnics informàtics, directors de les redaccions i periodistes de base es passen el dia especulant sobre els algoritmes que fa servir Google per indexar les informacions i per expandir-les viralment a través dels seus serveis de recerca i, sobretot, d’alertes. Cal, doncs, conèixer el cervell de Google per fer informació a la xarxa.

Originàriament, Larry Page va generar l’algoritme (els paràmetres de recerac d’informació a través de la xarxa) de Google a partir dels criteris d’indexació dels articles acadèmics en les revistes científiques que ponderen el nombre de citacions amb la rellevància dels que fan la cita. Què vol dir això? Doncs que per calcular el valor d’un article científic es compta quantes vegades apareix citat per altres autors -això en garanteix l’originalitat- i es pondera la rellevància dels científics que fan la cita per assegurar la importància. Publicar, segons aquests índexs acadèmics, no és garantia de qualitat científica sinó que cal mesurar el nombre de publicacions d’un autor juntament amb l’impacte de les mateixes. Traslladats aquests criteris a la informació, Google va comprovar que el tractament periodístic de les dades no es tan rigorós com el dels resultats dels experiments científics. Primer, perquè les fonts el que pretenen és multiplicar la difusió de la informació i, per tant, regalen les dades que tenen un cop les han convertit en notícia. Segon, perquè  el interès públic fa que els mitjans informatius no apliquin ni molt menys un criteri exhaustiu d’exclusivitat, sinó més aviat el contrari. Volen explicar al seu públic allò que pensen que els interessa no només allò que saben només ells. I, en tercer lloc, la deontologia dels periodistes és més laxa que la dels científics i no sempre citen els autors originals d’una informació.

A partir de detectar aquestes particularitats, hom considera que Page ha alterat el seu algoritme original i entre notícies amb les mateixes citacions des de fonts de rellevància equivalent ha decidit triar  les més antigues, o sigui les primeres a publicar com a garantia d’originalitat. Això ha convertit la immediatesa en un nou atribut periodístic: és més notícia allò que podem explicar amb menys decalatge de temps respecte l’esdeveniment. La història recent és plena de notícies falses simplement com a resultat de la precipitació en la seva publicació per tal d’assegurar un bon posicionament als buscadors utilitzant les claus del llenguatge SEO. Segurament, Google trobarà la manera de corregir de nou l’algoritme i penalitzar aquells autors o aquelles adreces url que cauen sovint en aquest defecte i castigar-les en la seva distribució viral.

Amb tot, la pregunta que ens hem de fer és si Google ha de ser el barem de la informació. Anar ràpid a processar un fet és una obligació del periodista que vol donar un bon servei al públic. Però, ¿és la immediatesa un valor que aprecien els usuaris? A diferència de Google, el públic no està rastrejant permanentment la xarxa per detectar allò que es nou. Novament, com en el cas d’altres sistemes de distribució. les empreses periodístiques haurien de dedicar més esforços a entendre els algoritmes dels seus usuaris que no pas els de Google. El periodisme té sentit si organitza comunitats de coneixement compartit. El tràfic dóna un contacte tan efímer com el comandament a distància. Caldria no repetir vells errors. La situació es prou complicada perquè els mitjans informatius no prescindeixen de res ni de ningú: el tràfic que arriba dels buscadors i l’adhesió del públic a la seva marca per la confiança que li mereix. Les dues coses.

Anuncios