Perquè quan busquem a Google ens apareguin tot un seguit de webs, primer cal que algú les llegeixi i indexi correctament. I això ho fan, evidentment, robots -o automatismes- que recorren la xarxa seguint enllaços i desant els continguts que troben per després avaluar-los a fons i indexar-los.
Google ja fa temps que treballa per intentar millorar els resultats de cerca, sobretot perquè en alguns casos costa trobar informació realment rellevant degut a les estratègies que s'utilitzen per millorar el posicionament de forma més o menys "artificial": enlloc de treballar per generar un contingut interessant, especialitzat o que sigui de referència, tot aconseguint trànsit i enllaços, i amb un codi intern ben estructurat que en permeti la lectura, encara hi ha massa casos en què sembla més fàcil, aprofitant que és un robot, fer-li creure de forma exclusiva que hi ha un contingut que de vegades és impossible trobar.
En podríem trobar molts exemples, però en general, moltes cerques ens porten a pàgines on el què havíem buscat no hi apareix per enlloc, o apareix en un cercador intern que ens diu que no hi ha resultats, per exemple.
Ara, amb l'arribada de l'actualització anomenada Penguin 2.0, Google hauria renovat l'algoritme d'indexació per tal de destriar millor la "brossa". De moment, afecta un 2,3% de les cerques en anglès, que tot i ser un percentatge petit, en números absoluts és molt alt.
Potser, malgrat tot, si no hi hagués tant d'impacte en les cerques de resultats que no interessen, posicionats pel simple fet d'aparèixer primers, Google podria centrar-se en que els seus robots entenguessin encara millor el contingut i el relacionessin. Però, de moment, sabent que això pot moure molts diners, el què han d'aconseguir és que les cerques retornin resultats interessants. I, per molt temps i actualitzacions que portin, encara lluiten per, com en diríem a casa, separar el gra de la palla. I el què ens queda... (Per Miquel Serrabassa / Nació Digital) |