![google](https://www.dominiolibre.mx/wp-content/uploads/2024/05/Captura-de-pantalla-2024-05-30-a-las-10.57.53 a.m-1024x580.png)
Los expertos en SEO dicen que una filtración masiva de 14.000 características de clasificación expone el modelo de cómo Google selecciona en secreto Internet.
Búsqueda de Google A menudo se le conoce como la puerta a Internet: es la primera parada en el viaje de la mayoría de las personas hacia la información en línea. Sin embargo, Google no No dice mucho sobre cómo organiza Internet, haciendo de Search una caja negra gigante que dicta lo que sabemos y lo que no hacemos. t. Esta semana, una filtración de 2500 páginas, reportada por primera vez por un veterano de la optimización de motores de búsqueda (SEO) Rand Fishkin, le dio al mundo una idea del misterio de la Búsqueda de Google que data de 26 años.
“Creo que la conclusión más importante es que lo que dicen los representantes públicos de Google y lo que hace el motor de búsqueda de Google son dos cosas diferentes”, dijo Fishkin.
Estos documentos brindan una visión más detallada de cómo la Búsqueda de Google controla la información que consumimos. Llevar la página web adecuada a su computadora no es Una tarea pasiva mientras miles de decisiones editoriales son tomadas en su nombre por un grupo secreto de empleados de Google. Para el SEO, una industria que vive y muere por los algoritmos de Google, los documentos filtrados son un terremoto. Es como si los árbitros de la NFL reescribieran las reglas del fútbol a mitad del temporada, y recién lo estás descubriendo mientras juegas el Super Bowl.
Varios expertos en SEO le cuentan a Gizmodo que la filtración enumera 14.000 características de clasificación que, como mínimo, sientan un modelo de cómo Google organiza todo. en la web. Algunos de estos factores incluyen la determinación por parte de Google de la autoridad de un sitio web sobre un tema determinado, el tamaño del sitio web o el número de clics que recibe una página web. Google ha negado anteriormente que utilice algunas de estas funciones de clasificación en la búsqueda, pero la empresa confirmó que estos documentos son reales, aunque, en su relación, imperfectos.
“Advertimos en contra de hacer suposiciones inexactas sobre la búsqueda basadas en información fuera de contexto, desactualizada o incompleta”
Dijo un portavoz de Google.
“Hemos compartido amplia información sobre cómo funciona la búsqueda y los tipos de factores que nuestros sistemas sopesan, mientras también trabajando para proteger la integridad de nuestros resultados de la manipulación».
Con respecto a la “precaución” de Google, la compañía no confirmará qué es correcto o no acerca de estos documentos. Google dice que es incorrecto. asumir que esta es información completa sobre la Búsqueda y le dice a Gizmodo que revelar demasiada información podría permitir a los malos actores. En última instancia, No sé qué influye en la determinación de estos factores ni cuánto peso le da la Búsqueda de Google a cada uno, si corresponde.
“Simplemente estamos observando diferentes variables que están considerando”, dijo Mike King, un experto en SEO que fue uno de los primeros en analice la filtración, en una entrevista con Gizmodo. “Esta es la granularidad con la que [Google] mira los sitios web».
Esta filtración fue notada por primera vez por Erfan Azimi, un practicante de SEO que encontró la documentación API públicamente en GitHub. No está claro si estos documentos fueron realmente “filtrados” o de alguna manera publicados por Google en un rincón tranquilo de la web, tal vez por accidente. Azimi pretendía publicitar estos documentos llevándolos a Fishkin la semana pasada, quien le pidió a King que ayudara a darles sentido .
King señala que una característica de clasificación “homepagePagerankNs” sugiere que la notoriedad de la página de inicio de un sitio web podría apuntalar todo lo que publica.
Fishkin escribe que la filtración hace referencia a un sistema llamado NavBoost, al que hizo referencia por primera vez el vicepresidente de búsqueda de Google, Pandu Nayak, en su Departamento de Justicia. testimonio—que supuestamente mide los clics para mejorar la clasificación en la Búsqueda de Google.Muchos en la industria del SEO están tomando estos documentos como confirmación de lo que la industria sospecha desde hace mucho tiempo: un sitio web considerado popular por Google. puede recibir una clasificación de búsqueda más alta para una consulta incluso aunque un sitio menos conocido pueda tener mejor información.
En los últimos meses, varias pequeñas editoriales han visto su tráfico de Búsqueda de Google desaparecer. Cuando Nilay Patel de The Verge le preguntó al director ejecutivo de Google, Sundar Pichai, sobre esto la semana pasada, Pichai dijo que No estaba claro si esa es una tendencia uniforme.”Una característica de clasificación que King menciona parece categorizar esos sitios pequeños de manera uniforme.
“Tienen una función llamada ‘sitiopersonalpequeño’, y no sabemos cómo se usa, por supuesto, pero es una indicación de que [Google] está buscando comprender si estos son sitios más pequeños”
Dijo King. “Siendo que muchos de estos pequeños sitios están obteniendo aplastado en este momento, simplemente demuestra que [Google] no está haciendo algo para contrarrestar lo que son estas señales de grandes marcas».
En particular, Pichai mencionó más tarde en esa entrevista con The Verge que, en otras ocasiones, Google ha dirigido más tráfico hacia sitios pequeños. Las funciones de clasificación podrían indicar las palancas que Google puede tirar. A medida que más y más organizaciones de medios nacionales otorgan licencias para que su contenido aparezca en ChatGPT, Google La búsqueda también parece inclinarse hacia los editores más grandes. En términos generales, esto podría tener un efecto aplastante, comprimiendo lo que la mayoría de la gente escucha en la corriente principal. organizaciones de medios.
Los efectos dominó de estos documentos filtrados de Google se sintieron ampliamente. Kristen Ruby, directora ejecutiva de Ruby Media Group, que ha trabajado en público digital relaciones y SEO durante más de 15 años, le dice a Gizmodo que recibió un texto siniestro el lunes por la noche: “Mañana la mierda se va a ir abajo con Google ”.
Ruby encontró rápidamente la fuga y notó dos características de clasificación que le llamaron la atención:
“isElectionAuthority” y “isCovidLocalAuthority”. ser la forma en que Google clasifica la credibilidad de una página web para proporcionar información adecuada sobre las elecciones y el COVID-19, respectivamente. En 2019, Ruby escribió extensamente acerca de Cómo mide Google las páginas web confiables (al que Google se refiere como comer, que representa Experiencia, Experiencia, Autoridad y Confianza) es inherentemente político. Señala que la medida que Google de estos factores tiende a sesgar a la líneas políticas.
“Para mí es problemático que Google no proporcione contexto sobre elementos críticos en los datos como ‘isElectionAuthority’ o ‘isCovidLocalAuthority’. ¿Cómo define Google una autoridad en estos dominios críticos?”, dijo Ruby en una declaración enviada por correo electrónico. “No debería tener que adivinar cuál es la respuesta. Google debería ser sincero y decirme cuál es la respuesta”.
Debe estar conectado para enviar un comentario.