Filtran más de 2500 páginas sobre cómo funciona el algoritmo de búsquedas de Google #FVDigital

0
90



En un golpe significativo para la privacidad corporativa y la transparencia en la industria tecnológica, se han filtrado cerca de 2500 páginas de información confidencial sobre cómo funciona el algoritmo del motor de búsquedas de Google

Filtración sin precedentes

Esta filtración ofrece una visión sin precedentes de los mecanismos internos que determinan cómo se clasifican los resultados de búsqueda, revelando detalles cruciales sobre los factores que Google prioriza y las estrategias que emplea para mantener la integridad de sus resultados de búsqueda.

La filtración incluye documentos detallados sobre las actualizaciones recientes del algoritmo de Google, resaltando cambios significativos como la mayor importancia de la “frescura” del contenido y la “confiabilidad”. Según los documentos, la frescura del contenido, es decir, la frecuencia con la que se actualiza una página web, se ha convertido en un factor mucho más influyente, subiendo de menos del 1% a representar el 6% del algoritmo. Este cambio subraya la creciente necesidad de que los creadores de contenido mantengan sus sitios web actualizados para mejorar su clasificación en los resultados de búsqueda.

Además, la confiabilidad, que ahora representa el 5% del algoritmo, ha emergido como un factor crucial. Esta categoría se centra en la precisión y la veracidad del contenido, especialmente en áreas sensibles como finanzas y salud. Google ha implementado esta medida en respuesta a la proliferación de información errónea y ha comenzado a utilizar tecnologías de inteligencia artificial para evaluar la exactitud del contenido. Los sitios que citen fuentes académicas y eviten afirmaciones no verificadas tendrán más probabilidades de ser favorecidos por el algoritmo.

Otra revelación importante es la disminución en la importancia de los enlaces de retroceso (backlinks). Históricamente, los backlinks han sido un pilar en la clasificación de Google, representando en su apogeo más del 50% del algoritmo. Sin embargo, en 2024, su peso ha disminuido al 14%, reflejando la capacidad creciente de Google para evaluar la calidad del contenido de manera más independiente, sin depender tanto de los enlaces externos.

Lucha contra la IA

Los documentos también abordan la lucha continua de Google contra el contenido automatizado y de baja calidad. La empresa ha intensificado sus esfuerzos para detectar y penalizar los sitios que utilizan contenido generado por inteligencia artificial a gran escala, una práctica que ha sido ampliamente criticada por producir resultados de búsqueda de baja calidad. Según la filtración, cientos de sitios que empleaban contenido generado por IA han sido eliminados del índice de Google, enfatizando la postura de la empresa contra el contenido que no aporta valor real a los usuarios.

Te podría interesar:

Además, la política de Google contra el abuso de dominios expirados y la manipulación de la reputación del sitio también se ha endurecido. La compañía ahora toma medidas más severas contra aquellos que compran dominios con alta autoridad para publicar contenido irrelevante o de baja calidad, y contra los que intentan inflar artificialmente la reputación de sus sitios mediante la compra de enlaces en sitios de alta autoridad.

La filtración ha generado una oleada de reacciones en la comunidad SEO, con expertos analizando las implicaciones de estos cambios y adaptando sus estrategias para alinearse con las nuevas prioridades de Google. Muchos en la industria consideran que estos documentos proporcionan una hoja de ruta invaluable para optimizar sitios web de acuerdo con los factores de clasificación más actuales.

Sigue leyendo:
Cómo el nuevo algoritmo de Google y la IA están transformando los resultados de nuestras búsquedas
Google está sufriendo para lograr eliminar las respuestas sin sentido de su IA
Revelan la fortuna que está pagando Google para continuar siendo el motor de búsqueda del iPhone

video
play-sharp-fill



Source link