Dva zásahy robota Googlebot do denníkov servera v rovnakom čase by mohli naznačovať chybu na strane spoločnosti Google

Na stretnutí Johna Muellera sa správca webu obával, že v denníkoch servera dostane dva prístupy od robota Googlebot súčasne, s odstupom približne niekoľkých milisekúnd.

Zaujímalo ich, či na to existuje vysvetlenie – od surového HTML vs. vykresleného HTML alebo niečo iné?

John vysvetlil, že je možné, že problém je v rôznych používateľských agentoch, ako je napríklad počítač alebo mobil.

V opačnom prípade môže ísť o potenciálnu poruchu.

Ak sú používateľské agenty sledovateľné v rámci softvéru na strane servera, je možné, že ide o chybu na strane Google, ktorú treba opraviť.

Tak či onak, je to bezvýznamné.

K výmene dôjde v čase 5:01 vo videu.

John Mueller prepis stretnutia

Správca webu 3 5:01
V pohode. Ahoj John. Keď sa teda pozrieme na denníky nášho servera, zvyčajne vidíme dva prístupy od Googlebota súčasne alebo, viete, dávajú alebo vezmú, niekoľko milisekúnd, však? Môj tím sa snažil nájsť vysvetlenie.

A dokonca máme trochu problém, ktorý funguje správne, jeden verí, že na náš server dopadá z rôznych fyzických miest. Správny? Iný, viete, si myslí, že by to mohlo byť desktop verzus mobil. Moje peniaze sú na surovom HTML oproti vykreslenému HTML. Cúval som správneho koňa?

Ján 5:35
Neviem, čo, myslím, čo vidíš? Je to rovnaká adresa URL a rovnaký používateľský agent? Všetko? Je to ten istý užívateľský agent?
Vyzerá to ako niečo, čo by sa nemalo stávať. Ale pretože, myslím, ak by to boli počítače a mobilné zariadenia, boli by to iní agenti používateľov. A ak je to ten istý používateľský agent Googlebot, mali by sme to trochu uložiť do vyrovnávacej pamäte.

Čítať:  Google: Návštevnosť kľúčového slova od robotov nie je hodnotiacim signálom

Nemalo by to byť tak, že v priebehu niekoľkých sekúnd by sme znova obnovili tú istú stránku, aj keby sme ju vykresľovali, použili by sme akúsi verziu HTML, ktorú máme, a potom stránku vykreslíme. všetok extra obsah. Stránku by sme nevykreslili opätovným načítaním kódu HTML, pretože by to bolo trochu, trochu neefektívne.

Takže to vyzerá skôr ako chyba na našej strane, ak to vidíte, alebo možno vidíte niečo v protokoloch, čo je zjednodušené alebo to sleduje trochu inak, neviem. Ale je to rovnaká adresa URL, rovnaký používateľský agent, napríklad v priebehu niekoľkých sekúnd, čo sa zdá byť problémom na našej strane.

Odlišné fyzické umiestnenia by neboli tento prípad, pretože stránky zvyčajne indexovo prehľadávame z rovnakého miesta. Nie je to teda tak, že by sme ho prehľadávali ako jeden z tohto dátového centra, raz z iného. V podstate vyberieme jedno miesto a z tohto miesta prehľadáme celý web.

Správca webu 3 7:12
Dobre, to je teda zaujímavé, pretože ak viete, naše spotrebiteľské skúsenosti, ktoré používame, viete, miesto na poskytovanie relevantnejšieho obsahu, to by mohlo znamenať, že by sme mohli obmedzovať množstvo obsahu prístupného pre Googlebot, ak ho prehľadávate iba z jedného miesta, áno?

Ján 7:33
Takmer určite. Áno. Och, ďalšia vec, ktorá sa tam môže stať, je, že som niekedy videl, že pri CDN alebo nastaveniach zabezpečenia, kde v podstate raz požadujeme URL a ono to urobí nejaké presmerovanie späť na rovnakú URL alebo niečo podobné, ako an-neviem, opatrenie proti botom alebo niečo podobné, kde možno sledujeme takéto presmerovanie a akosi nepriamo preberáme obsah.

Čítať:  Ako odstrániť XML Sitemap v Google Search Console

A to by bolo niečo, o čom si myslím, že ak, ak sa to skutočne deje, ak môžete napríklad pomocou nástroja na kontrolu URL zistiť, že keď vykonávate živé požiadavky, dochádza k takémuto preskakovaniu cez vaše servery, vyzerá to ako niečo, čo by byť neefektívny na vašej strane, kde by ste pravdepodobne dokázali dostať viac plazí, ak by ste medzi tým nemali taký druh nepriamej činnosti.

Nové Publikácie:

ODPORÚČANIE