Po měsíci se spolu zase setkáváme u našeho pravidelného měsíčníku o novinkách v SEO. Stejně jako v předchozích měsících, i v září se toho v SEO rybníčku událo poměrně hodně. Podíváme se na Bing a jeho inovaci ve vyhodnocení komplexních dotazů, názor Googlu na současné použití canonicalu a noindexu, studii, která se věnovala recenzím a žádostech o ně, dále pak také na novinky v rámci Indexing API a nakonec na novinky ohledně použití robots.txt. Pojďme se do toho pustit.
Bing rozšiřuje AI výsledky o komplexní dotazy
V posledních měsících, možná už letech se aktivně testuje využití AI při generování výsledků vyhledávání. Nejaktivnější je v tomhle ohledu zatím pravděpodobně Google. Nicméně ani Bing neusíná na vavřínech a pracuje na zdokonalování své AI. Nyní se Bing zaměřil na generované výsledky vyhledávání pro komplexní dotazy. Tyto dotazy bývají velmi problematické a i tady Bing naráží na nízkou kvalitu odpovědí. Výsledky generované AI jsou označeny jako “Enhanced with Bing generative search”. Vše je prozatím v beta verzi a pouze v USA. Bing aktivně pracuje na vylepšeních na základě uživatelské zpětné vazby.
Google vysvětluje synergii canonicalu a noindexu
John Mueller z Googlu se už v minulosti nechal slyšet, že využití canonicalu a noindexu současně je možné. Nyní však celou situaci okolo této synergie vysvětlil. Obává se totiž, že správci webů v této synergii vidí nějaké jasné řešení toho, jak URL zakázat indexovat a zároveň dát signál vyhledávači, že jde o podobný obsah jako je na jiné URL. John naznačil, že současné využití canonicalu a noindexu může vést k neočekávaným výsledkům. Pokaždé totiž k těmto direktivám či doporučením přistupuje jinak na základě situace nebo kontextu webu. Základním kompasem by měla v takových situacích být snaha o co nejjasnější komunikaci směrem k vyhledávačům. Nestavte vyhledávače zbytečně před rozhodovací dilemata, pokud chcete mít dopady pod kontrolou.
Zdroj: https://www.searchenginejournal.com/canonical-and-noindex-at-same-time/528501/
Studie v rámci žádostí o recenze a jejich dopadu na lokální značku
GatherUp stojí za studií, která se věnovala dopadům recenzí a žádostí o ně na vnímání lokálního byznysu. Studie se věnovala celkem 23 000 lokalitám. To už je pořádný vzorek na relevantní vyhodnocení dat. Na základě studie se omílá myšlenka, zda by se množství a práce s recenzemi měla promítnout do seznamu KPI v rámci péče o zákazníky. Z celé studie vzešly tři zásadní pointy. Prvním z nich je fakt, že zákazníci rádi ocení váš zájem o hodnocení jejich zkušenosti s vašimi službami. Největší benefit z toho má obor zdravotnické péče, právníci a advokáti a pojišťovnictví. Více si říkejte o recenze a dostanete je. Dalším klíčovým faktorem je cesta, jakou žádáte o recenze. Výsledky studie dokazují, že kombinace více komunikačních kanálů je značně efektivnější, než kterýkoliv z nich samostatně (Zde SMS a Email). Třetím a posledním zásadním výsledkem studie je pozitivní vliv žádostí o recenze na jejich kladný výsledek. Pokud budete aktivní v poptávání hodnocení, zákazníci mají často větší tendenci být na vás hodnější a udělovat pozitivnější recenze. Žádosti o hodnocení a jejich správa by měla být základním stavebním kamenem každé zákaznické podpory. Zejména pokud vám záleží na značce jako takové.
Odkaz na získání studie: https://go.gatherup.com/power-of-online-reputation-guide
Google upravil dokumentaci pro Indexing API
Rozmohl se nám tady takový nešvar. Oficiální API od Googlu, které slouží k rychlé indexaci často aktualizovaných stránek, bylo velmi často zneužíváno k nepovolenému hromadnému odesílání URL k indexaci. Na jeden request šlo odesílat až 1000 URL najednou. API je primárně určeno pro indexování livestream videí a pracovních nabídek. Doteď byl Google poměrně tolerantní, ale již začal trestat první hříšníky. Nyní do API rozhraní přidal i oficiální upozornění pro ty, kteří by chtěli API nadále zneužívat proti pravidlům. Při opakovaném porušení podmínek následuje zakázání účtu.
Zdroj: https://www.searchenginejournal.com/google-adds-spam-warning-to-indexing-api-documentation/526839/
Google ignoruje nepodporovaná pole v robots.txt
Robots.txt je soubor v kořenovém adresáři vašeho webu či e-shopu, ve kterém jsou důležité informace pro vyhledávače, které vás navštěvují. Najdete v něm například příkazy řídící procházení jednotlivých částí webu pomocí “disallow” a “allow”, povolení přístupu jednotlivým botům v rámci “user-agent”, nebo odkaz na vaši sitemapu. Právě tyto čtyři zmíněné parametry bere v potaz Google. Nově upřesnil, že žádné další nad rámec těchto čtyř nevyužije. Další příkazy mohou stále využívat další vyhledávače. Například hojně využívaný “crawl-delay”, který řídí rychlost, jakou vyhledávače procházejí web. Ten je ale Googlem ignorován. Google také varuje, že jakákoliv další direktiva nad rámec podporovaných může zapříčinit problémy s indexací a doporučuje tak robots.txt projít a aktualizovat.
Další články : SEO novinky
Začněte ještě dnes a transformujte svůj byznys pomocí efektivních SEO strategií od Webmium!
Chcete maximálně posunout Váš web výše?
SEO/UX/Analytic Specialista ✅ Překonávám bariéry a tvořím mosty mezi weby a jejich návštěvníky ✅