Průvodce SEO

Technické SEO

Kompletní průvodce od základů po audit. Zjistěte, proč technické SEO rozhoduje o tom, zda Google váš obsah vůbec najde, a jak ho nastavit správně hned od začátku.

6
pilířů technického SEO
25
bodů auditního checklistu
8,4 %
nárůst konverzí při zrychlení o 0,1 s
20 min
odhadovaná doba čtení
0,1 s
zrychlení = +8,4 % konverzí (Google & Deloitte)
+32 %
bounce rate při prodloužení načítání z 1 na 3 s
2021
Core Web Vitals jsou oficálním ranking faktorem
10 %
stránky na pozici č. 1 splňují CWV častěji než pozice č. 9
Úvod

Co je technické SEO

Technické SEO označuje soubor optimalizačních postupů zaměřených na technické základy webu, tedy na vše, co ovlivňuje schopnost vyhledávačů web najít, procházet, indexovat a správně vyhodnotit. Netýká se obsahu ani zpětných odkazů, ale infrastruktury, která obsahu a odkazům umožňuje plně fungovat.

Zjednodušeně: technické SEO staví základy domu. Bez pevných základů se každé patro, obsah, Off-page SEO i UX, dřív nebo později sesype.

Tři pilíře SEO v přehledu

Technické SEO tvoří základ trojúhelníku, bez nějž nemá smysl investovat do ostatních dvou pilířů.

Technické SEO On-page SEO Off-page SEO
Co řeší Technické základy a infrastruktura webu Obsah a jeho optimalizace Autorita webu z externích zdrojů
Příklady Rychlost, indexace, HTTPS, struktura URL Texty, nadpisy, meta tagy, interní odkazy Zpětné odkazy, zmínky, PR, recenze
Kdo to dělá Vývojář + SEO specialista Copywriter + SEO specialista SEO specialista + PR manažer
Kdy to řešit Jako první, je to základ Paralelně s technickým SEO Po technickém SEO a obsahu

Kdy technické SEO řešit

01
Hned od začátku
Při tvorbě nového webu nebo e-shopu je ideální čas nastavit vše správně, ne to zpětně opravovat.
02
Při redesignu nebo migraci
Každý přesun na novou doménu nebo změna architektury s sebou nese riziko ztráty rankingů bez správného technického ošetření.
03
Při poklesu návštěvnosti
Náhlý propad organické návštěvnosti je nejčastěji způsoben technickou chybou nebo algoritmickou aktualizací Googlu.
04
Před spuštěním PPC nebo linkbuildingu
Technický stav webu přímo ovlivňuje Quality Score v Google Ads. Špatné technické SEO = vyšší cena za kliknutí.
Dopad na výsledky

Proč technické SEO ovlivňuje ranking

Vyhledávač nemůže zobrazovat stránky, které nedokáže najít, přečíst nebo pochopit. I stránky, které najde, hodnotí mimo jiné podle toho, jak rychle se načítají, jak dobře fungují na mobilu a jak stabilní jsou při načítání.

Přímý vliv na ranking

Core Web Vitals jsou od června 2021 oficiálním hodnoticím faktorem Googlu. Tři metriky (LCP, CLS, INP) měří reálnou zkušenost uživatele a přímo vstupují do hodnocení stránek v SERPu.

  • Rychlost načítání ovlivňuje, jak vysoko stránka rankuje v konkurenčním prostředí
  • Vizuální stabilita a interaktivita jsou sledovány přes reálná uživatelská data
  • Stránky na pozici č. 1 splňují Core Web Vitals o 10 % častěji než stránky na pozici č. 9
Nepřímý vliv přes uživatelské signály

Rychlý a přehledný web snižuje míru okamžitého opuštění a zvyšuje dobu strávenou na stránce. Výzkum Googlu ukazuje: prodloužení načítání z 1 na 3 sekundy zvyšuje bounce rate o 32 %. Při 6 sekundách je to 106 %.

  • Konverze: zrychlení o 0,1 sekundy zvýší konverzní poměr e-shopů průměrně o 8,4 % (Google & Deloitte)
  • Průměrná hodnota objednávky roste o 9,2 % při stejném zrychlení
AI Overviews (2024+): Technicky zdravý web s jasnou strukturou a správnými strukturovanými daty má výrazně vyšší šanci být citován jako zdroj v AI přehledech Googlu než web s technickými chybami.
Pilíř 1

Crawling a indexace

Než Google může váš web zobrazit ve výsledcích vyhledávání, musí ho nejprve najít, projít a zařadit do svého indexu. Technické SEO ovlivňuje hlavně první dvě fáze tohoto procesu: crawling a indexaci.

Jak funguje Googlebot

Googlebot je crawler Googlu, automatizovaný program, který systematicky prochází weby, sleduje odkazy a stahuje obsah stránek. Rozhoduje se, kam jít, na základě odkazů z jiných stránek, souboru sitemap.xml a crawl budgetu. Googlebot nenavštěvuje každou stránku každý den, frekvence závisí na autoritě webu, rychlosti aktualizace a technickém nastavení.

Základní technické nástroje crawlingu

robots.txt

Soubor robots.txt

Textový soubor v kořenovém adresáři webu (např. presah.agency/robots.txt), který říká crawlerům, které části webu mají nebo nemají procházet.

Nejčastější chyba: blokování CSS a JavaScriptu. Googlebot potřebuje tyto soubory vidět, aby mohl správně vyrenderovat stránku. Druhá kritická chyba: zapomenutý Disallow: / z doby vývoje, který zůstane aktivní i po spuštění.

Jak zkontrolovat: Google Search Console → Nastavení → robots.txt. Před každou úpravou soubor otestujte.

sitemap.xml

Sitemap.xml

XML soubor se seznamem všech důležitých URL vašeho webu. Slouží jako mapa pro crawlery, zejména pro nové nebo méně autoritativní weby.

Co do sitemap patří: indexovatelné stránky s unikátním obsahem, kanonické URL.
Co nepatří: stránky s noindex tagem, stránky s redirect, URL s parametry, duplicitní obsah.

Sitemap odešlete do Google Search Console → sekce Sitemaps.

IndexNow

IndexNow

Protokol pro okamžité oznámení vyhledávačům (Bing, Yandex), že obsah na daných URL byl přidán nebo upraven. Místo čekání na přirozený crawl oznámíte změnu přímo.

Podporují ho pluginy jako Yoast SEO nebo RankMath pro WordPress.

Crawl budget

Crawl budget je počet stránek, které je Googlebot ochoten procházet na vašem webu za určité časové období. Pro malé weby (do cca 500 URL) to téměř nikdy není problém. Pro e-shopy a weby s tisíci URL může být zásadní, pokud Googlebot zbytečně prochází nekvalitní stránky a nezbývá kapacita na ty důležité.

Co crawl budget zbytečně vyčerpává
  • URL parametry (filtry, řazení, vyhledávání)
  • Nekonečné stránkování
  • Duplicitní URL (s/bez www, s/bez lomítka)
  • Session ID v URL
  • Broken links vedoucí do slepých uliček
  • Stránky s tenkým nebo duplicitním obsahem
Jak crawl budget optimalizovat
  • Blokujte zbytečné URL v robots.txt nebo nastavte noindex
  • Udržujte čistou sitemap
  • Vyřešte duplicity přes canonical
  • Opravte broken links
  • Spotřebu sledujte v GSC → Crawl Stats

Kontrola indexace v Google Search Console

Otevřete Google Search Console a přejděte do sekce Indexování → Stránky. Report rozděluje URL do kategorií: Indexed (indexované), Not indexed (neindexované) a Error (chyby).

Crawled – currently not indexed znamená, že Google stránku navštívil, ale rozhodl se ji neindexovat, typicky kvůli tenkému obsahu nebo nízké přidané hodnotě. Použijte URL Inspection Tool (lupa v horním panelu GSC) pro přesnou diagnostiku konkrétní stránky.
Pilíř 2

Architektura webu a URL struktura

Architektura webu určuje, jak jsou stránky uspořádány a vzájemně propojeny. Dobrá architektura pomáhá uživatelům rychle najít to, co hledají, a crawlerům efektivně procházet celý web. Špatná architektura znamená osiřelé stránky, zředěnou link equity a zmatení Googlebotu.

Informační architektura a interní prolinkování

Hierarchie webu by měla mít logickou stromovou strukturu: homepage → kategorie → podkategorie → detail. Klíčové stránky by měly být dostupné do 3 kliknutí od homepage, ne proto, že by to byl dogmatický SEO zákon, ale protože to odpovídá přirozenému chování uživatelů i crawlerů.

Osiřelé stránky

Orphan pages

Stránky bez jediného interního odkazu z jiné části webu. Pro Googlebot jsou prakticky neviditelné, pokud nejsou v sitemap, nemusí je nikdy navštívit.

Detekce: Screaming Frog nebo Ahrefs Site Audit → sekce Orphan Pages.

Link equity

Distribuce autority přes interní odkazy

Zpětné odkazy z externích webů přinášejí autoritu na úrovni domény. Interní prolinkování ji pak distribuuje na konkrétní stránky. Stránky, na které interně odkazujete nejvíce, Google považuje za nejdůležitější.

SEO-friendly URL

URL adresa by měla být krátká, popisná a obsahovat cílové klíčové slovo. Struktura URL by měla odrážet hierarchii webu. Důležitější než délka je srozumitelnost pro uživatele i crawlery.

Špatná URL

https://www.priklad.cz/index.php?id=123&blog=45&lang=cs

  • Obsahuje parametry srozumitelné jen pro databázi
  • Žádná informace o obsahu stránky
  • Špatná čitelnost pro uživatele i crawlery
Dobrá URL

https://www.priklad.cz/technicke-seo/

  • Krátká, popisná, s klíčovým slovem
  • Uživatel i Googlebot okamžitě ví, o čem stránka je
  • Odráží hierarchii webu
Důležité: URL strukturu měňte co nejméně. Každá změna URL vyžaduje 301 přesměrování a s tím spojenou ztrátu části link equity. Před úpravou URL vždy analyzujte, kolik zpětných odkazů na danou URL směřuje.

Kanonizace URL (canonical tag)

Duplicitní obsah vzniká snáze, než si myslíte. Stejná stránka může být dostupná přes více URL: s www a bez www, přes HTTP i HTTPS, s lomítkem na konci a bez něj, nebo s UTM parametry.

Canonical tag (rel="canonical") říká Googlu, která verze URL je autoritativní. Ostatní verze přestane brát jako duplicity a celou autoritu přenese na kanonickou URL.

Příklad canonical tagu v HTML:

<link rel="canonical" href="https://presah.agency/technicke-seo/" />

Self-referencing canonical, tedy canonical tag odkazující na stránku samu na sebe, doporučujeme nastavit na každé stránce bez výjimky. Zabraňuje nežádoucí indexaci UTM parametrů a variací URL.

Přesměrování: 301 vs. 302

Typ Kdy použít SEO dopad
301 (trvalé) Trvalá změna URL, smazání stránky, přechod HTTP → HTTPS Přenáší ~99 % link equity na novou URL
302 (dočasné) A/B testování, dočasná nedostupnost stránky Google si pamatuje původní URL jako kanonickou, link equity nepřenáší
Redirect chainy a smyčky jsou jednou z nejčastějších technických chyb. Redirect chain (A → B → C) ztrácí část link equity a zpomaluje načítání. Redirect smyčka (A → B → A) způsobuje chybu a stránka se vůbec nenačte. Detekujete je pomocí Screaming Frog → sekce Redirects.

Stránkování a filtrace na e-shopech

Filtry, řazení a kombinace parametrů na e-shopu mohou vygenerovat tisíce URL s téměř identickým obsahem. Pro Googlebot je to noční můra: neví, které stránky indexovat, crawl budget se vyčerpá na bezcenných URL a autoritu rozkradou duplicity.

Řešení: filtrované URL (např. /boty/?barva=cervena) nastavte jako noindex nebo jim přidejte canonical odkazující na nefiltrovanou kategorii. Parametry, které nemají být crawlovány, blokujte v robots.txt.

Hreflang a jazykové mutace

Hreflang je atribut, který říká Googlu, že existují jazykové nebo regionální varianty dané stránky. Bez něj může Google zobrazit českou verzi polskému uživateli.

Nejčastější chyba: hreflang tag pouze na homepage. Hreflang musí být implementován na každé stránce, která má jazykový ekvivalent, a každá jazyková verze musí zpětně odkazovat na ostatní. Zkontrolujte pomocí hreflang Tag Testing Tool od Ahrefs.
Pilíř 3

Rychlost webu a Core Web Vitals

Rychlost webu přestala být jen UX faktorem. Od června 2021 jsou Core Web Vitals přímým hodnoticím faktorem Googlu. Tři metriky, tři dimenze uživatelské zkušenosti. Pokud je váš web pomalý nebo nestabilní, Google to ví a bere to v potaz.

LCP

Largest Contentful Paint — Načítání

Co měří: Hodnota jak rychle se načte největší viditelný prvek stránky, typicky hero obrázek, hlavní nadpis nebo velký textový blok nad zlomem stránky.

HodnoceníHodnota LCP
Dobrépod 2,5 sekundy
Průměrné2,5 – 4 sekundy
Špatnénad 4 sekundy
Co LCP zhoršuje:
  • Velké, nekomprimované obrázky (nejčastější příčina)
  • Pomalá odezva serveru (TTFB nad 600 ms)
  • Blokující CSS nebo JavaScript
  • Chybějící preload pro hero obrázek
Jak zlepšit:
  • Komprimujte obrázky (WebP formát)
  • Nastavte preload pro hero image: <link rel="preload" as="image">
  • Použijte CDN, odstraňte render-blocking resources
CLS

Cumulative Layout Shift — Vizuální stabilita

Co měří: jak moc se obsah stránky přeskupuje během načítání. Každý neočekávaný posun prvku se zaznamenává a sčítá.

HodnoceníHodnota CLS
Dobrépod 0,1
Průměrné0,1 – 0,25
Špatnénad 0,25

Klasický příklad špatného CLS: uživatel se chystá kliknout na tlačítko, v tu chvíli se načte banner a tlačítko se posune o 3 cm dolů. Uživatel klikne jinam. Frustrující pro uživatele, negativní signál pro Google.

Co CLS způsobuje:
  • Obrázky bez definovaných atributů width a height
  • Dynamicky vkládaný obsah (bannery, cookie lišty, chat widgety)
  • Webfonty bez fallbacku způsobující blikání textu při načítání
Jak zlepšit:
  • Vždy definujte width a height u obrázků a videí
  • Rezervujte prostor pro dynamicky načítaný obsah
  • Použijte font-display: swap nebo font-display: optional pro webfonty
INP

Interaction to Next Paint — Interaktivita

Co měří: Hodnota jak rychle stránka reaguje na interakci uživatele, kliknutí, stisknutí klávesy, dotek na mobilu. Měří nejdelší zpoždění z celé návštěvy (75. percentil všech interakcí).

HodnoceníHodnota INP
Dobrépod 200 ms
Průměrné200 – 500 ms
Špatnénad 500 ms
Důležité: INP od 12. března 2024 nahradilo metriku FID (First Input Delay) jako třetí Core Web Vital. FID měřil jen první interakci, INP měří každou interakci během celé návštěvy. Je přesnější a náročnější na splnění.
Co INP zhoršuje:
  • Těžký JavaScript blokující hlavní vlákno prohlížeče
  • Třetí strany (chat widgety, analytika, reklamní skripty)
  • Zbytečné re-rendery v React/Vue aplikacích
Jak zlepšit:
  • Optimalizujte JavaScript (code splitting, lazy loading skriptů)
  • Omezte třetí strany nebo je načítejte asynchronně
  • U SPA aplikací minimalizujte blokování main threadu

Jak měřit Core Web Vitals

PageSpeed Insights

Zadáte URL a dostanete dvě sady dat: Field Data (reálná data od uživatelů Chromu za posledních 28 dní) a Lab Data (simulace). Pro SEO jsou rozhodující Field Data.

Google Search Console → Core Web Vitals

Přehled výkonu celého webu rozdělený na desktop a mobil. Ukazuje skupiny špatně performujících URL, ne jen jednotlivé stránky.

Chrome DevTools → Lighthouse

Laboratorní test přímo v prohlížeči. Výsledky jsou rychlé, ale nejsou Field Data. Neberte je jako definitívní čísla.

Web Vitals Chrome Extension

Zobrazuje živé Core Web Vitals hodnoty přímo při procházení webu. Ideální pro rychlou diagnostiku konkrétních stránek.

Optimalizace obrázků

Neoptimalizované obrázky jsou nejčastější příčinou špatného LCP a celkově pomalého načítání. Přitom jde o jednu z nejsnáze opravitelných věcí.

Formát a komprese
  • WebP je o 25–35 % menší než JPEG při stejné kvalitě
  • AVIF je ještě menší, ale podporu má zatím méně prohlížečů
  • PNG používejte jen pro grafiku s průhledností
  • Cíl: pod 100 kB pro běžné obrázky, pod 200 kB pro hero
  • Nástroje: TinyPNG, Squoosh (Google), ImageOptim (Mac)
Implementace v HTML
  • Lazy loading: obrázky pod zlomem načítejte s loading="lazy"
  • Hero obrázek (nad zlomem) vždy načítejte eagerly nebo přes preload
  • Alt text: pište konkrétně, co obrázek zobrazuje, ne jen „obrázek produktu“
  • Rozměry: vždy definujte width a height, zabrání CLS při načítání

CDN — Content Delivery Network

CDN je síť serverů rozmístěných v různých geografických lokalitách. Když uživatel načítá stránku, CDN automaticky obsluhuje požadavek z nejbližšího serveru, místo toho, aby data putovala například z Prahy k uživateli v Londýně.

Kdy má CDN smysl: pro weby s mezinárodní nebo národně rozptýlenou audiencí, pro weby s velkými obrázky nebo videem, pro e-shopy s vysokým provozem. Nejpopulárnější možnosti: Cloudflare (má i bezplatný plán), BunnyCDN, AWS CloudFront.
Pilíř 4

Technické on-page prvky

Technické on-page prvky jsou na hranici technického a klasického On-page SEO. Patří sem vše, co je v HTML kódu stránky a ovlivňuje, jak ji vyhledávač čte a zobrazuje, ale nespadá to pod obsah jako takový.

Meta tag robots

Meta tag robots říká crawlerům, co mají s danou stránkou dělat. Nejdůležitější hodnoty jsou noindex (nestránkovat do indexu), nofollow (nenásledovat odkazy) a noarchive (nezobrazovat cached verzi).

Kdy použít noindex
  • Děkovací stránky po formuláři
  • Výsledky interního vyhledávání
  • Stránky s filtry
  • Testovací prostředí
  • Stránky určené pouze přihlášeným uživatelům
  • Duplicitní stránky, které nelze canonical tagovat
Pozor na konflikt

Pokud je stránka blokovaná v robots.txt, Googlebot ji nenavštíví a nepřečte ani noindex tag. Výsledek: stránka se může dostat do indexu přes zpětné odkazy, ale bez obsahu.

Blokovat v robots.txt a zároveň mít noindex je logický rozpor. Zvolte jedno z toho.

V SEO komunitě je běžný výraz dofollow, který označuje standardní hypertextový odkaz, který vyhledávačům říká: sleduj tento odkaz a zahrň ho do výpočtu hodnocení cílové stránky.

HTTP status kódy

Stavové kódy jsou odpovědi serveru na požadavky crawlerů a prohlížečů. Z SEO pohledu jsou nejdůležitější tyto:

Kód Název SEO dopad
200 OK Stránka existuje a je dostupná, ideální stav
301 Trvalé přesměrování Přenáší ~99 % link equity na novou URL
302 Dočasné přesměrování Zachovává původní URL jako kanonickou, nepoužívejte pro trvalé změny
404 Stránka nenalezena Signalizuje ztracenou stránku, opravte nebo přesměrujte
410 Trvale smazáno Rychlejší signál pro Google než 404, že stránka byla záměrně odstraněna
500 Chyba serveru Kritická chyba, stránka nedostupná, Google ji přestane indexovat
Soft 404 je zákeřná varianta: server vrátí kód 200 (OK), ale obsah stránky říká „stránka nenalezena“. Google to detekuje a může stránku z indexu vyřadit. Nejčastěji vzniká u e-shopů s vyprodanými produkty nebo smazanými kategoriemi.

Strukturovaná data a schema markup

Strukturovaná data jsou kód přidaný do HTML, který Googlu říká, o čem stránka je, ve strukturovaném, strojově čitelném formátu. Umožňují zobrazení rozšířených výsledků (rich snippets) v SERPu: hodnocení hvězdičkami, FAQ přímo ve výsledcích, cena produktu, datum události.

Google doporučuje formát JSON-LD (JavaScript Object Notation for Linked Data) vložený do tagu <script> v hlavičce stránky. Je nejsnadněji implementovatelný a nejméně náchylný k chybám.

Nejdůležitější typy strukturovaných dat
  • Organization / LocalBusiness — základní informace o firmě, kontakty, sociální sítě
  • Article / BlogPosting — pro blogové články a novinky (autor, datum publikace)
  • BreadcrumbList — drobečková navigace zobrazená přímo v SERPu
  • FAQPage — otázky a odpovědi zobrazené přímo ve výsledcích vyhledávání
  • Product + Review — pro e-shopy: cena, dostupnost, hodnocení zákazníků
Jak testovat strukturovaná data

Drobečková navigace (Breadcrumbs)

Breadcrumbs zobrazují cestu od homepage k aktuální stránce: Hlavní stránka → Kategorie → Podkategorie → Název stránky. Mají dvojí přínos: pro uživatele jasně ukazují, kde na webu se nacházejí. Pro SEO přidávají interní odkazy, posilují hierarchickou strukturu webu a s implementovaným BreadcrumbList schema se zobrazují přímo v SERPu místo holé URL.

Pilíř 5

Bezpečnost a technická důvěryhodnost

HTTPS a SSL certifikát

HTTPS Google sleduje jako ranking faktor od roku 2014. Weby bez SSL certifikátu (tedy stále na HTTP) jsou v moderním prohlížeči označeny jako „Nezabezpečené“, což odrazuje uživatele a zhoršuje konverzní poměr.

Mixed content

Situace, kdy web běží na HTTPS, ale některé zdroje (obrázky, skripty, styly) jsou načítány přes HTTP. Prohlížeč je zablokuje nebo označí stránku jako částečně nezabezpečenou.

Detekce: Chrome DevTools → Console nebo Screaming Frog.

Platnost certifikátu a přesměrování

Bezplatné certifikáty (Let’s Encrypt) mají platnost 90 dní. Nastavte automatické obnovování, expirovaný certifikát způsobí bezpečnostní varování a Googlebot přestane stránky navštěvovat.

Přesměrování HTTP → HTTPS nastavte jako 301 na úrovni serveru. Nikdy nevytvářejte redirect chain HTTP → HTTP/www → HTTPS.

Mobile-first indexing

Mobile-first indexing znamená, že Google primárně hodnotí a indexuje mobilní verzi vašeho webu bez ohledu na to, zda uživatel vyhledává na mobilu nebo desktopu. Platí pro všechny weby od roku 2021.

Nejčastější chyby v kontextu mobile-first
  • Obsah viditelný na desktopu, ale skrytý na mobilu (CSS display:none)
  • Pomalejší mobilní verze kvůli nevhodně načítaným zdrojům
  • Různé interní prolinkování nebo jiná strukturovaná data na mobilní verzi

Jak zkontrolovat: GSC → Mobile Usability report ukáže konkrétní problémy. URL Inspection Tool → View Tested Page → záložka Screenshot zobrazí, jak Googlebot stránku na mobilu vidí. Rychlý test: Google Mobile-Friendly Test.

Log file analýza

Access logy jsou záznamy serveru o každém požadavku, který na něj přišel, včetně požadavků od Googlebotu. Z log souborů zjistíte: které stránky Googlebot skutečně navštěvuje a jak často, které URL jsou crawlovány ale neindexovány, zda crawler nenaráží na chyby a jak se mění frekvence crawlování po aktualizacích webu.

Log file analýza je pokročilá technika vhodná pro větší weby. Nástroje: Screaming Frog Log File Analyser (zdarma do 1 000 řádků), Botify nebo Semrush Log File Analyzer pro enterprise.

Konfigurace serveru (.htacces)

Pro pokročilé nastavení technického SEO (např. hromadná přesměrování 301, nastavení HTTPS nebo cachování) se nejčastěji používá soubor htacces. Správná konfigurace na úrovni serveru urychluje procházení webu a zvyšuje jeho bezpečnost.

Pilíř 6

JavaScript SEO

JavaScript je dnes součástí prakticky každého webu. Přidává interaktivitu, dynamický obsah a moderní UX. Jenže Googlebot s JavaScriptem nepracuje stejně jako prohlížeč, a to může způsobit zásadní indexační problémy, na které vlastníci webů přicházejí pozdě.

Proč je JavaScript problém pro crawlery

Standardní HTML stránka je pro Googlebot jednoduchá: přijde, přečte HTML, uvidí obsah. JavaScript-renderovaná stránka je složitější: Googlebot nejprve stáhne HTML (první vlna, first wave indexing), ale ten je prázdný nebo minimální. Obsah se vygeneruje až po spuštění JavaScriptu (druhá vlna, second wave indexing). Mezi první a druhou vlnou může uplynout od hodin po několik týdnů.

Praktický dopad: navigace v React, obsah načítaný přes AJAX, produkty generované JavaScript frameworkem, to vše může být pro Google neviditelné nebo viditelné se zpožděním.

Jak zjistit, zda Google váš JavaScript zvládá

Otevřete Google Search Console → URL Inspection → zadejte konkrétní URL → klikněte na „View Tested Page“ → záložka Screenshot. Pokud screenshot vypadá jinak než web v prohlížeči, obsah je prázdný nebo navigace chybí, máte JavaScript SEO problém.

Řešení pro JavaScript SEO

Doporučeno
Server-side rendering (SSR)

Obsah je vygenerován na serveru a Googlebot dostane plné HTML bez nutnosti spouštět JavaScript. Nejrobustnější řešení. Podporují Next.js (React), Nuxt.js (Vue), Angular Universal.

Doporučeno
Static Site Generation (SSG)

HTML stránky jsou předem vygenerovány při buildu. Ideální pro blogy, dokumentaci, marketingové weby. Rychlé, bezpečné, crawlery milují.

Alternativa
Pre-rendering

Headless prohlížeč (Puppeteer, Rendertron) předem vygeneruje HTML pro crawlery. Řešení pro případ, kdy SSR není možné.

Alternativa
Progressive enhancement

Základ stránky funguje bez JavaScriptu, JS přidává jen vylepšení. Historicky nejrobustnější přístup, ale v praxi obtížně realizovatelný pro moderní SPA.

Pokud používáte WordPress s page builderem nebo klasické PHP weby, JavaScript SEO problémy jsou méně pravděpodobné. Hlavní riziková oblast jsou moderní SPA aplikace (React, Vue, Angular) bez SSR. Podrobný technický průvodce: Google Search Central — JavaScript SEO basics.
Audit

Technický SEO audit: jak na něj

Technický SEO audit je systematická analýza technického stavu webu. Odhalí problémy, které blokují výkon ve vyhledávání, a poskytne podklad pro prioritizaci oprav. Audit doporučujeme provádět minimálně jednou ročně, po každém redesignu nebo migraci a vždy, když organická návštěvnost nečekaně klesne.

Nástroje pro technický SEO audit

Nástroj K čemu slouží Cena
Google Search Console Indexace, Core Web Vitals, chyby, mobilní použitelnost Zdarma
Screaming Frog SEO Spider Kompletní crawl audit, redirect chainy, broken links, duplicate content Zdarma (do 500 URL) / od £259/rok
PageSpeed Insights Rychlost načítání, Core Web Vitals (Field + Lab Data) Zdarma
GTmetrix Rychlost webu, waterfall analýza načítání Zdarma / placený plán
Ahrefs Site Audit Kompletní technický audit, prioritizace problémů Od $129/měsíc
Semrush Site Audit Kompletní technický audit, sledování v čase Od $139,95/měsíc
Rich Results Test Testování strukturovaných dat Zdarma
robots.txt Tester Testování robots.txt pravidel Zdarma (v GSC)
Web Vitals Extension Živé Core Web Vitals hodnoty v prohlížeči Zdarma (Chrome)

Technický SEO checklist — 25 kontrolních bodů

Projděte každý bod systematicky. Začněte od shora, problémy v crawlingu a indexaci mají největší dopad na výsledky.

Crawling a indexace
  • Robots.txt — neblokuje důležité stránky, CSS nebo JavaScript?
  • Sitemap.xml — odeslána do Google Search Console? Obsahuje jen indexovatelné URL bez přesměrování?
  • GSC Coverage report — zkontrolujte Excluded a Error stránky. Jsou mezi nimi stránky, které mají být indexovány?
  • URL Inspection — otestujte klíčové stránky (homepage, kategorie, pillar page). Jsou indexovány a renderovány správně?
  • Crawl budget — pro weby nad 1 000 URL: kolik stránek crawler navštívil? Navštěvuje zbytečné URL?
Architektura a URL
  • Osiřelé stránky — existují stránky bez jediného interního odkazu? Detekce: Screaming Frog nebo Ahrefs Site Audit.
  • Kliknutí od homepage — jsou všechny důležité stránky dostupné do 3 kliknutí?
  • URL struktura — jsou URL krátké, popisné a bez zbytečných parametrů?
  • Canonical tagy — nastaveny na každé stránce včetně self-referencing? Nejsou v konfliktu s noindex?
  • Přesměrování — existují redirect chainy (A→B→C)? Jsou všechna přesměrování 301 a ne 302?
Duplicitní obsah
  • Jedna verze homepage — www.priklad.cz, priklad.cz, HTTP i HTTPS přesměrovávají na jednu kanonickou URL?
  • E-shop filtrace — jsou filtrované a řazené URL ošetřeny noindex nebo canonical?
  • Stránkování — stránky /page/2/ a další mají canonical nebo noindex? Nevznikají duplicity?
Rychlost a Core Web Vitals
  • LCP — pod 2,5 sekundy? Měřte v PageSpeed Insights → Field Data pro mobil i desktop.
  • CLS — pod 0,1? Mají obrázky a videa definované rozměry width a height?
  • INP — pod 200 ms? Blokuje JavaScript hlavní vlákno? Načítají se třetí strany asynchronně?
  • Obrázky — komprimované a ve formátu WebP? Mají alt texty? Je aktivní lazy loading pro obrázky pod zlomem?
Bezpečnost a důvěryhodnost
  • HTTPS — web běží na HTTPS? SSL certifikát je platný a automaticky se obnovuje?
  • Mixed content — načítají se všechny zdroje přes HTTPS? (Chrome DevTools → Console)
  • Mobile-first — projde web Google Mobile-Friendly testem? Zobrazuje GSC chyby v Mobile Usability?
  • GSC manuální akce — zobrazuje Google Search Console varování o manuálních akcích nebo bezpečnostních problémech?
Strukturovaná data
  • Schema implementace — jsou implementována relevantní strukturovaná data (Organization, Article, FAQ, Product)?
  • Validace — projdou strukturovaná data Google Rich Results Testem bez chyb a varování?
Výsledky z praxe

Co technické SEO přináší v praxi

Technické SEO je investice, která se projeví postupně a měřitelně. Ukázky z naší práce s klienty:

Bohemian Estates logo
Bohemian Estates

Realitní společnost, kde jsme převzali kompletní správu marketingu včetně SEO technického základu, optimalizace obsahu a automatizací. Výsledky jsou měřitelné a dokumentované.

  • Nárůst impresí: 3,06×
  • Nárůst kliknutí: 4,47×
  • Uzavřené obchody: +80 až 100 %
  • 21 nových emailingových automatizací
  • Snížení nákladů na nástroje o ~60 %
CareerMarket logo
CareerMarket

Studentský portál práce, kde jsme po výpadku offline akcí (Covid) přesměrovali strategii na organický výkon. Technické SEO spolu s obsahovou optimalizací přineslo výsledky do jednoho roku.

  • Z cca 300 na cca 2 000 návštěv/měsíc za rok
  • Nárůst organického trafficu bez placeného média
  • Stabilní výkon i bez eventů jako zdroje trafficu
Časté dotazy

FAQ: nejčastější otázky o technickém SEO

Technické SEO se týká infrastruktury webu, toho, jak dobře ho dokážou crawlery najít, procházet a indexovat. On-page SEO se zaměřuje na samotný obsah stránek a jeho optimalizaci pro cílová klíčová slova: texty, nadpisy, meta tagy, interní prolinkování. Obě oblasti se překrývají, ale technické SEO je základ, bez něj nemá on-page SEO šanci plně fungovat.
Ne, ale základní technické znalosti pomáhají. Většinu auditu zvládnete pomocí nástrojů jako Google Search Console, PageSpeed Insights nebo Screaming Frog bez psaní kódu. Implementace oprav (úprava robots.txt, canonical tagů, přesměrování, schema markup) však vyžaduje buď práci s CMS pluginy (Yoast SEO, Rank Math) nebo spolupráci s vývojářem.
Záleží na konkrétní úpravě a velikosti webu. Oprava kritické chyby v robots.txt se může projevit do týdne, jakmile Googlebot web znovu projde. Core Web Vitals změny reflektuje Google Search Console po 28 dnech (používá rolling window). Celkový vliv technických úprav na rankingové pozice se typicky projevuje v horizontu 4 až 12 týdnů.
Pro malý web (do 100 stránek) jsou nejdůležitější: správná indexace všech klíčových stránek (ověřte v GSC), HTTPS, rychlost načítání (zejména na mobilu) a základní strukturovaná data (Organization nebo LocalBusiness schema). Crawl budget ani log file analýza nejsou na tomto rozsahu relevantní.
Pro e-shop jsou kritické: ošetření duplicitního obsahu z filtrů a stránkování (canonical nebo noindex), crawl budget management, optimalizace obrázků produktů (WebP, lazy loading, alt texty), Product schema markup s cenami a dostupností a rychlost na mobilních zařízeních. E-shopy mají nadprůměrně vysoký podíl mobilního trafficu.
Nejjednodušší signály: organická návštěvnost klesá bez zjevné příčiny, klíčové stránky nejsou v Google indexu (test: do Googlu zadejte site:vasedomena.cz/url-stranky), PageSpeed Insights hlásí špatné Core Web Vitals, v Google Search Console vidíte červené chyby nebo varovné zprávy. Definitivní odpověď dá systematický audit pomocí Screaming Frog a Google Search Console.
Crawl budget je počet stránek, které je Googlebot ochoten procházet na vašem webu v daném časovém období. Pro malé weby (do 500 URL) to téměř nikdy není problém. Pro e-shopy a velké weby (od cca 1 000 URL) je správa crawl budgetu důležitá: pokud Googlebot tráví čas na bezcenných URL (filtry, parametry, duplicity), nezbývá kapacita na důležité stránky.
Ano, přímo. Google Ads Quality Score zohledňuje mimo jiné rychlost načítání landing page a mobilní přívětivost. Nízké Quality Score znamená vyšší cenu za kliknutí (CPC) a horší pozice reklam. Technicky pomalý nebo špatně fungující web vás stojí více peněz v reklamě a zároveň přichází o organický traffic.
WordPress nabízí obrovskou výhodu: pluginy jako Yoast SEO nebo Rank Math zvládají většinu technického SEO (sitemap, canonical, robots.txt, schema) bez nutnosti psaní kódu. Hlavní rizika WordPress jsou: zbytečné pluginy zpomalující web, nevhodná šablona generující pomalý kód, špatné nastavení cachování. Custom řešení nabízejí vyšší kontrolu a výkon, ale veškerá technická SEO implementace je na vývojáři.
Google AI Overviews citují weby, které Google považuje za autoritativní a technicky spolehlivé zdroje. Správná implementace strukturovaných dat usnadňuje Googlu pochopit obsah a citovat konkrétní fakta. Rychlý, správně indexovaný web s jasnou strukturou má výrazně vyšší šanci být zahrnut do AI odpovědí než web s technickými problémy.
Samuel Krištof — CEO PŘESAH.agency

Autor článku

Samuel Krištof

CEO & CMO · PŘESAH.agency

SEO Online marketing Správa PPC Sociální sítě Emailing

Marketingu se věnuji od roku 2017. Začínal jsem ve Fajn skupině, kde jsem budoval komunity na Facebooku a záhy přešel k placeným kampaním. Postupně jsem se dostal k SEO, automatizacím a celkové správě marketingu. Dnes působím jako CEO agentury PŘESAH a zároveň jako externí CMO ve společnosti Bohemian Estates.

Obsah článku je ověřen vůči oficiálním zdrojům Google Search Central a Ahrefs. Naposledy aktualizováno: .

Potřebujete technický SEO audit?

Podíváme se na váš web a navrhneme konkrétní kroky. Bez obecných doporučení, bez zbytečných prodlev.

Nezávazná konzultace
Zdroje

Zdroje a reference

Přejít nahoru