Technické SEO
Kompletní průvodce od základů po audit. Zjistěte, proč technické SEO rozhoduje o tom, zda Google váš obsah vůbec najde, a jak ho nastavit správně hned od začátku.
Co je technické SEO
Technické SEO označuje soubor optimalizačních postupů zaměřených na technické základy webu, tedy na vše, co ovlivňuje schopnost vyhledávačů web najít, procházet, indexovat a správně vyhodnotit. Netýká se obsahu ani zpětných odkazů, ale infrastruktury, která obsahu a odkazům umožňuje plně fungovat.
Zjednodušeně: technické SEO staví základy domu. Bez pevných základů se každé patro, obsah, Off-page SEO i UX, dřív nebo později sesype.
Tři pilíře SEO v přehledu
Technické SEO tvoří základ trojúhelníku, bez nějž nemá smysl investovat do ostatních dvou pilířů.
| Technické SEO | On-page SEO | Off-page SEO | |
|---|---|---|---|
| Co řeší | Technické základy a infrastruktura webu | Obsah a jeho optimalizace | Autorita webu z externích zdrojů |
| Příklady | Rychlost, indexace, HTTPS, struktura URL | Texty, nadpisy, meta tagy, interní odkazy | Zpětné odkazy, zmínky, PR, recenze |
| Kdo to dělá | Vývojář + SEO specialista | Copywriter + SEO specialista | SEO specialista + PR manažer |
| Kdy to řešit | Jako první, je to základ | Paralelně s technickým SEO | Po technickém SEO a obsahu |
Kdy technické SEO řešit
Proč technické SEO ovlivňuje ranking
Vyhledávač nemůže zobrazovat stránky, které nedokáže najít, přečíst nebo pochopit. I stránky, které najde, hodnotí mimo jiné podle toho, jak rychle se načítají, jak dobře fungují na mobilu a jak stabilní jsou při načítání.
Core Web Vitals jsou od června 2021 oficiálním hodnoticím faktorem Googlu. Tři metriky (LCP, CLS, INP) měří reálnou zkušenost uživatele a přímo vstupují do hodnocení stránek v SERPu.
- Rychlost načítání ovlivňuje, jak vysoko stránka rankuje v konkurenčním prostředí
- Vizuální stabilita a interaktivita jsou sledovány přes reálná uživatelská data
- Stránky na pozici č. 1 splňují Core Web Vitals o 10 % častěji než stránky na pozici č. 9
Rychlý a přehledný web snižuje míru okamžitého opuštění a zvyšuje dobu strávenou na stránce. Výzkum Googlu ukazuje: prodloužení načítání z 1 na 3 sekundy zvyšuje bounce rate o 32 %. Při 6 sekundách je to 106 %.
- Konverze: zrychlení o 0,1 sekundy zvýší konverzní poměr e-shopů průměrně o 8,4 % (Google & Deloitte)
- Průměrná hodnota objednávky roste o 9,2 % při stejném zrychlení
Crawling a indexace
Než Google může váš web zobrazit ve výsledcích vyhledávání, musí ho nejprve najít, projít a zařadit do svého indexu. Technické SEO ovlivňuje hlavně první dvě fáze tohoto procesu: crawling a indexaci.
Jak funguje Googlebot
Googlebot je crawler Googlu, automatizovaný program, který systematicky prochází weby, sleduje odkazy a stahuje obsah stránek. Rozhoduje se, kam jít, na základě odkazů z jiných stránek, souboru sitemap.xml a crawl budgetu. Googlebot nenavštěvuje každou stránku každý den, frekvence závisí na autoritě webu, rychlosti aktualizace a technickém nastavení.
Základní technické nástroje crawlingu
Soubor robots.txt
Textový soubor v kořenovém adresáři webu (např. presah.agency/robots.txt), který říká crawlerům, které části webu mají nebo nemají procházet.
Disallow: / z doby vývoje, který zůstane aktivní i po spuštění.
Jak zkontrolovat: Google Search Console → Nastavení → robots.txt. Před každou úpravou soubor otestujte.
Sitemap.xml
XML soubor se seznamem všech důležitých URL vašeho webu. Slouží jako mapa pro crawlery, zejména pro nové nebo méně autoritativní weby.
Co nepatří: stránky s noindex tagem, stránky s redirect, URL s parametry, duplicitní obsah.
Sitemap odešlete do Google Search Console → sekce Sitemaps.
IndexNow
Protokol pro okamžité oznámení vyhledávačům (Bing, Yandex), že obsah na daných URL byl přidán nebo upraven. Místo čekání na přirozený crawl oznámíte změnu přímo.
Podporují ho pluginy jako Yoast SEO nebo RankMath pro WordPress.
Crawl budget
Crawl budget je počet stránek, které je Googlebot ochoten procházet na vašem webu za určité časové období. Pro malé weby (do cca 500 URL) to téměř nikdy není problém. Pro e-shopy a weby s tisíci URL může být zásadní, pokud Googlebot zbytečně prochází nekvalitní stránky a nezbývá kapacita na ty důležité.
Co crawl budget zbytečně vyčerpává
- URL parametry (filtry, řazení, vyhledávání)
- Nekonečné stránkování
- Duplicitní URL (s/bez www, s/bez lomítka)
- Session ID v URL
- Broken links vedoucí do slepých uliček
- Stránky s tenkým nebo duplicitním obsahem
Jak crawl budget optimalizovat
- Blokujte zbytečné URL v robots.txt nebo nastavte noindex
- Udržujte čistou sitemap
- Vyřešte duplicity přes canonical
- Opravte broken links
- Spotřebu sledujte v GSC → Crawl Stats
Kontrola indexace v Google Search Console
Otevřete Google Search Console a přejděte do sekce Indexování → Stránky. Report rozděluje URL do kategorií: Indexed (indexované), Not indexed (neindexované) a Error (chyby).
Architektura webu a URL struktura
Architektura webu určuje, jak jsou stránky uspořádány a vzájemně propojeny. Dobrá architektura pomáhá uživatelům rychle najít to, co hledají, a crawlerům efektivně procházet celý web. Špatná architektura znamená osiřelé stránky, zředěnou link equity a zmatení Googlebotu.
Informační architektura a interní prolinkování
Hierarchie webu by měla mít logickou stromovou strukturu: homepage → kategorie → podkategorie → detail. Klíčové stránky by měly být dostupné do 3 kliknutí od homepage, ne proto, že by to byl dogmatický SEO zákon, ale protože to odpovídá přirozenému chování uživatelů i crawlerů.
Orphan pages
Stránky bez jediného interního odkazu z jiné části webu. Pro Googlebot jsou prakticky neviditelné, pokud nejsou v sitemap, nemusí je nikdy navštívit.
Detekce: Screaming Frog nebo Ahrefs Site Audit → sekce Orphan Pages.
Distribuce autority přes interní odkazy
Zpětné odkazy z externích webů přinášejí autoritu na úrovni domény. Interní prolinkování ji pak distribuuje na konkrétní stránky. Stránky, na které interně odkazujete nejvíce, Google považuje za nejdůležitější.
SEO-friendly URL
URL adresa by měla být krátká, popisná a obsahovat cílové klíčové slovo. Struktura URL by měla odrážet hierarchii webu. Důležitější než délka je srozumitelnost pro uživatele i crawlery.
https://www.priklad.cz/index.php?id=123&blog=45&lang=cs
- Obsahuje parametry srozumitelné jen pro databázi
- Žádná informace o obsahu stránky
- Špatná čitelnost pro uživatele i crawlery
https://www.priklad.cz/technicke-seo/
- Krátká, popisná, s klíčovým slovem
- Uživatel i Googlebot okamžitě ví, o čem stránka je
- Odráží hierarchii webu
Kanonizace URL (canonical tag)
Duplicitní obsah vzniká snáze, než si myslíte. Stejná stránka může být dostupná přes více URL: s www a bez www, přes HTTP i HTTPS, s lomítkem na konci a bez něj, nebo s UTM parametry.
Canonical tag (rel="canonical") říká Googlu, která verze URL je autoritativní. Ostatní verze přestane brát jako duplicity a celou autoritu přenese na kanonickou URL.
Příklad canonical tagu v HTML:
<link rel="canonical" href="https://presah.agency/technicke-seo/" />
Self-referencing canonical, tedy canonical tag odkazující na stránku samu na sebe, doporučujeme nastavit na každé stránce bez výjimky. Zabraňuje nežádoucí indexaci UTM parametrů a variací URL.
Přesměrování: 301 vs. 302
| Typ | Kdy použít | SEO dopad |
|---|---|---|
| 301 (trvalé) | Trvalá změna URL, smazání stránky, přechod HTTP → HTTPS | Přenáší ~99 % link equity na novou URL |
| 302 (dočasné) | A/B testování, dočasná nedostupnost stránky | Google si pamatuje původní URL jako kanonickou, link equity nepřenáší |
Stránkování a filtrace na e-shopech
Filtry, řazení a kombinace parametrů na e-shopu mohou vygenerovat tisíce URL s téměř identickým obsahem. Pro Googlebot je to noční můra: neví, které stránky indexovat, crawl budget se vyčerpá na bezcenných URL a autoritu rozkradou duplicity.
Řešení: filtrované URL (např. /boty/?barva=cervena) nastavte jako noindex nebo jim přidejte canonical odkazující na nefiltrovanou kategorii. Parametry, které nemají být crawlovány, blokujte v robots.txt.
Hreflang a jazykové mutace
Hreflang je atribut, který říká Googlu, že existují jazykové nebo regionální varianty dané stránky. Bez něj může Google zobrazit českou verzi polskému uživateli.
Rychlost webu a Core Web Vitals
Rychlost webu přestala být jen UX faktorem. Od června 2021 jsou Core Web Vitals přímým hodnoticím faktorem Googlu. Tři metriky, tři dimenze uživatelské zkušenosti. Pokud je váš web pomalý nebo nestabilní, Google to ví a bere to v potaz.
Largest Contentful Paint — Načítání
Co měří:
| Hodnocení | Hodnota LCP |
|---|---|
| Dobré | pod 2,5 sekundy |
| Průměrné | 2,5 – 4 sekundy |
| Špatné | nad 4 sekundy |
Co LCP zhoršuje:
- Velké, nekomprimované obrázky (nejčastější příčina)
- Pomalá odezva serveru (TTFB nad 600 ms)
- Blokující CSS nebo JavaScript
- Chybějící preload pro hero obrázek
Jak zlepšit:
- Komprimujte obrázky (WebP formát)
- Nastavte preload pro hero image:
<link rel="preload" as="image"> - Použijte CDN, odstraňte render-blocking resources
Cumulative Layout Shift — Vizuální stabilita
Co měří: jak moc se obsah stránky přeskupuje během načítání. Každý neočekávaný posun prvku se zaznamenává a sčítá.
| Hodnocení | Hodnota CLS |
|---|---|
| Dobré | pod 0,1 |
| Průměrné | 0,1 – 0,25 |
| Špatné | nad 0,25 |
Klasický příklad špatného CLS: uživatel se chystá kliknout na tlačítko, v tu chvíli se načte banner a tlačítko se posune o 3 cm dolů. Uživatel klikne jinam. Frustrující pro uživatele, negativní signál pro Google.
Co CLS způsobuje:
- Obrázky bez definovaných atributů width a height
- Dynamicky vkládaný obsah (bannery, cookie lišty, chat widgety)
- Webfonty bez fallbacku způsobující blikání textu při načítání
Jak zlepšit:
- Vždy definujte width a height u obrázků a videí
- Rezervujte prostor pro dynamicky načítaný obsah
- Použijte
font-display: swapnebofont-display: optionalpro webfonty
Interaction to Next Paint — Interaktivita
Co měří:
| Hodnocení | Hodnota INP |
|---|---|
| Dobré | pod 200 ms |
| Průměrné | 200 – 500 ms |
| Špatné | nad 500 ms |
Co INP zhoršuje:
- Těžký JavaScript blokující hlavní vlákno prohlížeče
- Třetí strany (chat widgety, analytika, reklamní skripty)
- Zbytečné re-rendery v React/Vue aplikacích
Jak zlepšit:
- Optimalizujte JavaScript (code splitting, lazy loading skriptů)
- Omezte třetí strany nebo je načítejte asynchronně
- U SPA aplikací minimalizujte blokování main threadu
Jak měřit Core Web Vitals
PageSpeed Insights
Zadáte URL a dostanete dvě sady dat: Field Data (reálná data od uživatelů Chromu za posledních 28 dní) a Lab Data (simulace). Pro SEO jsou rozhodující Field Data.
Google Search Console → Core Web Vitals
Přehled výkonu celého webu rozdělený na desktop a mobil. Ukazuje skupiny špatně performujících URL, ne jen jednotlivé stránky.
Chrome DevTools → Lighthouse
Laboratorní test přímo v prohlížeči. Výsledky jsou rychlé, ale nejsou Field Data. Neberte je jako definitívní čísla.
Web Vitals Chrome Extension
Zobrazuje živé Core Web Vitals hodnoty přímo při procházení webu. Ideální pro rychlou diagnostiku konkrétních stránek.
Optimalizace obrázků
Neoptimalizované obrázky jsou nejčastější příčinou špatného LCP a celkově pomalého načítání. Přitom jde o jednu z nejsnáze opravitelných věcí.
Formát a komprese
Implementace v HTML
- Lazy loading: obrázky pod zlomem načítejte s
loading="lazy" - Hero obrázek (nad zlomem) vždy načítejte eagerly nebo přes preload
- Alt text: pište konkrétně, co obrázek zobrazuje, ne jen „obrázek produktu“
- Rozměry: vždy definujte width a height, zabrání CLS při načítání
CDN — Content Delivery Network
CDN je síť serverů rozmístěných v různých geografických lokalitách. Když uživatel načítá stránku, CDN automaticky obsluhuje požadavek z nejbližšího serveru, místo toho, aby data putovala například z Prahy k uživateli v Londýně.
Technické on-page prvky
Technické on-page prvky jsou na hranici technického a klasického On-page SEO. Patří sem vše, co je v HTML kódu stránky a ovlivňuje, jak ji vyhledávač čte a zobrazuje, ale nespadá to pod obsah jako takový.
Meta tag robots
Meta tag robots říká crawlerům, co mají s danou stránkou dělat. Nejdůležitější hodnoty jsou noindex (nestránkovat do indexu), nofollow (nenásledovat odkazy) a noarchive (nezobrazovat cached verzi).
Kdy použít noindex
- Děkovací stránky po formuláři
- Výsledky interního vyhledávání
- Stránky s filtry
- Testovací prostředí
- Stránky určené pouze přihlášeným uživatelům
- Duplicitní stránky, které nelze canonical tagovat
Pozor na konflikt
Pokud je stránka blokovaná v robots.txt, Googlebot ji nenavštíví a nepřečte ani noindex tag. Výsledek: stránka se může dostat do indexu přes zpětné odkazy, ale bez obsahu.
Blokovat v robots.txt a zároveň mít noindex je logický rozpor. Zvolte jedno z toho.
HTTP status kódy
Stavové kódy jsou odpovědi serveru na požadavky crawlerů a prohlížečů. Z SEO pohledu jsou nejdůležitější tyto:
| Kód | Název | SEO dopad |
|---|---|---|
| 200 | OK | Stránka existuje a je dostupná, ideální stav |
| 301 | Trvalé přesměrování | Přenáší ~99 % link equity na novou URL |
| 302 | Dočasné přesměrování | Zachovává původní URL jako kanonickou, nepoužívejte pro trvalé změny |
| 404 | Stránka nenalezena | Signalizuje ztracenou stránku, opravte nebo přesměrujte |
| 410 | Trvale smazáno | Rychlejší signál pro Google než 404, že stránka byla záměrně odstraněna |
| 500 | Chyba serveru | Kritická chyba, stránka nedostupná, Google ji přestane indexovat |
Strukturovaná data a schema markup
Strukturovaná data jsou kód přidaný do HTML, který Googlu říká, o čem stránka je, ve strukturovaném, strojově čitelném formátu. Umožňují zobrazení rozšířených výsledků (rich snippets) v SERPu: hodnocení hvězdičkami, FAQ přímo ve výsledcích, cena produktu, datum události.
Google doporučuje formát JSON-LD (JavaScript Object Notation for Linked Data) vložený do tagu <script> v hlavičce stránky. Je nejsnadněji implementovatelný a nejméně náchylný k chybám.
Nejdůležitější typy strukturovaných dat
- Organization / LocalBusiness — základní informace o firmě, kontakty, sociální sítě
- Article / BlogPosting — pro blogové články a novinky (autor, datum publikace)
- BreadcrumbList — drobečková navigace zobrazená přímo v SERPu
- FAQPage — otázky a odpovědi zobrazené přímo ve výsledcích vyhledávání
- Product + Review — pro e-shopy: cena, dostupnost, hodnocení zákazníků
Jak testovat strukturovaná data
- Google Rich Results Test — ověří, zda data splňují požadavky pro rich snippets
- Schema Markup Validator — technická validace schema.org formátu
- Chyby v implementaci způsobí, že rich snippets se vůbec nezobrazí
Drobečková navigace (Breadcrumbs)
Breadcrumbs zobrazují cestu od homepage k aktuální stránce: Hlavní stránka → Kategorie → Podkategorie → Název stránky. Mají dvojí přínos: pro uživatele jasně ukazují, kde na webu se nacházejí. Pro SEO přidávají interní odkazy, posilují hierarchickou strukturu webu a s implementovaným BreadcrumbList schema se zobrazují přímo v SERPu místo holé URL.
Bezpečnost a technická důvěryhodnost
HTTPS a SSL certifikát
HTTPS Google sleduje jako ranking faktor od roku 2014. Weby bez SSL certifikátu (tedy stále na HTTP) jsou v moderním prohlížeči označeny jako „Nezabezpečené“, což odrazuje uživatele a zhoršuje konverzní poměr.
Mixed content
Situace, kdy web běží na HTTPS, ale některé zdroje (obrázky, skripty, styly) jsou načítány přes HTTP. Prohlížeč je zablokuje nebo označí stránku jako částečně nezabezpečenou.
Detekce: Chrome DevTools → Console nebo Screaming Frog.
Platnost certifikátu a přesměrování
Bezplatné certifikáty (Let’s Encrypt) mají platnost 90 dní. Nastavte automatické obnovování, expirovaný certifikát způsobí bezpečnostní varování a Googlebot přestane stránky navštěvovat.
Přesměrování HTTP → HTTPS nastavte jako 301 na úrovni serveru. Nikdy nevytvářejte redirect chain HTTP → HTTP/www → HTTPS.
Mobile-first indexing
Mobile-first indexing znamená, že Google primárně hodnotí a indexuje mobilní verzi vašeho webu bez ohledu na to, zda uživatel vyhledává na mobilu nebo desktopu. Platí pro všechny weby od roku 2021.
Nejčastější chyby v kontextu mobile-first
- Obsah viditelný na desktopu, ale skrytý na mobilu (CSS display:none)
- Pomalejší mobilní verze kvůli nevhodně načítaným zdrojům
- Různé interní prolinkování nebo jiná strukturovaná data na mobilní verzi
Jak zkontrolovat: GSC → Mobile Usability report ukáže konkrétní problémy. URL Inspection Tool → View Tested Page → záložka Screenshot zobrazí, jak Googlebot stránku na mobilu vidí. Rychlý test: Google Mobile-Friendly Test.
Log file analýza
Access logy jsou záznamy serveru o každém požadavku, který na něj přišel, včetně požadavků od Googlebotu. Z log souborů zjistíte: které stránky Googlebot skutečně navštěvuje a jak často, které URL jsou crawlovány ale neindexovány, zda crawler nenaráží na chyby a jak se mění frekvence crawlování po aktualizacích webu.
Konfigurace serveru (.htacces)
Pro pokročilé nastavení technického SEO (např. hromadná přesměrování 301, nastavení HTTPS nebo cachování) se nejčastěji používá soubor htacces. Správná konfigurace na úrovni serveru urychluje procházení webu a zvyšuje jeho bezpečnost.
JavaScript SEO
JavaScript je dnes součástí prakticky každého webu. Přidává interaktivitu, dynamický obsah a moderní UX. Jenže Googlebot s JavaScriptem nepracuje stejně jako prohlížeč, a to může způsobit zásadní indexační problémy, na které vlastníci webů přicházejí pozdě.
Proč je JavaScript problém pro crawlery
Standardní HTML stránka je pro Googlebot jednoduchá: přijde, přečte HTML, uvidí obsah. JavaScript-renderovaná stránka je složitější: Googlebot nejprve stáhne HTML (první vlna, first wave indexing), ale ten je prázdný nebo minimální. Obsah se vygeneruje až po spuštění JavaScriptu (druhá vlna, second wave indexing). Mezi první a druhou vlnou může uplynout od hodin po několik týdnů.
Jak zjistit, zda Google váš JavaScript zvládá
Otevřete Google Search Console → URL Inspection → zadejte konkrétní URL → klikněte na „View Tested Page“ → záložka Screenshot. Pokud screenshot vypadá jinak než web v prohlížeči, obsah je prázdný nebo navigace chybí, máte JavaScript SEO problém.
Řešení pro JavaScript SEO
Server-side rendering (SSR)
Obsah je vygenerován na serveru a Googlebot dostane plné HTML bez nutnosti spouštět JavaScript. Nejrobustnější řešení. Podporují Next.js (React), Nuxt.js (Vue), Angular Universal.
Static Site Generation (SSG)
HTML stránky jsou předem vygenerovány při buildu. Ideální pro blogy, dokumentaci, marketingové weby. Rychlé, bezpečné, crawlery milují.
Pre-rendering
Headless prohlížeč (Puppeteer, Rendertron) předem vygeneruje HTML pro crawlery. Řešení pro případ, kdy SSR není možné.
Progressive enhancement
Základ stránky funguje bez JavaScriptu, JS přidává jen vylepšení. Historicky nejrobustnější přístup, ale v praxi obtížně realizovatelný pro moderní SPA.
Technický SEO audit: jak na něj
Technický SEO audit je systematická analýza technického stavu webu. Odhalí problémy, které blokují výkon ve vyhledávání, a poskytne podklad pro prioritizaci oprav. Audit doporučujeme provádět minimálně jednou ročně, po každém redesignu nebo migraci a vždy, když organická návštěvnost nečekaně klesne.
Nástroje pro technický SEO audit
| Nástroj | K čemu slouží | Cena |
|---|---|---|
| Google Search Console | Indexace, Core Web Vitals, chyby, mobilní použitelnost | Zdarma |
| Screaming Frog SEO Spider | Kompletní crawl audit, redirect chainy, broken links, duplicate content | Zdarma (do 500 URL) / od £259/rok |
| PageSpeed Insights | Rychlost načítání, Core Web Vitals (Field + Lab Data) | Zdarma |
| GTmetrix | Rychlost webu, waterfall analýza načítání | Zdarma / placený plán |
| Ahrefs Site Audit | Kompletní technický audit, prioritizace problémů | Od $129/měsíc |
| Semrush Site Audit | Kompletní technický audit, sledování v čase | Od $139,95/měsíc |
| Rich Results Test | Testování strukturovaných dat | Zdarma |
| robots.txt Tester | Testování robots.txt pravidel | Zdarma (v GSC) |
| Web Vitals Extension | Živé Core Web Vitals hodnoty v prohlížeči | Zdarma (Chrome) |
Technický SEO checklist — 25 kontrolních bodů
Projděte každý bod systematicky. Začněte od shora, problémy v crawlingu a indexaci mají největší dopad na výsledky.
- Robots.txt — neblokuje důležité stránky, CSS nebo JavaScript?
- Sitemap.xml — odeslána do Google Search Console? Obsahuje jen indexovatelné URL bez přesměrování?
- GSC Coverage report — zkontrolujte Excluded a Error stránky. Jsou mezi nimi stránky, které mají být indexovány?
- URL Inspection — otestujte klíčové stránky (homepage, kategorie, pillar page). Jsou indexovány a renderovány správně?
- Crawl budget — pro weby nad 1 000 URL: kolik stránek crawler navštívil? Navštěvuje zbytečné URL?
- Osiřelé stránky — existují stránky bez jediného interního odkazu? Detekce: Screaming Frog nebo Ahrefs Site Audit.
- Kliknutí od homepage — jsou všechny důležité stránky dostupné do 3 kliknutí?
- URL struktura — jsou URL krátké, popisné a bez zbytečných parametrů?
- Canonical tagy — nastaveny na každé stránce včetně self-referencing? Nejsou v konfliktu s noindex?
- Přesměrování — existují redirect chainy (A→B→C)? Jsou všechna přesměrování 301 a ne 302?
- Jedna verze homepage — www.priklad.cz, priklad.cz, HTTP i HTTPS přesměrovávají na jednu kanonickou URL?
- E-shop filtrace — jsou filtrované a řazené URL ošetřeny noindex nebo canonical?
- Stránkování — stránky /page/2/ a další mají canonical nebo noindex? Nevznikají duplicity?
- LCP — pod 2,5 sekundy? Měřte v PageSpeed Insights → Field Data pro mobil i desktop.
- CLS — pod 0,1? Mají obrázky a videa definované rozměry width a height?
- INP — pod 200 ms? Blokuje JavaScript hlavní vlákno? Načítají se třetí strany asynchronně?
- Obrázky — komprimované a ve formátu WebP? Mají alt texty? Je aktivní lazy loading pro obrázky pod zlomem?
- HTTPS — web běží na HTTPS? SSL certifikát je platný a automaticky se obnovuje?
- Mixed content — načítají se všechny zdroje přes HTTPS? (Chrome DevTools → Console)
- Mobile-first — projde web Google Mobile-Friendly testem? Zobrazuje GSC chyby v Mobile Usability?
- GSC manuální akce — zobrazuje Google Search Console varování o manuálních akcích nebo bezpečnostních problémech?
- Schema implementace — jsou implementována relevantní strukturovaná data (Organization, Article, FAQ, Product)?
- Validace — projdou strukturovaná data Google Rich Results Testem bez chyb a varování?
Co technické SEO přináší v praxi
Technické SEO je investice, která se projeví postupně a měřitelně. Ukázky z naší práce s klienty:
Realitní společnost, kde jsme převzali kompletní správu marketingu včetně SEO technického základu, optimalizace obsahu a automatizací. Výsledky jsou měřitelné a dokumentované.
- Nárůst impresí: 3,06×
- Nárůst kliknutí: 4,47×
- Uzavřené obchody: +80 až 100 %
- 21 nových emailingových automatizací
- Snížení nákladů na nástroje o ~60 %
Studentský portál práce, kde jsme po výpadku offline akcí (Covid) přesměrovali strategii na organický výkon. Technické SEO spolu s obsahovou optimalizací přineslo výsledky do jednoho roku.
- Z cca 300 na cca 2 000 návštěv/měsíc za rok
- Nárůst organického trafficu bez placeného média
- Stabilní výkon i bez eventů jako zdroje trafficu
FAQ: nejčastější otázky o technickém SEO
Potřebujete technický SEO audit?
Podíváme se na váš web a navrhneme konkrétní kroky. Bez obecných doporučení, bez zbytečných prodlev.
Nezávazná konzultaceZdroje a reference
- Google Search Central — JavaScript SEO basics (přístup: březen 2026)
- Google Search Central — robots.txt úvod (přístup: březen 2026)
- Google Search Central — kanonizace URL (přístup: březen 2026)
- Google Search Central — Core Web Vitals (přístup: březen 2026)
- Google Search Central — Mobile-first indexing (přístup: březen 2026)
- Google Search Central — přehled sitemaps (přístup: březen 2026)
- Ahrefs — Technical SEO: The Definitive Guide (přístup: březen 2026)
- Google PageSpeed Insights — nástroj pro měření Core Web Vitals
- Google Rich Results Test — validace strukturovaných dat