Site-ul Nu Apare în Google? Ghid Complet: Diagnostichează și Rezolvă Problemele de Indexare
Ai construit site-ul, ai publicat conținut, ai așteptat — și totuși nu apari în Google. Sau apari, dar numai 30% din pagini sunt indexate. Sau o pagină importantă a dispărut brusc din rezultate.
Problemele de indexare sunt printre cele mai frustrante în SEO pentru că efectul e imediat și devastator: dacă Google nu indexează pagina, nu există trafic organic, indiferent cât de bun e conținutul.
Ghidul ăsta îți oferă un proces de diagnostic pas cu pas — de la verificarea rapidă la fix-urile tehnice avansate — pentru a înțelege de ce ai probleme de indexare și cum le rezolvi.
📋 Cuprins
- 1. Cum funcționează crawling-ul și indexarea Google
- 2. Diagnostic rapid: de ce nu ești indexat?
- 3. Robots.txt — cea mai frecventă cauză de blocare
- 4. Tag noindex — când e util și când e o greșeală
- 5. Sitemap XML — cum îl faci corect și cum îl trimiți
- 6. Erori HTTP care blochează indexarea (404, 301, 500)
- 7. Conținut duplicat și tag canonical
- 8. Crawl budget — pentru site-uri mari
- 9. FAQ — Întrebări frecvente
- 10. Concluzie și checklist
1. Cum funcționează crawling-ul și indexarea Google
Înainte să diagnostichezi probleme, trebuie să înțelegi procesul în 3 pași prin care o pagină ajunge în rezultatele Google:
Pasul 1 — Descoperire: Google descoperă URL-uri noi prin linkuri (de pe alte pagini deja indexate), sitemap XML sau prin trimitere manuală în Search Console. Dacă pagina ta nu are linkuri din nicio parte și nu e în sitemap, Google o poate rata complet.
Pasul 2 — Crawling: Googlebot vizitează pagina, descarcă HTML-ul și îl analizează. Verifică dacă robots.txt permite accesul, dacă serverul răspunde corect (200 OK), și dacă pagina nu are meta robots noindex.
Pasul 3 — Indexare: Google decide dacă pagina merită adăugată în index. Criterii: conținut suficient și original, nu e duplicat al altei pagini, nu are tag noindex, calitate generală suficientă. O pagină crawlată poate fi respinsă la indexare dacă Google o consideră de calitate slabă.
💡 Diferența critică:
Crawlat ≠ Indexat. Google poate vizita pagina ta (crawling) dar să decidă să nu o adauge în rezultate (indexare). Search Console → Indexare → Pagini → fila "Neindexate" îți arată exact motivul pentru fiecare URL respins.
2. Diagnostic rapid: de ce nu ești indexat?
Urmează pașii în ordine. Primul pas care returnează o problemă = cauza principală.
Pas 1: Caută site-ul în Google
Scrie în Google: site:domeniultau.ro. Dacă nu apare nimic — site-ul nu e indexat deloc. Dacă apar rezultate mai puține decât paginile tale, ai probleme parțiale de indexare.
Pas 2: Verifică Search Console → Indexare → Pagini
Acesta e diagnosticul cel mai precis. Vei vedea:
- Indexate: câte pagini sunt active în Google
- Neindexate: cu motivul exact (Crawled - currently not indexed, Discovered - currently not indexed, Blocked by robots.txt, Page with redirect, noindex detectat, etc.)
Fiecare motiv are un fix specific — le acoperim mai jos.
Pas 3: Testează o pagină specifică
În bara de search din Search Console introdu URL-ul paginii problematice. Vei vedea statusul exact: dacă e indexată, când a fost crawlată ultima dată și dacă există erori. Poți și solicita re-indexare manuală de aici.
3. Robots.txt — cea mai frecventă cauză de blocare
Fișierul robots.txt (la adresa domeniultau.ro/robots.txt) spune motoarelor de căutare ce să crawleze și ce să ignore. O regulă greșită poate bloca întregul site sau pagini importante.
Cea mai periculoasă greșeală:
# ❌ BLOCHEAZĂ TOT SITE-UL — greșeală critică! User-agent: * Disallow: /
Această regulă (frecvent setată accidental în WordPress la instalare sau în faza de development) blochează Googlebot de la orice pagină.
Robots.txt corect pentru un site tipic:
# ✅ Configurare corectă User-agent: * Allow: / # Blochează fișiere interne (fără valoare SEO) Disallow: /includes/ Disallow: /api/ Disallow: /wp-admin/ Disallow: /wp-login.php # Permite resurse necesare pentru randare Allow: /assets/css/ Allow: /assets/img/ Allow: /assets/js/ # Sitemap Sitemap: https://domeniultau.ro/sitemap.xml
⚠️ Atenție importantă:
Disallow în robots.txt blochează crawling-ul, nu indexarea. O pagină blocată în robots.txt poate apărea în Google (dacă are linkuri externe) dar fără titlu sau descriere — Google știe că există dar nu poate citi conținutul. Pentru a preveni indexarea, folosește tag noindex (nu robots.txt Disallow).
4. Tag noindex — când e util și când e o greșeală
Tag-ul noindex spune Google să nu includă pagina în rezultate. Se adaugă în <head>:
<!-- Varianta meta tag -->
<meta name="robots" content="noindex, nofollow">
<!-- Sau header HTTP (pentru PHP) -->
<?php header('X-Robots-Tag: noindex'); ?>
Când e UTIL să folosești noindex:
- Pagini de administrare, login, thank-you
- Pagini de filtre eCommerce cu parametri URL (ex:
?culoare=rosu&marime=L) - Pagini de căutare internă a site-ului
- Pagini de test sau staging care au scăpat în producție
- Pagini cu conținut duplicat sau foarte subțire
Când noindex e o GREȘEALĂ (și se întâmplă des):
- Paginile principale de servicii sau produse au noindex accidental
- Toate paginile de blog au noindex dintr-un plugin SEO configurat greșit
- Homepage-ul are noindex (site complet invizibil)
- Paginile noi au noindex pus "temporar" și uitat acolo
Verificare rapidă: În Search Console → Indexare → Pagini → "noindex detectat" — dacă ai pagini în această categorie pe care nu ar trebui, cauzele posibile sunt: plugin SEO (Yoast, RankMath) configurat greșit, sau tag adăugat manual și uitat.
5. Sitemap XML — cum îl faci corect și cum îl trimiți
Sitemap-ul XML este o hartă a site-ului tău — o listă de URL-uri pe care o oferi Google pentru a facilita descoperirea și crawling-ul paginilor. Nu garantează indexarea, dar accelerează semnificativ descoperirea paginilor noi.
Structura unui sitemap corect:
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://domeniultau.ro/</loc>
<lastmod>2026-03-01</lastmod>
<changefreq>weekly</changefreq>
<priority>1.0</priority>
</url>
<url>
<loc>https://domeniultau.ro/servicii.php</loc>
<lastmod>2026-02-15</lastmod>
<changefreq>monthly</changefreq>
<priority>0.9</priority>
</url>
</urlset>
Greșeli frecvente în sitemap:
- URL-uri cu noindex în sitemap — contradicție: trimiți Google să indexeze ceva pe care îi spui să nu indexeze
- URL-uri care returnează 404 — pagini șterse rămase în sitemap
- Sitemap neactualizat — articole noi nu apar în sitemap → Google le descoperă mai greu
- URL-uri cu parametri duplicați —
/pagina?session=abc123în sitemap - Sitemap nesubmis în Search Console — Google poate nu l-a descoperit
Cum trimiți sitemap-ul în Search Console:
Search Console → Indexare → Sitemaps → introdu URL-ul sitemap-ului (ex: https://domeniultau.ro/sitemap.xml) → Submit. Google va crawla sitemap-ul și va descoperi URL-urile din el. Resubmite de fiecare dată când adaugi pagini importante.
6. Erori HTTP care blochează indexarea
Fiecare pagină web returnează un cod HTTP care spune browser-ului (și Googlebot) ce s-a întâmplat cu cererea. Codurile greșite blochează indexarea.
| Cod HTTP | Semnificație | Impact SEO | Ce faci |
|---|---|---|---|
| 200 OK | Pagina funcționează corect | Bun | Nimic, e corect |
| 301 Moved Permanently | Redirect permanent către altă adresă | Neutru | Normal pentru redirecturi. Evită lanțuri de redirecturi (A→B→C) — pierdere de PageRank |
| 302 Found (temporar) | Redirect temporar | Problematic | Nu transferă PageRank. Dacă redirectul e permanent, schimbă în 301 |
| 404 Not Found | Pagina nu există | Rău | Dacă pagina e mutată → redirect 301. Dacă e ștearsă definitiv → lasă 404 (nu returna 200 pe o pagină goală) |
| 500 Internal Server Error | Eroare de server | Critic | Rezolvă urgent. Googlebot va opri crawling-ul site-ului dacă vede prea multe erori 500 |
| 503 Service Unavailable | Server temporar indisponibil | Temporar OK | Dacă persistă → Google va reduce crawling-ul sau va desindexa paginile |
Unde găsești erorile HTTP: Search Console → Indexare → Pagini → "Pagini cu erori de crawling". Screaming Frog (gratuit până la 500 URL-uri) crawlează întregul site și raportează codurile HTTP pentru fiecare URL.
7. Conținut duplicat și tag canonical
Conținutul duplicat apare când aceeași informație e accesibilă la mai multe URL-uri. Google trebuie să aleagă care versiune să indexeze — și adesea alege greșit sau diluează autoritatea între variante.
Surse frecvente de conținut duplicat:
http://șihttps://— ambele versiuni accesibile fără redirectwww.domeniu.roșidomeniu.ro— fără redirect la versiunea preferată- URL-uri cu și fără slash final:
/paginavs/pagina/ - Parametri URL:
/produse?sort=pretși/produse?sort=rating— același conținut, URL-uri diferite - Pagini de paginare:
/blog/și/blog/?page=2
Soluția: tag canonical
Tag-ul canonical spune Google care este versiunea "oficială" a paginii care trebuie indexată:
<!-- Adaugă în <head> pe FIECARE pagină --> <link rel="canonical" href="https://domeniultau.ro/pagina-oficiala/"> <!-- Exemplu: pagina de produse cu filtre --> <!-- Pe /produse?sort=pret și /produse?sort=rating adaugă: --> <link rel="canonical" href="https://domeniultau.ro/produse/"> <!-- Self-referencing canonical (pe pagina principală) --> <link rel="canonical" href="https://domeniultau.ro/produse/">
💡 Regula self-referencing canonical:
Adaugă canonical pe toate paginile, inclusiv pe cea principală care pointează spre ea însăși. Este o bună practică care previne Google să interpreteze variante minore de URL ca duplicat. Pluginuri SEO (Yoast, RankMath) fac asta automat — verifică că e activat.
🔍 Site-ul tău are probleme de indexare?
Facem un audit SEO tehnic gratuit: verificăm indexarea, robots.txt, sitemap, canonical tags și toate erorile de crawling. Primești raport complet în 48h cu fix-urile prioritizate.
8. Crawl budget — pentru site-uri mari
Crawl budget este numărul de pagini pe care Googlebot le crawlează pe site-ul tău într-o perioadă dată. Pentru site-uri mici (sub 1.000 pagini), crawl budget nu e o problemă practică — Google crawlează tot.
Devine relevant pentru: eCommerce cu mii de produse + filtre, site-uri de știri cu sute de articole pe zi, site-uri cu parametri URL care generează variante infinite ale aceleiași pagini.
Cum conservi crawl budget (site-uri mari):
- Blochează în robots.txt paginile de filtre, căutare internă, sort, pagini de administrare
- Canonical corect pe toate paginile cu parametri URL
- Elimină redirecturi în lanț (A→B→C→D) — fiecare redirect consumă crawl budget
- Repară 404-urile din sitemap — Googlebot pierde timp crawlând URL-uri inexistente
- Îmbunătățește viteza serverului (TTFB mic) — server rapid = mai multe pagini crawlate în același timp
📊 Cum verifici crawl budget în Search Console:
Search Console → Setări → Crawl Stats (statistici crawling). Vei vedea numărul de cereri Googlebot pe zi, tipurile de fișiere crawlate și răspunsurile. Dacă graficul crawl-urilor scade brusc → Google a întâmpinat probleme pe site-ul tău. Dacă procentul de erori e mare → rezolvă erorile înainte de orice altă optimizare.
9. FAQ — Întrebări frecvente despre indexare
Cauzele principale: (1) Site prea nou — normal primele 4-8 săptămâni; (2) Robots.txt blochează Googlebot; (3) Tag noindex prezent pe pagini; (4) Lipsă linkuri externe care să descopere site-ul; (5) Sitemap XML lipsă sau greșit; (6) Probleme tehnice grave (erori 500, timeout). Verifică în Google Search Console → Indexare → Pagini pentru diagnostic precis.
Metoda 1 (cea mai precisă): Google Search Console → Indexare → Pagini. Metoda 2 (aproximativă): Caută site:domeniultau.ro în Google. Metoda 3: Screaming Frog → compară paginile crawlate de tine cu cele indexate în Search Console. Atenție: site: poate arăta mai puține sau mai multe pagini decât sunt real indexate — Search Console e sursa de adevăr.
Variabil: câteva ore până la câteva săptămâni. Acceleratori: (1) Trimite sitemap actualizat în Search Console; (2) Folosește "Solicită indexare" în Search Console pentru pagini prioritare; (3) Adaugă linkuri interne de pe pagini deja indexate; (4) Distribuie pe social media. Site-urile cu autoritate și trafic mare sunt crawlate mai des — paginile noi apar mai rapid.
Crawling = Googlebot vizitează și descarcă conținutul paginii. Indexare = Google analizează conținutul și îl adaugă în baza de date pentru afișare în rezultate. O pagină poate fi crawlată dar neindexată (dacă are noindex, conținut duplicat sau calitate slabă). Nu poate fi indexată fără crawling prealabil. Search Console → Indexare → Pagini → fila "Neindexate" arată motivul exact pentru fiecare URL.
Crawl budget este numărul de pagini pe care Googlebot le crawlează pe site-ul tău într-o perioadă dată. Pentru site-uri mici (sub 1.000 pagini), nu e o problemă. Pentru eCommerce cu mii de produse și filtre URL, Googlebot poate rata pagini importante dacă irosești crawl budget pe pagini fără valoare (filtre, căutare internă, URL-uri duplicate). Soluție: blochează în robots.txt paginile fără valoare SEO și elimină redirecturi în lanț.
10. Concluzie — Checklist de indexare
Problemele de indexare sunt rezolvabile sistematic. Procesul e întotdeauna același: diagnostichează în Search Console → identifică cauza → aplică fix-ul specific → re-solicită indexarea → verifică după 2-4 săptămâni.
✅ Checklist complet de indexare:
- ☐
site:domeniultau.roreturnează rezultate în Google - ☐ Search Console → Indexare → Pagini → zero erori critice
- ☐
domeniu.ro/robots.txtnu blochează paginile importante - ☐ Nicio pagină importantă nu are tag
noindexaccidental - ☐ Sitemap XML există, e corect și e trimis în Search Console
- ☐
https://șiwwwau redirect 301 la versiunea preferată - ☐ Tag canonical prezent pe toate paginile (self-referencing sau spre original)
- ☐ Zero erori 500 în Search Console → Crawl Stats
- ☐ Redirecturi directe (A→B), nu în lanț (A→B→C→D)
- ☐ Paginile noi au linkuri interne de pe pagini deja indexate
✅ Pașii următori:
Dacă ai rezolvat problemele de indexare, pasul următor în SEO tehnic este optimizarea Core Web Vitals (viteza site-ului) și implementarea Schema Markup pentru rich snippets. Indexare corectă + viteză bună + Schema = fundație tehnică solidă pentru orice campanie SEO.
🚀 Vrei un audit complet de indexare și crawling?
Oferim audit SEO tehnic gratuit pentru business-uri din România. Primești raport detaliat în 48h cu:
- ✅ Analiza completă indexare: câte pagini sunt indexate vs. câte ar trebui
- ✅ Verificare robots.txt, sitemap XML, tag-uri canonical și noindex
- ✅ Raport erori crawling din Google Search Console (404, 500, redirecturi)
- ✅ Plan de acțiune prioritizat: fix-urile care aduc cel mai mult trafic
📞 Contact direct: 0721-206-996 | 📧 seo.web.romania@gmail.com
📚 Articole Relevante
Core Web Vitals 2026: Optimizare LCP, INP și CLS
Site indexat dar lent? Află cum să optimizezi viteza pentru ranking mai bun.
Schema Markup: Cum Obții Rich Snippets în SERP
Crește CTR-ul organic cu 20-30% prin implementarea corectă a Schema.org.
Ghid SEO pentru Începători: Pași Esențiali în 2026
Pornește cu SEO de la zero: keyword research, on-page, link building.