SEO Tehnic

Site-ul Nu Apare în Google? Ghid Complet: Diagnostichează și Rezolvă Problemele de Indexare

13 min citire
Indexare Google și probleme crawling — cum rezolvi când site-ul nu apare în rezultate

Ai construit site-ul, ai publicat conținut, ai așteptat — și totuși nu apari în Google. Sau apari, dar numai 30% din pagini sunt indexate. Sau o pagină importantă a dispărut brusc din rezultate.

Problemele de indexare sunt printre cele mai frustrante în SEO pentru că efectul e imediat și devastator: dacă Google nu indexează pagina, nu există trafic organic, indiferent cât de bun e conținutul.

Ghidul ăsta îți oferă un proces de diagnostic pas cu pas — de la verificarea rapidă la fix-urile tehnice avansate — pentru a înțelege de ce ai probleme de indexare și cum le rezolvi.

1. Cum funcționează crawling-ul și indexarea Google

Înainte să diagnostichezi probleme, trebuie să înțelegi procesul în 3 pași prin care o pagină ajunge în rezultatele Google:

Pasul 1 — Descoperire: Google descoperă URL-uri noi prin linkuri (de pe alte pagini deja indexate), sitemap XML sau prin trimitere manuală în Search Console. Dacă pagina ta nu are linkuri din nicio parte și nu e în sitemap, Google o poate rata complet.

Pasul 2 — Crawling: Googlebot vizitează pagina, descarcă HTML-ul și îl analizează. Verifică dacă robots.txt permite accesul, dacă serverul răspunde corect (200 OK), și dacă pagina nu are meta robots noindex.

Pasul 3 — Indexare: Google decide dacă pagina merită adăugată în index. Criterii: conținut suficient și original, nu e duplicat al altei pagini, nu are tag noindex, calitate generală suficientă. O pagină crawlată poate fi respinsă la indexare dacă Google o consideră de calitate slabă.

💡 Diferența critică:

Crawlat ≠ Indexat. Google poate vizita pagina ta (crawling) dar să decidă să nu o adauge în rezultate (indexare). Search Console → Indexare → Pagini → fila "Neindexate" îți arată exact motivul pentru fiecare URL respins.

2. Diagnostic rapid: de ce nu ești indexat?

Urmează pașii în ordine. Primul pas care returnează o problemă = cauza principală.

Pas 1: Caută site-ul în Google

Scrie în Google: site:domeniultau.ro. Dacă nu apare nimic — site-ul nu e indexat deloc. Dacă apar rezultate mai puține decât paginile tale, ai probleme parțiale de indexare.

Pas 2: Verifică Search Console → Indexare → Pagini

Acesta e diagnosticul cel mai precis. Vei vedea:

  • Indexate: câte pagini sunt active în Google
  • Neindexate: cu motivul exact (Crawled - currently not indexed, Discovered - currently not indexed, Blocked by robots.txt, Page with redirect, noindex detectat, etc.)

Fiecare motiv are un fix specific — le acoperim mai jos.

Pas 3: Testează o pagină specifică

În bara de search din Search Console introdu URL-ul paginii problematice. Vei vedea statusul exact: dacă e indexată, când a fost crawlată ultima dată și dacă există erori. Poți și solicita re-indexare manuală de aici.

3. Robots.txt — cea mai frecventă cauză de blocare

Fișierul robots.txt (la adresa domeniultau.ro/robots.txt) spune motoarelor de căutare ce să crawleze și ce să ignore. O regulă greșită poate bloca întregul site sau pagini importante.

Cea mai periculoasă greșeală:

# ❌ BLOCHEAZĂ TOT SITE-UL — greșeală critică!
User-agent: *
Disallow: /

Această regulă (frecvent setată accidental în WordPress la instalare sau în faza de development) blochează Googlebot de la orice pagină.

Robots.txt corect pentru un site tipic:

# ✅ Configurare corectă
User-agent: *
Allow: /

# Blochează fișiere interne (fără valoare SEO)
Disallow: /includes/
Disallow: /api/
Disallow: /wp-admin/
Disallow: /wp-login.php

# Permite resurse necesare pentru randare
Allow: /assets/css/
Allow: /assets/img/
Allow: /assets/js/

# Sitemap
Sitemap: https://domeniultau.ro/sitemap.xml

⚠️ Atenție importantă:

Disallow în robots.txt blochează crawling-ul, nu indexarea. O pagină blocată în robots.txt poate apărea în Google (dacă are linkuri externe) dar fără titlu sau descriere — Google știe că există dar nu poate citi conținutul. Pentru a preveni indexarea, folosește tag noindex (nu robots.txt Disallow).

4. Tag noindex — când e util și când e o greșeală

Tag-ul noindex spune Google să nu includă pagina în rezultate. Se adaugă în <head>:

<!-- Varianta meta tag -->
<meta name="robots" content="noindex, nofollow">

<!-- Sau header HTTP (pentru PHP) -->
<?php header('X-Robots-Tag: noindex'); ?>

Când e UTIL să folosești noindex:

  • Pagini de administrare, login, thank-you
  • Pagini de filtre eCommerce cu parametri URL (ex: ?culoare=rosu&marime=L)
  • Pagini de căutare internă a site-ului
  • Pagini de test sau staging care au scăpat în producție
  • Pagini cu conținut duplicat sau foarte subțire

Când noindex e o GREȘEALĂ (și se întâmplă des):

  • Paginile principale de servicii sau produse au noindex accidental
  • Toate paginile de blog au noindex dintr-un plugin SEO configurat greșit
  • Homepage-ul are noindex (site complet invizibil)
  • Paginile noi au noindex pus "temporar" și uitat acolo

Verificare rapidă: În Search Console → Indexare → Pagini → "noindex detectat" — dacă ai pagini în această categorie pe care nu ar trebui, cauzele posibile sunt: plugin SEO (Yoast, RankMath) configurat greșit, sau tag adăugat manual și uitat.

5. Sitemap XML — cum îl faci corect și cum îl trimiți

Sitemap-ul XML este o hartă a site-ului tău — o listă de URL-uri pe care o oferi Google pentru a facilita descoperirea și crawling-ul paginilor. Nu garantează indexarea, dar accelerează semnificativ descoperirea paginilor noi.

Structura unui sitemap corect:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">

  <url>
    <loc>https://domeniultau.ro/</loc>
    <lastmod>2026-03-01</lastmod>
    <changefreq>weekly</changefreq>
    <priority>1.0</priority>
  </url>

  <url>
    <loc>https://domeniultau.ro/servicii.php</loc>
    <lastmod>2026-02-15</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.9</priority>
  </url>

</urlset>

Greșeli frecvente în sitemap:

  • URL-uri cu noindex în sitemap — contradicție: trimiți Google să indexeze ceva pe care îi spui să nu indexeze
  • URL-uri care returnează 404 — pagini șterse rămase în sitemap
  • Sitemap neactualizat — articole noi nu apar în sitemap → Google le descoperă mai greu
  • URL-uri cu parametri duplicați/pagina?session=abc123 în sitemap
  • Sitemap nesubmis în Search Console — Google poate nu l-a descoperit

Cum trimiți sitemap-ul în Search Console:

Search Console → Indexare → Sitemaps → introdu URL-ul sitemap-ului (ex: https://domeniultau.ro/sitemap.xml) → Submit. Google va crawla sitemap-ul și va descoperi URL-urile din el. Resubmite de fiecare dată când adaugi pagini importante.

6. Erori HTTP care blochează indexarea

Fiecare pagină web returnează un cod HTTP care spune browser-ului (și Googlebot) ce s-a întâmplat cu cererea. Codurile greșite blochează indexarea.

Cod HTTP Semnificație Impact SEO Ce faci
200 OK Pagina funcționează corect Bun Nimic, e corect
301 Moved Permanently Redirect permanent către altă adresă Neutru Normal pentru redirecturi. Evită lanțuri de redirecturi (A→B→C) — pierdere de PageRank
302 Found (temporar) Redirect temporar Problematic Nu transferă PageRank. Dacă redirectul e permanent, schimbă în 301
404 Not Found Pagina nu există Rău Dacă pagina e mutată → redirect 301. Dacă e ștearsă definitiv → lasă 404 (nu returna 200 pe o pagină goală)
500 Internal Server Error Eroare de server Critic Rezolvă urgent. Googlebot va opri crawling-ul site-ului dacă vede prea multe erori 500
503 Service Unavailable Server temporar indisponibil Temporar OK Dacă persistă → Google va reduce crawling-ul sau va desindexa paginile

Unde găsești erorile HTTP: Search Console → Indexare → Pagini → "Pagini cu erori de crawling". Screaming Frog (gratuit până la 500 URL-uri) crawlează întregul site și raportează codurile HTTP pentru fiecare URL.

7. Conținut duplicat și tag canonical

Conținutul duplicat apare când aceeași informație e accesibilă la mai multe URL-uri. Google trebuie să aleagă care versiune să indexeze — și adesea alege greșit sau diluează autoritatea între variante.

Surse frecvente de conținut duplicat:

  • http:// și https:// — ambele versiuni accesibile fără redirect
  • www.domeniu.ro și domeniu.ro — fără redirect la versiunea preferată
  • URL-uri cu și fără slash final: /pagina vs /pagina/
  • Parametri URL: /produse?sort=pret și /produse?sort=rating — același conținut, URL-uri diferite
  • Pagini de paginare: /blog/ și /blog/?page=2

Soluția: tag canonical

Tag-ul canonical spune Google care este versiunea "oficială" a paginii care trebuie indexată:

<!-- Adaugă în <head> pe FIECARE pagină -->
<link rel="canonical" href="https://domeniultau.ro/pagina-oficiala/">

<!-- Exemplu: pagina de produse cu filtre -->
<!-- Pe /produse?sort=pret și /produse?sort=rating adaugă: -->
<link rel="canonical" href="https://domeniultau.ro/produse/">

<!-- Self-referencing canonical (pe pagina principală) -->
<link rel="canonical" href="https://domeniultau.ro/produse/">

💡 Regula self-referencing canonical:

Adaugă canonical pe toate paginile, inclusiv pe cea principală care pointează spre ea însăși. Este o bună practică care previne Google să interpreteze variante minore de URL ca duplicat. Pluginuri SEO (Yoast, RankMath) fac asta automat — verifică că e activat.

🔍 Site-ul tău are probleme de indexare?

Facem un audit SEO tehnic gratuit: verificăm indexarea, robots.txt, sitemap, canonical tags și toate erorile de crawling. Primești raport complet în 48h cu fix-urile prioritizate.

8. Crawl budget — pentru site-uri mari

Crawl budget este numărul de pagini pe care Googlebot le crawlează pe site-ul tău într-o perioadă dată. Pentru site-uri mici (sub 1.000 pagini), crawl budget nu e o problemă practică — Google crawlează tot.

Devine relevant pentru: eCommerce cu mii de produse + filtre, site-uri de știri cu sute de articole pe zi, site-uri cu parametri URL care generează variante infinite ale aceleiași pagini.

Cum conservi crawl budget (site-uri mari):

  • Blochează în robots.txt paginile de filtre, căutare internă, sort, pagini de administrare
  • Canonical corect pe toate paginile cu parametri URL
  • Elimină redirecturi în lanț (A→B→C→D) — fiecare redirect consumă crawl budget
  • Repară 404-urile din sitemap — Googlebot pierde timp crawlând URL-uri inexistente
  • Îmbunătățește viteza serverului (TTFB mic) — server rapid = mai multe pagini crawlate în același timp

📊 Cum verifici crawl budget în Search Console:

Search Console → Setări → Crawl Stats (statistici crawling). Vei vedea numărul de cereri Googlebot pe zi, tipurile de fișiere crawlate și răspunsurile. Dacă graficul crawl-urilor scade brusc → Google a întâmpinat probleme pe site-ul tău. Dacă procentul de erori e mare → rezolvă erorile înainte de orice altă optimizare.

9. FAQ — Întrebări frecvente despre indexare

Cauzele principale: (1) Site prea nou — normal primele 4-8 săptămâni; (2) Robots.txt blochează Googlebot; (3) Tag noindex prezent pe pagini; (4) Lipsă linkuri externe care să descopere site-ul; (5) Sitemap XML lipsă sau greșit; (6) Probleme tehnice grave (erori 500, timeout). Verifică în Google Search Console → Indexare → Pagini pentru diagnostic precis.

Metoda 1 (cea mai precisă): Google Search Console → Indexare → Pagini. Metoda 2 (aproximativă): Caută site:domeniultau.ro în Google. Metoda 3: Screaming Frog → compară paginile crawlate de tine cu cele indexate în Search Console. Atenție: site: poate arăta mai puține sau mai multe pagini decât sunt real indexate — Search Console e sursa de adevăr.

Variabil: câteva ore până la câteva săptămâni. Acceleratori: (1) Trimite sitemap actualizat în Search Console; (2) Folosește "Solicită indexare" în Search Console pentru pagini prioritare; (3) Adaugă linkuri interne de pe pagini deja indexate; (4) Distribuie pe social media. Site-urile cu autoritate și trafic mare sunt crawlate mai des — paginile noi apar mai rapid.

Crawling = Googlebot vizitează și descarcă conținutul paginii. Indexare = Google analizează conținutul și îl adaugă în baza de date pentru afișare în rezultate. O pagină poate fi crawlată dar neindexată (dacă are noindex, conținut duplicat sau calitate slabă). Nu poate fi indexată fără crawling prealabil. Search Console → Indexare → Pagini → fila "Neindexate" arată motivul exact pentru fiecare URL.

Crawl budget este numărul de pagini pe care Googlebot le crawlează pe site-ul tău într-o perioadă dată. Pentru site-uri mici (sub 1.000 pagini), nu e o problemă. Pentru eCommerce cu mii de produse și filtre URL, Googlebot poate rata pagini importante dacă irosești crawl budget pe pagini fără valoare (filtre, căutare internă, URL-uri duplicate). Soluție: blochează în robots.txt paginile fără valoare SEO și elimină redirecturi în lanț.

10. Concluzie — Checklist de indexare

Problemele de indexare sunt rezolvabile sistematic. Procesul e întotdeauna același: diagnostichează în Search Console → identifică cauza → aplică fix-ul specific → re-solicită indexarea → verifică după 2-4 săptămâni.

✅ Checklist complet de indexare:

  • site:domeniultau.ro returnează rezultate în Google
  • ☐ Search Console → Indexare → Pagini → zero erori critice
  • domeniu.ro/robots.txt nu blochează paginile importante
  • ☐ Nicio pagină importantă nu are tag noindex accidental
  • ☐ Sitemap XML există, e corect și e trimis în Search Console
  • https:// și www au redirect 301 la versiunea preferată
  • ☐ Tag canonical prezent pe toate paginile (self-referencing sau spre original)
  • ☐ Zero erori 500 în Search Console → Crawl Stats
  • ☐ Redirecturi directe (A→B), nu în lanț (A→B→C→D)
  • ☐ Paginile noi au linkuri interne de pe pagini deja indexate

✅ Pașii următori:

Dacă ai rezolvat problemele de indexare, pasul următor în SEO tehnic este optimizarea Core Web Vitals (viteza site-ului) și implementarea Schema Markup pentru rich snippets. Indexare corectă + viteză bună + Schema = fundație tehnică solidă pentru orice campanie SEO.

🚀 Vrei un audit complet de indexare și crawling?

Oferim audit SEO tehnic gratuit pentru business-uri din România. Primești raport detaliat în 48h cu:

  • ✅ Analiza completă indexare: câte pagini sunt indexate vs. câte ar trebui
  • ✅ Verificare robots.txt, sitemap XML, tag-uri canonical și noindex
  • ✅ Raport erori crawling din Google Search Console (404, 500, redirecturi)
  • ✅ Plan de acțiune prioritizat: fix-urile care aduc cel mai mult trafic

📞 Contact direct: 0721-206-996 | 📧 seo.web.romania@gmail.com

Distribuie:

📚 Articole Conexe SEO Tehnic