Unealtă gratuită — Fără înregistrare

Checker și Validator robots.txt

Singurul checker gratuit de robots.txt care îți arată ce ai blocat pentru ChatGPT, Perplexity și Claude — alături de analiză completă a directivelor, evaluarea capacității de crawling și recomandări SEO într-un limbaj clar. Fără înregistrare.

Supports example.com, https://example.com, or https://www.example.com

Nu este nevoie de cont Verifică GPTBot, ClaudeBot și PerplexityBot Peste 10 verificări de validare Analiză completă a directivelor
Context

Ce este un fișier robots.txt ?

Un fișier simplu, dar critic, care le spune motoarelor de căutare și boților cum să îți acceseze site-ul.

Un fișier robots.txt este un fișier text simplu plasat în rădăcina site-ului tău (de exemplu, https://example.com/robots.txt) care urmează Robots Exclusion Protocol — un standard web vechi de zeci de ani.

Le permite proprietarilor de site-uri să controleze ce pagini pot accesa motoare de căutare precum Google, Bing și altele. Poți permite totul, bloca secțiuni specifice (precum pagini de administrare sau conținut duplicat) sau restricționa complet accesul anumitor boți.

Este unul dintre primele fișiere pe care majoritatea crawlerelor le verifică atunci când îți vizitează site-ul, ceea ce îl face o piesă fundamentală a configurării SEO tehnic.

Exemplu de robots.txt

User-agent: *
Disallow: /admin/
Disallow: /checkout/
Allow: /blog/

User-agent: GPTBot
Disallow: /

Sitemap: https://example.com/sitemap.xml

Termeni cheie explicați

User-agentCărui bot i se aplică această regulă (* = toți boții)
DisallowCăi pe care botul NU trebuie să le acceseze
AllowCăi pe care botul ARE voie să le acceseze (anulează Disallow)
SitemapURL-ul sitemap-ului XML pentru o descoperire mai rapidă
Impact SEO

De ce contează robots.txt pentru SEO tehnic

🕷️

Controlează bugetul de crawling

Motoarele de căutare alocă un număr limitat de cereri de crawling pe site. Blocând paginile care nu au nevoie să fie indexate (precum panourile de administrare, paginile duplicate sau rezultatele căutării interne), ajuți motoarele de căutare să se concentreze pe ceea ce contează cu adevărat.

🗺️

Ghidează descoperirea boților

Directiva Sitemap din robots.txt direcționează crawlerele direct către sitemap-ul tău XML, accelerând descoperirea celor mai importante pagini. Este o adăugare mică ce poate îmbunătăți semnificativ eficiența crawlingului.

🤖

Controlează crawlerele AI

Companiile AI accesează tot mai des web-ul pentru a-și antrena modelele. robots.txt îți permite să excluzi anumiți boți AI de la accesarea conținutului tău — util dacă ai îngrijorări legate de utilizarea conținutului tău pentru antrenarea AI fără consimțământul tău. Pentru control granular al accesului AI, verifică și fișierul tău llms.txt — îți permite să semnalezi intenția către sistemele AI dincolo de ce acoperă robots.txt.

⚠️

Cea mai periculoasă greșeală în robots.txt

Disallow: / sub User-agent: * blochează TOATE motoarele de căutare să acceseze întregul tău site. Această singură eroare de configurare poate face ca site-ul tău să dispară aproape complet din Google. Este surprinzător de comună — în special după migrări de site, actualizări de CMS sau atunci când dezvoltatorii uită să elimine un blocaj de mediu de staging înainte de lansare. Checker-ul nostru o semnalează imediat.

robots.txt controlează crawlingul — nu indexarea

O nuanță importantă: blocarea unei pagini în robots.txt împiedică crawlerele să o viziteze, dar nu garantează că pagina nu va apărea în rezultatele căutării. Dacă pagina este linkuită de pe alte site-uri, Google ar putea totuși să o afișeze cu un fragment „Nicio informație disponibilă”. Pentru a împiedica complet o pagină să apară în rezultatele căutării, folosește meta tag-ul noindex — și nu bloca acea pagină în robots.txt, altfel Google nu va putea citi instrucțiunea noindex.

Greșeli frecvente

Greșeli frecvente în robots.txt și cum să le repari

Majoritatea problemelor cu robots.txt sunt ușor de rezolvat odată ce știi ce să cauți.

critic

Blochează toți boții de la orice

Cod problematic

User-agent: *
Disallow: /

Cum să o repari

Schimbă în „Disallow:” (gol) pentru a permite tot crawlingul, sau specifică doar căile pe care vrei să le blochezi.

ridicat

Blocarea accidentală a unei pagini cheie

Cod problematic

Disallow: /important-blog-post/

Cum să o repari

Auditează regulile Disallow în mod regulat — în special după restructurări ale site-ului. Folosește acest checker pentru a identifica căile pe care le-ai putea fi ratat.

mediu

Lipsește declarația Sitemap

Cod problematic

(No Sitemap directive)

Cum să o repari

Adaugă „Sitemap: https://yourdomain.com/sitemap.xml” pentru a ajuta crawlerele să-ți găsească toate paginile mai rapid.

mediu

Linii formate greșit, fără două puncte

Cod problematic

Disallow
/admin

Cum să o repari

Fiecare directivă trebuie să urmeze formatul „Directivă: valoare”, de exemplu, „Disallow: /admin/”. Liniile fără două puncte sunt ignorate de majoritatea crawlerelor.

mediu

Directive fără un antet User-agent

Cod problematic

(No User-agent group)

Cum să o repari

Fiecare grup de reguli trebuie să înceapă cu o linie User-agent. Regulile orfane Disallow sau Allow pot fi ignorate complet.

mediu

Wildcard prea larg care blochează șirurile de interogare

Cod problematic

Disallow: /*?

Cum să o repari

Modele wildcard precum „/*?” blochează toate URL-urile cu parametri de interogare, ceea ce poate bloca neintenționat pagini paginate sau filtrate importante.

Despre această unealtă

Cum funcționează acest checker de robots.txt

Ce verificăm și ce înseamnă fiecare rezultat.

🌐

Existența fișierului

Facem fetch la /robots.txt din rădăcina domeniului tău și confirmăm că răspunde cu HTTP 200.

🔒

Accesibilitate publică

Verificăm că fișierul este accesibil public fără autentificare (fără răspunsuri 401/403).

📄

Content-Type

Verificăm că fișierul este servit ca text/plain, tipul MIME așteptat pentru robots.txt.

👤

Prezența User-agent

Detectăm dacă sunt definite reguli User-agent, inclusiv un wildcard general (*).

🚦

Reguli Disallow/Allow

Analizăm și numărăm toate directivele Disallow și Allow din toate grupurile de boți.

🗺️

Declarația Sitemap

Verificăm dacă există o directivă Sitemap și listăm URL-urile sitemap declarate.

🔍

Căi importante

Semnalăm dacă unele căi importante (/blog, /products, /) sunt blocate neintenționat.

⚠️

Detectarea Disallow total

Detectăm greșeala critică de blocare a tuturor boților de la toate paginile (Disallow: /).

🌀

Reguli wildcard largi

Semnalăm modele wildcard prea largi precum /* sau /? care pot bloca prea agresiv.

🔧

Linii formate greșit

Identificăm liniile care nu urmează o sintaxă validă de robots.txt (lipsesc două puncte, directive necunoscute).

🤖

Directive orfane

Detectăm reguli Disallow/Allow care apar înainte de orice declarație User-agent.

👁️

Previzualizarea fișierului

Afișăm primele 1.500 de caractere din robots.txt-ul tău real ca să-l poți inspecta direct.

Cum interpretezi rezultatele

Trecut

Această verificare îndeplinește bunele practici. Nu este necesară nicio acțiune.

Avertizare

Îmbunătățire recomandată. Fișierul funcționează în continuare, dar merită rezolvat.

Eșec

Problemă critică ce ar trebui remediată. Aceasta poate dăuna capacității de crawling sau SEO-ului tău.

Întrebări frecvente

Întrebări frecvente despre robots.txt

Ce este un fișier robots.txt?+
Un fișier robots.txt este un fișier text simplu plasat în rădăcina unui site web (de exemplu, https://example.com/robots.txt) care le spune crawlerelor motoarelor de căutare și altor boți ce pagini sau secțiuni ale site-ului au sau nu au voie să acceseze. Urmează Robots Exclusion Protocol, un standard web adoptat pe scară largă. Gândește-te la el ca la un set de indicații pe care le lași boților înainte ca ei să intre pe site-ul tău.
Afectează robots.txt SEO-ul?+
Da, robots.txt are un impact direct asupra a ce pot accesa motoarele de căutare — și prin urmare, asupra a ce pot indexa și clasifica potențial. Dacă blochezi accidental pagini critice cu robots.txt, acele pagini nu vor apărea în rezultatele căutării, indiferent cât de bun le este conținutul. Totuși, robots.txt controlează crawlingul, nu indexarea: o pagină poate apărea în rezultatele căutării dacă este linkuită din altă parte, chiar dacă robots.txt împiedică accesarea ei. Pentru control complet asupra indexării, folosește meta tag-ul noindex.
Care este diferența dintre robots.txt și noindex?+
robots.txt le spune crawlerelor să nu viziteze o pagină. Meta tag-ul noindex le spune crawlerelor că pot vizita pagina, dar nu trebuie să o includă în rezultatele căutării. Acestea servesc scopuri diferite: folosește robots.txt pentru a economisi bugetul de crawling și a împiedica accesul la pagini private; folosește noindex pentru a permite crawlerelor să acceseze conținutul, dar să-l țină în afara rezultatelor căutării. Blocarea unei pagini în robots.txt și adăugarea noindex este redundantă — crawlerele nu pot citi tag-ul noindex dacă li se blochează accesul la pagină.
Ce înseamnă Disallow: / în robots.txt?+
„Disallow: /” înseamnă că toate căile site-ului sunt blocate. Când este combinat cu „User-agent: *” (care vizează toți boții), împiedică efectiv orice motor de căutare și crawler să acceseze orice pagină de pe site-ul tău. Aceasta este una dintre cele mai frecvente și dăunătoare greșeli de robots.txt — îți elimină complet site-ul din indexurile motoarelor de căutare. Folosește „Disallow: /” doar pentru boți specifici pe care vrei intenționat să-i blochezi, niciodată sub „User-agent: *” decât dacă vrei ca site-ul tău să dispară din căutare.
Ce este User-agent în robots.txt?+
Directiva User-agent specifică botului sau crawlerului căruia i se aplică regulile următoare. „User-agent: *” vizează toți boții, în timp ce „User-agent: Googlebot” aplică reguli doar crawlerului Google. Poți avea mai multe grupuri User-agent într-un singur fișier robots.txt, fiecare cu propriul set de reguli Disallow și Allow. Regulile se aplică pe grup, deci diferiți boți pot primi instrucțiuni diferite.
Ce este directiva Sitemap din robots.txt?+
Directiva Sitemap din robots.txt le spune crawlerelor unde să-ți găsească sitemap-ul XML — de exemplu: „Sitemap: https://example.com/sitemap.xml”. Aceasta este una dintre cele mai eficiente modalități de a ajuta motoarele de căutare să descopere rapid toate paginile importante. Includerea unei linii Sitemap în robots.txt este o bună practică SEO larg recomandată, chiar dacă ai trimis sitemap-ul direct și prin Google Search Console.
Poate robots.txt să blocheze crawlere AI precum GPTBot?+
Da. Poți folosi robots.txt pentru a instrui crawlere AI specifice să stea departe de site-ul tău. De exemplu, „User-agent: GPTBot” urmat de „Disallow: /” va cere crawlerului OpenAI să evite conținutul tău. Alți user-agenți de boți AI includ CCBot (Common Crawl), Google-Extended (date pentru antrenarea AI Google) și PerplexityBot. Reține că se așteaptă ca acești boți să respecte robots.txt, dar conformitatea este voluntară — nu există un mecanism tehnic de aplicare.
Cum testez fișierul meu robots.txt?+
Poți testa fișierul tău robots.txt folosind unelte precum acesta (introdu domeniul mai sus), sau folosind testerul de robots.txt din Google Search Console, care îți permite și să testezi cum sunt tratate URL-uri specifice de regulile tale curente. Accesarea directă a https://yourdomain.com/robots.txt într-un browser este cel mai rapid mod de a confirma că fișierul există și de a-i vedea conținutul.
Ce este Crawl-delay în robots.txt?+
„Crawl-delay” este o directivă opțională care le spune crawlerelor câte secunde să aștepte între cereri. De exemplu, „Crawl-delay: 10” cere boților să aștepte 10 secunde între fiecare cerere de pagină. Este menită să reducă încărcarea serverului cauzată de crawlingul agresiv. Reține că Google nu suportă oficial directiva Crawl-delay — folosește în schimb setările ratei de crawling din Google Search Console pentru a gestiona viteza Googlebot.
Care este dimensiunea maximă a unui fișier robots.txt?+
Crawlerele Google vor citi primii 500 de kibibytes (aproximativ 500 KB) dintr-un fișier robots.txt și vor ignora orice depășește această limită. Majoritatea site-urilor nu se vor apropia niciodată de această limită — un robots.txt bine structurat are de obicei câteva zeci de linii. Dacă fișierul tău devine foarte mare, merită să auditezi dacă toate acele reguli mai sunt necesare.
Faptul că nu ai robots.txt dăunează SEO-ului?+
Lipsa unui fișier robots.txt nu îți dăunează direct SEO-ul. Fără un fișier robots.txt, crawlerele care respectă regulile vor presupune că pot accesa totul. Totuși, fără unul ratezi oportunitatea de a declara locația sitemap-ului, de a bloca zonele private ale site-ului și de a controla bugetul de crawling pentru site-uri mari. Adăugarea unui robots.txt configurat corect este o bună practică SEO tehnică ce necesită puțin efort, dar oferă beneficii reale.

Verifică alt domeniu

Rulează validatorul de robots.txt pe orice site web — un competitor, site-ul unui client, sau propriul tău domeniu după ce ai făcut îmbunătățiri.

Toate uneltele gratuite

Verifică celelalte semnale SEO tehnice:

Vrei informații mai detaliate despre vizibilitatea AI?

Începe o încercare gratuită