butterfly.
Másold be ide mi van a sajatdomain.hu/robots.txt fájlban.
butterfly.
Másold be ide mi van a sajatdomain.hu/robots.txt fájlban.
A search console-ban mit ír ki az indexelési állapotról?
Jelentős okok kellenek hogy a Google ne indexeljen, legyen bármennyire friss / értéktelen egy oldal.
( bár ha a domain névre hoz, akkor alapvető problémák csak nincsenek )
Örülök, hogy végre nem csak én szajkózom ezt, de mindenki az ilyen hülyeségekre fekszik rá, holott csak időpazarlás. Sitemap, meg console-be beküldés, stb.. Megfelelő belső url struktúra és kész. Úgyis akkor és úgy indexeli be, ahogy akarja, felesleges a többi macera.
Üdv.
Prémium Linképítés - sikerek, kockázatok nélkül - Valódi értékek 10 éve.
A linképítés türelem játék. A MOZ egy 2018. november 22-ei linket 2019.01.22-én indexelt be.
Abszolút nincs összhang a GSC és MOZ között, kb. 3x annyit indexeltebe a Google, mint a MOZ, és hogy még szebb legyen, van amikor a GSC-ben be sincsennek a MOZ által indexelt site-ok. Természetesen van átfedés, de...
Szóval, aki nem elég türelmes, és gyors sikert szeretne, annak ott Google Ads vagy Facebook Ads.
Minél nagyobb az oldal, annál fontosabbak a technikai részletek és az indexelési optimalizálás. Az utóbbiban óriási segítség tud lenni a sitemap.
Kicsi oldalaknál túl sokat nem oszt nem szoroz ( igaz itt legtöbbször 2 kattintásra el is készíthető a sitemap - suóval vesződség sincs vele).
Egyik legnagyobb magyar magazinnál tudtak jelentős előrelépést produkálni sitemap optimalizálásával ( tudom, ez nem túl egzakt, talán nem is úgy volt - nekem is csak helyi PM mesélte )
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Sitemap ami bevan küldve, az is jó elvileg.
Search consoleban (index>lefedettség) pár napja volt 80 hibás oldal ez most 146 ra ugrott.. "Szerverhiba (5xx)" hivatkozik pl: domain.hu/belepes (külön felhasznalok számára) illetve domain.hu/kategoria/alkategoria (megszünt) de ezek yoastal elvileg redirectelve vannak ..és amiböl sok van az domain.hu/wp-content/plugins/ ... Mi a teendő hogy ezt orvosoljam? robots.txt be disallowoljam őket ? ha igen, hogy kellene kinéznie a robots.txt nek?
Nálam a szerverhibás problémák mindig maguktól megszűnnek és csak a következő ellenőrzésig szoktak megmaradni és szerverkarbantartás, vagy valamilyen más kiszolgálói gond - időszakos túlterhelés meg hasonlók - esetében szoktak megjelenni. kérdezd meg a kiszolgálódat, hogy mi történt náluk a hiba megjelenésének ideje körül.
Persze lehet, hogy kismillió más oka is lehet, de nekem csak ilyen tapasztalatom van.
Saját szervergépről fut minden.. én arra tippeltem, hogy a robots.txt be ez a disallow téma nem megfelelő :/ nem tudom, hogy mennyire befolyásolja googlet ezek a hibák... (szerintem igen) és rettentően idegesít... hiba tehát elvileg javítani kéne
Könyvjelzők