Az elmúlt napokban/hetekben a következővel szembesültem.
Webmester eszközökben figyelem több domain-em. Ami szembeötlött, hogy nincs az összes sitemap-ben levő aloldal indexelve. Ami eddig nem is volna akkora baj, de ezek már nem új aloldalak, illetve régebben azt mutatta a WMT, hogy az összes indexelve van. Nagyságrendileg 1.500 aloldalról van szó. Mindegyik cikk / aloldal egyedi, 100%-ban odafigyeltem a duplikáció elkerülésére a találati listákon is.
A témájában viszonylag erős oldalról van szó, mégis elkezdett csökkenni az indexelt oldalak száma. Persze meglehet, hogy valami büntetés sújtja, na de a korábban megismert algoritmusokról egyikről sem volt híres (pl pingvin, panda), hogy elkezdi kiszedegetni az indexeket. Mert feltételezem, ha minőségtelen a tartalom, vagy negatív linkek mutatnak rá, akkor tegye hátrébb, de hogy kiszedi... Vagy ha nem is szedi ki, mondjuk 500db-ot bent hagy és ennyivel muzsikál.
És nem valami programozási hiba, mert 4-5 éve is ugyan ez volt az alap és most is. De van például Wordpress alapokon nyugvó és saját programozás is.
Ami érdekes, ha rákeresek a site: paraméterrel, akkor fent 1.200 találatot mutat (ami kb fedi is a valóságot), de amikor a 40. lapra megyek (400 találat) elfogynak a lapok. Ami durva, hogy a Bin g is több találatot hoz, amiről köztudott, hogy nem annyira hatékonyan járja be a netet (gondolom erőforrás hiányában).
Ugyan ezt linkkatalógusoknál is megfigyeltem, de hogy normál odlaalknál, amikből is nem nagyon mutat ki link és tényleg a minőségen volt a hangsúly, az durva... Utána meg csodálkozik az ember, hogy fogynak a látogatók...
De ha beküldöm a hiányzó aloldalt WMT-ben indexelésre, láss csodát, indexeli. De aztán valami meg kikopik és kiszedi...
Ilyennel már találkoztatok? Mi lehet ennek az oka?
Könyvjelzők