Ezzel így még el lehet szöszmötölni akár hetekig, hónapokig (évekig?). Nulladik lépésként azt kéne meglépni, hogy nem az élő oldalon dolgozol, hanem kialakítasz magadnak egy fejlesztői környezetet localhost-on. Egy laptop vagy PC erre bőven megfelelő. Aztán ha már ott megy minden, akkor felmásolhatod az élő szerverre. Google így nem fog komolyan venni, látja, hogy az oldal szerver 500-as hibára fut, még egy ideig meglátogat téged, de egy idő után aztán elkerüli még az oldalad környékét is. Arról nem is beszélve, hogy a bejövő linkeket sem tudja érvényesíteni, jön egy link, aztán az egy 5xx-es hibát vált ki, szóval ez így horror szvsz.
Tehát valahogy így volna helyes:
0. Teljes mentés a mostani környezetről
1. Leköltözöl localhost-ra ( ez nem egy könnyű dolog, ha ez már megy, nagy valószínűséggel a hibád is megoldódik)
2. Teljesen üzemkésszé teszed az oldalt
4. Visszaköltözöl az eredeti helyre
Ezek szerintem alapvető dolgok, élő oldalon soha nem fejlesztünk, kivéve ha mondjuk csak egy blogot írsz, de pénzt vagy bevételt nem remélsz viszonzásképp. Google nem fogja hozni a keresési eredmények között a hibás oldalakat, mert nem érdeke neki. (Gondold el, ha a pékségben is mondjuk egy 6 hetes szikkadt, de penészes zsömlét kapnál, mennél te még oda péksütiért? Szerintem nem, sohasem. )
Ha bármelyik lépéshez kell segítség, szólt itt a fórumon, gondolom többen is segítenek szívesen Neked.
Robots.txt: a robots.txt használata szvsz teljesen felesleges, semmit nem akadályoz meg, az csak egy jótanács a keresőrobot felé, hogy mit csináljon és mit ne.
Idézem a Google szövegét: A robots.txt fájl tájékoztatja a keresőmotorok feltérképező robotjait, hogy melyek azok az oldalak és fájlok, amelyeket lekérhetnek webhelyéről, vagy melyek azok, amelyeket nem. Ez leginkább a kérések okozta túlterhelés elkerülésére szolgál; nem így kell megakadályoznia, hogy bizonyos weboldalak megjelenjenek a Google rendszerében.
A vastagon kiemelt rész a fontos, tehát nem akadályozza meg a robotot, hogy lekérje azt az oldalt, a robots.txt használata ebben a formában szvsz teljesen felesleges és hibás. Robots.txt fájlt törölni kell, úgy ahogy van, ha valaminek az elérését szeretnéd korlátozni, azt másképp kell megoldani.
Szerver 5xx hibák:
Kiválthatja pl. egy WP plugin, én költözés előtt (de teljes mentés után) lekapcsolnám az összeset, végignézném a könyvtárakat, nem maradt-e ott vmi szemét (sokszor marad), és azt is törölném. Na persze nem olyan könnyű eldönteni mi szemét, meg mi nem szemét, ahhoz már avatott szem kell. Akár a wp-config is tartalmazhat vmi olyat, amit egy már régen nem használt plugin hagyott ott neked ajándékba. Vagy egy users.ini, vagy pl. ha használsz WP biztonsági plugint, az is tud 5xx-es hibát csinálni. Szóval nem könnyű, de nem is esélytelen szerintem.
Sok Sikert! :-)
Könyvjelzők