Nem olyan régen kicsit alámerültem a seo sötét oldalán egy kis képzésért. A google bowlingot csomagként nyújtják egyesek manapság.
A technika lényege dióhéjban annyi, hogy spam linkekkel és automatikus google felé indított lekérésekkel szépen kivetetik a lapod az indexből egy időre.
Spam linkeim nekem is vannak, azaz valaki már szeretné, ha picit lejebb esne a katalógusom, így hát gondoltam milyen jó lenne az oldalakat bevédeni ellene.
Az eredeti koncepcióm az volt, hogy veszem a googlebot refererjét fogom figyelni a logfilokban és azt feldolgozva valamilyen szkripttel kiszűrtem volna a lehetségesen spammer domaineket, amiről aztán dönthetek, hogy tilt vagy nem. A legelső probléma az az, hogy googlebot csak az oldalon belüli crawl esetében mutat referert, egyébként üres az érték, és itt megállt a tudományom.
Persze az agyam nem állt le így aztán (pusztán elméleti elképzelés következik) gondoltam, valahogy csak összelehet tákolni egy robot szkriptet, ami mondjuk kétnaponta lekéri a yahooból a link:domain -site:domain lekérést és szépen végigjárva az összes találatot adatot gyűjtve (mert sejtésem szerint léteznek a kritikus linkelési mintázatok) ezzel helyettesítve a googlebot refererét. Már majdnem feltaláltam a spanyol viaszt, amikor rá kellett jönnöm, hogy hiába tiltok bizonyos domaineket akármilyen szkripttel, mivel a googlebot nem ad referert, így max a humanoid kattintókat tudom majd vele leszerelni.
Hát így képzeltem
Valakinek valami ötlete esetleg?
Könyvjelzők