Mi lenne a célod ezzel? Milyen felhasználókat szeretnél elérni a cikkel?
Printable View
Mi lenne a célod ezzel? Milyen felhasználókat szeretnél elérni a cikkel?
Minél többet.
Van egy új tervem arra nézve, hogyan lehet egy index címlapból kézzel fogható eredményt produkálni. Már sok tervem kudarcba fulladt, de nem adom fel :)
Ez pedig egy jó témának tűnik ahhoz, hogy sok embert érdekeljen, sok megosztást kapjon és kikerüljön az index címlapjára.
Ha ez sem jön be, akkor megmarad egy olyan marketing csatornának, mint a Google+
Ha bejön, akkor megírom, hogy mire jutottam.
ui.: abban bízom, hogyha az index látja, hogy sokan olvassák, előbb kerül ki az index címlapjára. Szóval kattintsatok :)
****szel fogyni? Ezt ígéri a ****Hub Fitnesz programja - Domain Blog
Beindul a kísérlet 2. fázisa.
A cikk kikerült az index címlapjára :)
https://fbcdn-sphotos-f-a.akamaihd.n...88997281_o.jpg
Kíváncsian várom az eredményét, pl. hogy lesz-e ezen keresztül rendelés, drukkolok. :)
Hogyan használják a közösségi oldalakat az amerikai előválasztás során, erről készült egy eléggé terjedelmes kutatás, mely itt olvasható.
"drasztikusan visszaesett 92-ről 61-re" Bájos :D Nekünk egy piti bosszúálló több százezer oldalt vágott ki a Googleből ezzel a robots.txt-s módszerrel évekkel ezelőtt. Azt is hamar észrevettük, itt is volt róla téma, de azóta sem heverte ki a lap. (És ha jól tudom azóta is itt kóvájog, fejlesztőként ügyfelekkel dolgozik a már bíróság által is elítélt szarházi.)
Egyébként én a robots.txt módosítgatását ettől függetlenül sem ajánlom. Tisztább szerveroldalon, a kódból lekezelni ezt is az X-Robots-Tags headerrel (pl. hogy "test" környezetben mindig minden noindex, vagy indulás előtt álló siteokon lehet küldeni 503-as headert, a Retry-After-nél pedig megadni, hogy mikortól publikus), és akkor elkerülhetők az ilyen balesetek is.
Egy hete tiltottam ki robots.txt-vel egy csomó URL-t - na azok bezzeg még benn vannak az indexben :P
Mondjuk alapjaiban már itt kezdődik a gáz:
"Csütörtök este, szabadság előtt, egy induló oldal robots.txt fileját szerkesztettem. Az oldal még nem volt publikus így a robotokat kitiltotta a weboldalról."
Miután az új oldalból már voltak látható részek, akkor tiltotta ki a robotokat...
Ha már egy új, nem publikus oldalról beszélünk akkor eleve nem lett volna jobb htaccess autentikációt dobni az egész honlapra? Majd csak ezután neki kezdeni a telepítésnek és/vagy fejlesztésnek?
Esetleg egy eleve védett teszt domainen összerakni a honlapot amíg el nem készül teljesen.
A gugli is azt mondja, hogy amíg nincs kész a honlapod addig ne mutogasd... :)
Én egyébként ha van rá lehetőség akkor azt szoktam csinálni, hogy az adott (sub)domainen létre hozok egy teszt könyvtárat amit autentikációval azonnal levédek, és oda kezdem fejleszteni a honlapot. Ha minden jó és a megrendelő is átvette akkor áttolom a fájlokat a gyökérbe, és éles is honlap.
Szükség szerint maradhat a teszt könyvtár, így ha később mondjuk dizájn váltás jön a képbe, akkor megint csak kifelé láthatatlanul meg lehet csinálni, és csak a kész eredményt kell átrakni élesre.
Bocs lehet, hogy kicsit off a cikk lényegi tartalmához képest, de ez a rész azonnal szemet szúrt...