Nehezen indexeli oldalunkat a Google vagy a Bing? Hiába a sok optimalizálás nem jönnek a találatok?
A kezek széttárása helyett oldjuk meg a problémát hosszútávon!
Mi is az alap probléma?
A keresőrobotok (crawler vagy pók) nem minden linket követnek az oldalunkon, illetve nem a végtelenségig teszik azt. Ez egy önvédelmi mechanizmus a kereső üzemeltetői részéről, hiszen a dinamikusan generált weblapok megjelenése óta akár végtelen ciklusban is ütközhetnének szegény pókok. Más felől nézve a keresők üzemeltetője sem szeretne minden oldalunkat beindexelni (tartalmilag eltárolni), ami nagyméretű tárhelyet és sok energiát jelent számára.
Abban az esetben, ha mi nem is vagyunk rosszindulatúak és nem generálunk végtelen linksort, akkor is előfordul, hogy egyetlen tartalomra több link (értsd több különböző URL) mutat.
Marad tehát, hogy a kereső robotjaink egy látogatás alkalmával max. 300-400 oldalt látogatnak meg egyszerre oldalunkon. Ha ez összevetjük azzal, hogy nem egy erősen változó oldalról beszélünk és pl. hetente egyszer jön a pókunk, akkor egy 2000 tartalmi elemmel dolgozó oldal akár fél, vagy egy év alatt bejárható a keresők számára!
OK! Megoldjuk erőből! Bemegyünk a webmaster tools-ba és kézzel felvesszük a linkjeinket ajánlással!
Ez ugye a vicc rész! Még esetleg a saját weblapunkkal eljátsszuk ezt, de mondjuk egy ügyfél oldalán, ahol nincs folyamatos felügyelet ez járhatatlan út!
Mi a megoldás weblapjaink beindexelésére?
Egy olyan megoldást kell választanunk ami hosszútávon működik. Az egyik legjobb páros a sitemap.xml és a canonical URL-ek (azonos tartalom különböző URL-en) irányítása.
Mi a sitemap.xml?
A sitemap.xml a nevéből adódóan egy honlaptérkép, csak épp nem a látogatóknak szól, hanem a keresőrobotoknak. Jön a kérdés, hogy minek, mert mi ügyesek voltunk és van a honlapon oldaltérkép! Na igen, de az a pók számára egy ugyanolyan linkhalmaz, mint a honlap többi része! Ezért nem is kezeli másként... A sitemap.xml viszont kifejezetten nekik szól. Továbbá tartalmazhat a bejárandó linkeken kívül módosítási dátumot is, amivel rávehetjük pókjainkat, hogy ismételten belessenek egy tartalomba, amit módosítottunk.
Hogyan készül a sitemap.xml?
Egyszerűbb, ha a portálmotorunk támogatja törekvéseinket (az AWE beépítetten gyártja és a generálási időköz is automatizálható, állítható) de, ha ez a lehetőség nincs meg akkor léteznek webes generátorok erre a célra. pl.: http://www.xml-sitemaps.com
Igen, megint ott tartunk, hogy kézzel, de azért nem ugyanaz egyszer generálni több száz linket, mint felvenni a webmaster tool-ba egyesével!
Fontos!
A weboldalakkal gyártott sitemap-ok rengeteg canonical URL-t tartalmazhatnak! Ezeket ki kell írtani belőle!
A canonical URL-ekről lentebb írok.
Hogyan találja meg a keresőmotor a sitemap.xml-t?
Vagy megetetjük a webmaster tool-ban erre a célra adott felületen (a Bing-hez is van ilyen), vagy be kell tenni a robots.txt-be a következő módon:
Sitemap: http://www.infoartnet.hu/sitemap.xml
Mi a canonical URL?
Olyan URL, ami pontosan ugyanarra a tartalomra mutat.
pl.:
http://www.infoartnet.hu/keresooptimalizalas-programozoi-szemszogbol-1
megegyezik
http://infoartnet.hu/keresooptimalizalas-programozoi-szemszogbol-1
érthetőbben:
www.példa.hu = példa.hu
vagy
www.példa.hu/tartalom = példa.hu/menüpont/tartalom = példa2.meüpont/tartalom*
*Abban az esetben, ha több domainünk is van és nem irányítottuk 301 átirányítással a fő domainünkre!
Ez a keresők szempontjából:
vagy tartalom duplikálás, amit büntet (hátra sorol, vagy nem indexel)
vagy nem az a link jelenik meg a találatok között amelyiket mi szeretnénk
Hogyan szüntessem meg a canonical URL-ek mellékhatásait?
1, kerülni kell a rossz generálási metódusokat (figyelj oda mit programozol)
2, a robots.txt-ben tilthatjuk a pl.: nyomtatott verziók beindexelését (Disallow: /*/printview$)
3, a HTML-be be kell tenni a sort, amiben megjelöljük a számunkra leginkább megfelelő változatot ‹link rel="canonical" href="http://www.infoartnet.hu/keresooptimalizalas-programozoi-szemszogbol-1"›
Éles László tollából