Hogyan legyünk ismertek a weben? I – II.

Mire jók a metatag-ek?


megjegyzés: a kereső robotok eszelős szabályai időről-időre változnak! Az itt leírtakhoz képest persze csak rosszabbodhat a helyzet!


Megírni egy honlapot, s feltenni egy szerverre annyi, mint írni egy regényt, és a kéziratot becsempészni mondjuk a Széchenyi könyvtár raktárába: gyakorlatilag nulla az esélye annak, hogy rajtad kívül bárki is elolvassa. E ponton talán már hiába is tanácsolnánk, hogy közléskényszeredet kezeltesd, megrögzött weblapíró vagy, így nincs más út, mint előremenekülni az ismertségbe.


Az ismertség relatív dolog, mindenkihez úgysem lehet eljutni, jobb, ha egy hozzánk hasonló rögeszméket képviselő virtuális közösséget célzunk meg. Nosza, üsd fel a telefonkönyvet, tuti, hogy legalább másik ezer ember lesz benne, akivel együtt dobban a szíved a parti fecske létfeltételeiért, vagy Naomi Campbell húsos ajkaiért, csak az a kérdés, melyik ezer az.



Na persze, minden óvodás tudja már, hogy a weben a keresők, vagy nagyfiúsan a szörcs endzsinek azok a világítótornyok, amelyek megmutatják a web óceánján vándorlóknak az utat. Az is lehet, hogy Te már regisztráltattad is lapjaidat egy (vagy ötszáz) keresőben. Most várod, hogy özönleni fognak a látogatók? Azt ugyan várhatod. Csak próbáld ki, írd be kedvenc keresődbe a lapodra jellemző szavakat, és kapsz majd pár ezer találatot. De hol vagy Te? Kb. a harmincötezredik a találati listán.
Huszadik, vagy harmincötezredik, egyébként teljesen mindegy. Számos vizsgálat és nyilván a Te tapasztalataid is azt mutatják, hogy a weben keresgélők általában leragadnak az első egy-két találati oldalnál, és akik ezután következnek, azok mintha nem is léteznének. Ők a “többmillióweblap”.
Hát igen, egy adott kulcsszóra bekerülni az első tíz találat közé nem kis dolog, és ha ez olyan egyszerű lenne, mindenki az első tíz között lenne. Most kezdődő cikksorozatunkban feltárjuk a web világának sötét rejtelmeit, hogyan kell megküzdeni az első tíz helyre kerülésért, és hogyan kell megőrizni helyünket. Tuti recept persze nincs a győzelemre, de vannak célravezető módszerek és harcmodor.

A továbbiakban tehát szó lesz az első tíz helyért folyó harc fegyvertáráról, a fegyverhasználatról, a harci taktikáról és stratégiáról, no meg az “ellenfél” lélekrajzáról.
Mostani óránkon a metatag-ek használatát és szerepét ismerjük meg. Ezek felett némileg eljárt az idő, de nézzük meg a részleteket, s aztán törjünk felettük pálcát.


Mik azok a metatag-ek?


Röviden: információ az információról. A metatag-ek lehetőséget adnak arra, hogy a <Head></Head> részben olyan információkat helyezzünk el oldalainkról, melyeket HTML-ben nem lehet megadni, ettől “metá”-k, vagyis HTML-en túliak. A HTTP-EQUIV típus a szerverprogram és a böngésző közötti kommunikációt leíró HTTP specifikációt egészíti ki, míg a NAME típus egyéb – HTML-ben nem megadható – sajátságait írja le a lapnak. Ezeket az információkat a szerver oldali kiszolgáló program és a böngésző olvassa ki, amikor a lapunkkal foglalkozik. Sajnos nem minden szerverprogram és nem minden böngésző támogatja ezeket az utasításokat, de használatuk sokszor még így is megéri. Előbb vegyük át az uncsibb, de nem haszontalan részt, aztán jöhet a sűrűje.


HTTP-EQUIV: a böngésző vezérlése.


Content-Type


Az egyik fontos adat a böngésző számára, hogy milyen kódkészlet alapján értelmezze a megjelenítendő lapot. A magyar ékezetes betűket közelítően helyettesítő betűket az ISO Latin-1 tartalmazza, ennek a kódtáblának metataggel való megadása:


<meta http-equiv=”Content-Type” content=”text/html; charset=iso-8859-2″>


Magyar honlapírók nem sokat szoktak vacakolni az ékezetes betűk problémájával, pláne nem, ha Wordből mentik el HTML formátumba a lapjukat, vagy Frontpage-et (vagy egyéb wysiwyg szerkesztőt) használnak. A Microsoft programok nem konvertálják a karaktereket, hanem bebiggyesztenek egy


<meta HTTP-EQUIV=”Content-Type” content=”text/html; charset=windows-1250″>


metatag-et. A kódtábláknak nem vagyok szakértője, de gyanítom, hogy célszerűbb a fentebbi Internet szabványt használni, mert félő, hogy a windowsos kódtábla csak windowsos környezetben életképes, továbbá fontolóra kéne venni az ő és ű betűkhöz közelálló ISO Latin-1 kódok használatát. Az is igaz, hogy magyar gépeken általában jól jelennek meg az ékezetes betűk, úgyhogy e kérdésben valószínűleg nincs megnyugtató megoldás.


Content-language


Ezzel lapunk nyelvét adhatjuk meg, ami pl. fontos információ lehet, amikor egy kereső robot leindexeli site-unkat.


<meta HTTP-EQUIV=”Content-Language” content=”hu”>



Expires és Pragma


A böngészők a cache-ben tárolják a megtekintett lapokat, ez sokszor problémát is okoz a változó adatokat mutató lapok ismételt felkeresésekor, és persze amikor teszteljük lapjainkat weblapírás közben. Hasonló gondok támadnak, ha proxy szervert használunk gyorsítóként.
Két metatag szolgál arra, hogy a cache működését befolyásoljuk lapjaink szempontjából. Az alábbi metatag arra utasítja a böngészőt, hogy ha a metatag-ben megadott dátumot követően a felhasználó ezt a lapot akarja megtekinteni, akkor már ne a cache-ből hanem a webről töltse le.


<meta HTTP-EQUIV=”expires” content=”Wed, 20 Jul 2000 10:20:30 GMT”>


A dátum megadása a fenti formában kötött, a példának megfelelően kell alkalmazni!
Ha dátumnak nullát adunk meg, az azonnali elévülést jelent, vagyis a lap törlődik a cache-ből. Ezt a funkciót azonban egy másik metatag szabályos használatával is elérhetjük:


<meta HTTP-EQUIV=”pragma” content=”no-cache”>


Ezzel letiltjuk a cache-ben való tárolást, ami megnehezíti, pl. képeink lopkodását.

Refresh


A gyorsan változó tartalmú lapok automatikus frissítésére alkalmas az alábbi metatag, mely a megadott másodpercek letelte után betölti a megadott URL-t.


<meta HTTP-EQUIV=”refresh” content=”10; URL=http://www.akarmi.com/valami.htm”>


Természetesen ez a metatag arra is használható, hogy a megadott várakozási idő után (ami lehet nulla is!) betölt egy másik lapot. Ez a metafunkció jól használható akkor, amikor át akarjuk irányítani a felhasználót egy másik címre. Mivel ez Javascript nélkül is működik, ha a felhasználó kikapcsolta a Javascriptet, az még nem akadálya az átirányításnak.


NAME: a kereső robotok vezérlése

Keywords


Na végre a lényeg. Az első tíz helyért folyó harcban sokáig a “keywords” attribútumú metatag játszotta a főszerepet, de aztán leszerepelt. Ennek oka éppen a kíméletlen harc és annak megregulázása volt. De hát miről is van szó?
A “keywords” metatag kinézete valami ilyesmi:


<meta name=”keywords” content=”kulcsszó1, kulcsszó2, kulcsszó3, stb”>


Ezt arra találták ki, hogy ebben lehessen megadni azokat a kulcsszavakat, amelyek leírják egy lap tartalmát. Amint a web elüzletiesedett, a kereső robotok által létrehozott adatbázisokban való szereplés és a találati listákon való előkelő helyezés rengeteg pénzt jelentett az elől levőknek, hiszen az ő website-ukat keresték fel és náluk vásároltak. Megindult a kíméletlen harc, a kulcsszavaknak lassan már semmi köze sem volt a lap tartalmához, a trükkösek neves cégekre utaló kulcsszavakat helyeztek el metatag-jeikban (ebből manapság komoly perek vannak). Ugyanakkor a kereső robotoknak is megnőtt az üzleti jelentősége, számukra is egyre fontosabb volt, hogy tartalmilag adekvát lapokat adjanak vissza egy adott kulcsszóra. Mindez oda vezetett, hogy ennek a metatag-nek a szerepe háttérbe szorult, az Excite, a Lycos, a Web Crawler, stb. nem támogatja, értsd. nem használja fel a fenti metatag-ben megadott információt. Ennek hivatalos indoklása: a metatag nagyon gyakran irreleváns a lap tartalmát tekintve, ezért helyette a kereső robotok az egész oldal tartalmát indexelik le, figyelmen kívül hagyva a kulcsszavakat. Az Altavista, mint a legnagyobb kereső kitüntetett figyelmet érdemel. Az Altavista tájékoztatója szerint ők leindexelik a “kulcsszavak”-ban található szavakat, de csak, mint az oldalon szereplő egyéb szót, ezért sokan állítják, hogy az Altavista-nál ezzel a metatag-gel sokat nem lehet elérni a rangsorért folytatott küzdelemben. Ha betartjuk az alább összefoglalt szabályokat, ártani biztosan nem ártunk magunknak.


Az Altavista és más kereső robotok viszont szigorúan ellenőrzik, hogy a megadott kulcszavakban a lap tartalma tükröződik-e vissza. Ha nem (pl. az oldalon nem találják meg a kulcsszavakat), akkor kíméletlenül spam-nek, azaz manipulatív szándékúnak tekintik az oldalt és törlik az adatbázisból. Későbbi cikkeinkben még lesz szó arról, mennyire óvatosan kell eljárnunk, hogy nehogy a spam látszatát keltsük egy dühödt kereső robotban, mert adott esetben az egész site-ot is hajlamosak törölni adatbázisukból. (A kereső robotok tartalomelemzést nem tudnak végezni, és lehetünk mi a legártalmatlanabb rákellenes nonprofit alapítvány, ha spam-nek vélnek minket, heteket, hónapokat veszítünk az újraregisztrálással.)


Kulcsszó alapszabályok:


1, Alaposan gondoljuk át, milyen kulcsszavakra kereshetnek minket (szolgáltatásunkat, tartalmunkat) mások. A cél nem a látogatók, hanem a valós “fogyasztók” számának növelése.

2, Keressük meg a hasonszőrű lapokat, és nézzük meg, ők milyen kulcsszavakat használnak. Találni fogunk olyan szinonimákat, amikre mi nem gondoltunk. (Ha sikeresek leszünk, ezt fogják tenni velünk is!)

3, Csak olyan kulcsszót használjunk, amely szerepel a <body> részben is.

4, Soha ne ismételgessük a metatag-ben a kulcsszavakat egymás után, azonnal spam-nek minősülünk. Viszont ismételgethetjük más-más alakban, kis és nagybetűvel, és lehetőleg ne egy sorban.

5, A metatag-ben előbb szereplő kulcsszónak nagyobb a súlya a lap helyezése szempontjából

6, Kifejezésekben is gondolkodjunk: a legtöbb ember 2-3 kulcsszó kombinációjával keres, hogy szűkítse a találatok számát. Ha valamilyen szoftvert kínálunk, ne a “szoftwer” legyen a fő kulcsszavunk (erre százezer találat jön be, és mi leszünk a végén), hanem olyan kifejezések, amelyek speciálisan a mi kínálatunkat fedik le. A feladatunk azt kitalálni, mi lesz majd a minket kereső, de nem ismerő ötlete a kör szűkítésére (pl. irodai szoftverek).

7, Gondoljunk az elírásokra: a felhasználók sokszor jellegzetes hibákat vétenek a kulcsszavak beírásakor, ha mi ezeket felvesszük kulcsszavaink közé, mi leszünk az elsők találataik közt. Pl. szoftver, softvare, software, softwar.

8, Elírás, a Caps Lock gomb lenyomva felejtése, vagy bármi más okán a felhasználók sokszor csupa nagybetűvel, vagy nagybetűs kezdéssel írják be kulcsszavaikat, a kereső robotok meg ezt figyelembe véve csak azokat a lapokat adják vissza, ahol a metatag-ben, vagy a lapon így szerepel a szó, vagy kifejezés. Írjuk tehát kulcsszavainkat többféle írásmóddal, de ne egymás mellé.

9, Minden kereső robotnak megvan a maga hóbortja, mindegyik más pozícióban díjazza a kulcsszavak előfordulását. Ezért ami az egyiknél előkelő helyezést biztosít, az a másiknál nem. Ha tehát nem érünk el kiugró sikert ezzel a módszerrel, ne essünk kétségbe, hanem várjuk meg az Internet kalauz következő számát az újabb ötletekért.


Description


A másik fontos metatag a “description” (leírás), vagyis a lap rövid leírása. Formailag ez a tag így néz ki:


<meta name=”description” content=”A lap leírása”>


Mondanom sem kell, hogy ezt a két tag-et helyettünk senki nem fogja betenni. A Frontpage pl. szorgalmasan kérés nélkül betesz olyan metatag-eket, hogy milyen programmal készült a lap, de nem kínálja fel a fenti két tag-et.
Ha az Altavistában keresünk, akkor sok találat alatt olvasható egy rövid leírás a lapról, vagy site-ról. Ha nem adjuk meg magunk ezt a leírást, akkor az Altavista (és más keresők is) a lap tetejéhez legközelebb álló szövegből hasítanak ki egy részt, ami sokszor inadekvát szöveg lesz. Mind a “keywords” mind a “description” esetén kereső robotonként változik, mennyi karaktert vesznek figyelembe. Készüljünk fel tehát arra, hogy a lényegnek az elején kell szerepelnie, és rövidre vágva is kiderüljön, kik vagyunk. Az Altavista 1024 karaktert vesz figyelembe mindkét metatag-nél, de általában 750 karaktert ajánlanak. A leírásban ajánlatos, ha szintén olyan kulcsszavak szerepeljenek, amelyek a lapon is megtalálhatók! A lap első szöveges része lehet a “description”-ban megadott site leírás kikommentezve azoknak a kereső robotoknak, akik nem veszik figyelembe a metatagokat.

<!–A lap leírása–>

Noindex, nofollow


Mint említettük, nagy a veszélye annak, hogy szándékainktól függetlenül spam-nek értelmezik lapjainkat. ennek egyik gyakori oka az, hogy ilyen-olyan technikai okokból site-unkon szerepel két egyforma, vagy nagyon hasonló lap. Én pl. a browser nyelvét a főlapon megvizsgálom, de amikor a site egy lapjáról valaki visszamegy a főlapra, akkor a főlap duplikátumára érkezik, amelyben már nincsen benne a nyelvi ellenőrzés (egy Javascript). Magyarán két főlapom van, amelyeket ki is zárt az Altavista, spamnak ítélve azt. (A logika ebben az, hogy aki agresszíven akar látogatókat szerezni, azonos tartalmú, de különböző nevű lapokkal egy egész találati oldalt is meg tud tölteni, ami a kereső robotokkal szembeni visszaélésnek minősül, mert gátolja a szabadversenyt.) Az ilyen esetek ellen az alábbi metatag-gel lehet védekezni:


<meta name=”robots” content=”Utasítás a robotnak “>


Mik lehetnek ezek az utasítások?
























Utasítás a robotnak


all


mindent indexelje le, amit csak hajlandó (ez az alapértelmezés)


index


leindexelhető lap (ez is alapértelmezés)


noindex


a lapot ne indexelje le a robot


follow


kövesse a robot a lapon szereplő linkeket (ez az alapértelmezés)


nofollow


a lapon szereplő linkeket ne kövesse a robot


noimageindex


a képeket ne indexelje le (az Altavista robotja biztosan érti)


Ennek a metatag-nek a használatában nyilvánvalóan a tiltásoknak van fontos szerepe. Pl. a fenti esetben az egyik lapomat el kell látni egy “noindex, follow” utasítással. A “nofollow” pl. arra használható, hogy korlátozzuk a site-unk belépési pontjait, vagyis a kereső robot csak az általunk belépési pontnak minősített lapokat indexelje le (ilyen célú használatról azonban mindenkit lebeszélek, hiszen minél több lapunk jelenik meg a találati listákon, annál nagyobb az esélyünk, hogy megtalálnak minket). A “noimageindex” korlátozza a képeink lopkodását, hiszen szeretünk értelmes nevet adni a képeknek a jobb kezelhetőség miatt, így viszont a képgyűjtögetők könnyebben rátalálnak képeinkre.

Hol helyezzük el a metatagokat?


Alapvetően a <Head></Head> részben kell elhelyezni, de itt sem mindegy, hogy hova. A Frontpage és más editorok előszeretettel teszik a <Title></Title> sor elé a metatag-eket, ami rontja az esélyeinket az első tíz közé jutásban. A Title (cím) sornak kell a Head részben az első sornak lennie! A Title ugyanis az egyik legfontosabb része a dokumentumnak, ezt a rangsorba soroláskor a kereső robotok nagy súllyal veszik figyelembe, ezért a lap címébe kerüljenek fontos kulcsszavak! Legyen minden oldalnak címe, és legyen mindegyik más! Ne felejtsük el, hogy a találati oldalakon ez a cím fog megjelenni lapunk rövid leírása felett. Elég kiábrándító és elriasztó a “No title” felirat, kevés látogatót fog vonzani.
Legyen első dolgod ellenőrizni, hányadik vagy Te mondjuk az Altavistában, aztán döntsd el, kell-e ezzel a kérdéssel foglalkoznod. Ha igen, találkozunk a következő számban.
(folyt.köv.)


Mit ne tegyünk ennek érdekében!


A Weben akkor jelent meg az Élet, amikor a Keresők megszülettek. Search engine kutatók hada tanulmányozza e különös élőlények viselkedését és szokásait, melyek állandóan változnak, alkalmazkodva környezetükhöz. Egybehangzó vélemények szerint a kereső robotok újabb mutánsai egyre vérengzőbbek, ártatlan website-okat támadnak meg, és zárnak ki a Web életteréből. A kutatók szerint azonban védelmet jelent velük szemben, ha a találkozáskor a weblapok megfelelően viselkednek.



A múltkor abban maradtunk, hogy Te is szeretnél a nagyobb keresőkben az első tíz közé kerülni. Rendben van, mai cikkemben arra koncentrálok, mit ne csináljunk, ha nem akarunk kiesni az első tíz helyért folytatott versenyből.
A kereső robotok filozófiája ma az, hogy a valódi tartalmuk alapján igyekeznek rangsorolni a lapokat, és kizárják a versenyből azokat, akik manipulálni akarják a keresés eredményét. Nekünk azt a kényes egyensúlyt kell megtalálnunk, hogy úgy befolyásoljuk hatékonyan a rangsorolás folyamatát, hogy ne minősítsék a robotok tevékenységünket manipulációnak. Itt az az elv érvényes, hogy ” Ami tegnap még megengedett volt, az ma már esetleg tiltott ” . És ami tiltott, azt büntetik.


1,A kereső robotokat nem érdekli, hol az ajtó


Rá kell döbbennünk, hogy a kereső robotok lassan átformálják a webépítés egész filozófiáját. Kezdetben elég volt egy dögös nyitóoldal, linkekkel a többi oldalunkhoz, mára viszont gyökeresen más lett a helyzet, mert szándékainktól függetlenül bármelyik oldalunk lehet nyitólap , hiszen tartalma alapján bármelyik lapunk lehet egy találati lista egy eleme. Ennek viszont messzemenő következményei vannak a website felépítésére nézve.
Nyissuk meg egyenként lapjainkat, és kérdezzük meg magunktól: aki csak ezt látja website-unkból, az azt látja-e, amit mutatni akartunk neki?
Mert például:


1, Van-e a főoldalunkra visszamutató fix link a lapon, vagy a Back gombra, vagy egy ” Javascript: history.back() ” utasításra bíztuk-e csupán a visszatérést. Ez utóbbiak kivezetnek site-unkról, ha nem a főlapról érte el a felhasználó az oldalunkat!

2, Megoldottuk-e a frames oldalainknál, hogy ha szólóban akarnak egy többframes oldalunkat behívni, akkor az “ne hagyja magát” (lásd: ‘Ragaszkodjunk kereteinkhez”, IK 2000/1.)

3, Megoldottuk-e azt, hogy ha keretbe hívnak be minket, akkor lapunk meg tudjon szabadulni ebből a nem kívánt keretből?

4, Van-e rejtett számláló minden fontos lapunkon? Ha kíváncsiak vagyunk a látogatóink tényleges számára, ne csak a főoldalon helyezzünk el számlálót, hanem nem látható módon, a többi lapon is, hiszen lesz, aki csak átgázol néhány lapunkon, és a főlap érintése nélkül továbbszáguld.

5, S végül tartsuk szem előtt azt a lehetőséget is, hogy akármelyik oldalunk felöl érkezik is a látogatónk, mi a nyitólapra küldhetjük őt némi Javascript segédlettel.

A statikus főlapban való gondolkodás egy jellegzetes következménye, amikor valaki jelszóhoz köti a site-ra való belépést, de magát a “titkos” oldalakat nem védi meg az indexeléstől, így azt bárki megtalálhatja és láthatja (noindex).


2, A kereső robotok finnyásak


Kutatók szerint a kereső robotok nem esznek akármit.
Pl. a frames oldalakat használó website-oknak nem árt az óvatosság. A kereső robotok ugyebár úgy működnek, hogy ha valaki regisztrál egy domain nevet, akkor esetleg csak pár hét múlva(!) keresik fel a címet, és kezdik a munkát az index.html oldallal, majd ha ezt leindexelték (szöveges tartalmát kielemezték és eltárolták), követik a lapról tovább mutató linkeket, és az így talált lapokat is leindexelik. Ám e ponton emberi sorsok futnak zátonyra, mert a webpolgár azt hiszi, a frames megoldás a menő, a kereső robotok meg fütyülnek erre. Ha egy kereső robot egy frameset-es lapot talál, már megy is tovább , s a szerencsétlen webpolgár meg nem érti, miért nem szerepel még mindig a kereső adatbázisában, pedig már ötször beregisztrálta az URL-ét. A robotok ugyanis nem hajlandók a Frameset utasítás src-jében megadott útvonalat követni!
A megoldás persze nem az, hogy dobjuk el a frames lapjainkat, hanem az, hogy:


1, Regisztráljuk be külön-külön a továbbmutató linkeket tartalmazó frameket (vagyis a frameset-ben megadott oldalakat)!

2, A <noframe></noframe> részbe tegyünk egy továbbmutató linkeket tartalmazó, kulcsszavaktól hemzsegő oldalleírást, ezt ugyanis a kereső robotok kielemzik.

3, Oldjuk meg Javascript segítségével, hogy akkor is a többframe-s oldal jöjjön be, ha valaki csak az egyik frame-t találja meg egy keresővel (lásd. “Ragaszkodjunk kereteinkhez”, IK 2000/1)


A kereső robotok finnyássága miatt további bonyodalmak is támadhatnak.


1, Ezek a jószágok nem kedvelik a Java és egyéb appleteket, ha ilyenbe botlanak, sokuk azonnal abbahagyja a lap további feldolgozását. Ha ez a Java applet a lap tetején van, akkor “ágyő neked indexelés”. Nem árt az óvatosság az egyéb huncutságokkal sem, mint VRML, Flash movie-k , stb.

2, A kereső robotok az image map-eket sem csípik, általában nem követik az ebbe ágyazott linkeket.

3, Azt sem díjazzák, ha egy lap csak amolyan “átirányító” lap: az ilyen átirányításokat nem követik. Ne használjuk tehát indexelésre szánt lapunkon a refresh metatag -et.

4, Világos az is, hogy egy Javascriptes programot se futtatnak le, hogy kiértékeljék a lehetséges elágazások (pl. legördülő listák).

5, A CGI programokkal történő navigálást pedig kifejezetten utálják, mert nem tudják követni őket.


3, A kereső robotok lusták


A kereső robotok további rossz tulajdonsága, hogy akkor sem találnak meg minden lapunkat, ha tökéletes, kényes ízlésüknek is megfelelő linkláncolat vezet el mindegyikhez, ugyanis a kereső robotok általában csak egy-két link mélységig pásztázzák végig site-unkat (vagyis mondjuk a főlapról szerteágazó linkeket, és esetleg még az így talált lapokon található linkeket követik végig), de tovább nem merülnek el lapjaink dzsungelében. Ennek oka az a jogos feltevés, hogy ami igazán fontos, az a sitestruktúra felső szintjein található.
Hogy minden fontos lapunk bent van-e a kereső adatbázisában, arról meggyőződhetünk, keresőnként más-más módon. Ha valamelyiket nem találjuk, azt külön regisztrálhatjuk az adott keresőben. (A kereső robotok “irányítását” lásd. előző havi cikkemben.)


Hogyan ellenőrizzük, hogy mely lapunk szerepel a kereső adatbázisában?


Az Altavista a web legnagyobb keresője (a cikk megjelenése óta már a Google a legnépszerűbb), ráadásul magyarul is ért, legjobb, ha itt kezdjük. A varázsszó a host .
Írjuk be a kereső szövegmezőjébe: host:domain név !


Ekkor kapunk egy listát mindarról a lapunkról, amely benne van az adatbázisban.
Ha nemrég regisztráltunk, előbb nyugodtan elmehetünk egy földkörüli utazásra, aztán próbálkozzunk! Ez a több hetes várakozási idő különösen akkor bosszantó, ha sikertelen volt a regisztráció, mert erre csak hetekkel később jövünk rá. Nem árt jegyzeteket készíteni a regisztráció időpontjáról!
Más keresőknél vagy más, vagy nincs is “varázsszó”!


A Yahoo -nál site-specifikus információval ellenőrizhetjük, benne vagyunk-e az adatbázisukban, de ide csak akkor kerülünk be, ha mi magunk, vagy egy ismeretlen jóakarónk regisztrálja domain-ünket. (Sok kereső robot önállóan kószál és begyűjt mindent, amit ér.)


A Hotbot -nál a következőt kell beírni:

domain:www.prim.hu

Fontos, hogy ne hagyjunk ki space-t a domain: után, mert különben nulla találatot kapunk!


A Lycos -nál sajnos direktben nem lehet ellenőrizni, bent vagyunk-e már. Viszont rákereshetünk a domain nevünkre, akár “www” nélkül is.


A Webcrawler -nél szintén nem sok keresni valónk van, csak tartalmilag tudunk rátalálni lapjainkra.


A Go (vagy Infoseek )-nál az

url:www.prim.hu
formátum használatos.

Végül az Altavizsla a

host:www.prim.hu
kérésre hallgat. Az Altavizsla-val sajnos gondjai lehetnek annak, aki a magyar domain regisztráció bürokratizmusa elleni tiltakozásként külföldön regisztráltatta magát, mert az Altavizsla preferálja a .hu végződésű domain neveket.
Ha nem vagyunk benne valamely adatbázisban, ne kapkodjuk el a regisztrációt, mert itt az ideje, hogy gatyába rázzuk lapjainkat. Mint azt az alábbiakban látni fogjuk, regisztráltatni magunkat olyan, mintha önvizsgálatot kérnénk magunk ellen az APEH-nél.

4, A kereső robotok gyanakvóak és alattomosak


A kereső robot alapvetően gyanakvó, mindenhol manipulációt szimatol. Ízekre szedi lapjainkat, és ha bármi gyanúsat talál, nekünk annyi. Galád webmesterek ugyanis úgy akarnak forgalomnövekedést elérni, hogy populáris témákra (MP3, cracks, free, stb.) hegyezik ki a lapjukat, aztán amikor ott vagyunk, valami egészen mást kínálnak, reménykedve, hogy lebilincselő oldalaik miatt úgyis ott ragadunk. A webpolgárok dühe azonban ilyenkor a keresőkre zúdul, hogy azok teljesen inadekvát oldalakat adnak vissza találatként, és esetleg átpártolnak egy másik keresőhöz, ami a reklámokból fenntartott keresőket elég mélyen érinti. Ebből fakad a kereső robotok ádáz gyanakvása, aminek bizony ártatlan oldalak is áldozatául esnek. Egyetlen lehetőségünk van; tudnunk kell a csapdákat, hogy elkerülhessük őket.


Íme néhány tanács:


1, Ne lapátoljuk tele kulcsszavakkal oldalainkat. A robot megszámolja, hogy egy adott szó hányszor fordul elő egy lapon, és ha az meghalad egy gyakorisági küszöböt, akkor kizárja a lapot az indexelésből. Ennek persze van logikája, mert aki egy adott szóra akar első találat lenni, az egy oldalon át ismételgetni fogja azt. Sajnos ez a küszöbszám nem publikus, így ártatlan webpolgárokat is diszkvalifikálnak a robotok. Egyes becslések szerint a robotok azt kedvelik, ha a kulcsszavak aránya a teljes szöveg 2-3%-a közé esik.

2, Ne használjunk olyan kulcsszavakat a keywords metatag -ben, amely nem fedi le a lap tartalmát, és nem fordul elő a lapon! Egy lap metatag-jei, legyen az akár a nyitólapunk is, a lapot kell leírják, és nem a site-ot ! A kereső robotok mellesleg egyre inkább mellőzik a metatag-ekben megadott információt a lapok rangsorolásakor, mert a lapok tartalomelemzését validabb információnak tekintik. Viszont fennáll a veszélye annak, hogy kizárják a lapot az indexelésből, ha a metatag-ben megadott kulcsszavak nem a lapot írják le, mert ilyenkor manipulációt sejtenek.

3, A robotok idegesek lesznek, ha valaki nagyon apró, olvashatatlan betűt használ, mert felmerül a gyanú, hogy ez csak a robotnak szóló szöveg. A lapot kizárják az indexelésből.

4, A lap háttérszínével megegyező betűszín szintén az üldözendő módszerek közé tartozik. Ezt sajnos megint csak el lehet követni véletlenül is, hiszen táblázatok, cellák színes hátterére gyakran írunk pl. fehér betűket, és ha a lap alapszíne is fehér…

5, A robotok allergiásak arra is, ha nagyon hasonló lapokat találnak egy website felderítése közben. Jó esetben csak a hasonló lapokat zárják ki, rosszabb esetben az egész site-ot! Ha duplikátumra , vagy közel azonos lapokra van szükségünk, próbáljuk meg az egyik lapba a noindex metatag alkalmazását.

6, Nem szerencsés, ha egy oldal soha, vagy nagyon ritkán változik, mert ez azt jelentheti, hogy egy sorsára hagyott website-ról van szó. Érdemes néha kisebb változtatásokat végrehajtani, anélkül, hogy az elért találati helyünket veszélyeztetnénk.

7, Nem ajánlatos egy lapot túl gyakran, vagy sok lapot egy napon azonos domain név alól regisztrálni, mert a robotok ezt büntetik (pl. kizárással, hátrébbsorolással). Hetente egy regisztráció elég.

8, A robotok nem veszik jó néven a banner reklámokat sem, esetleg büntető pontokat adnak érte.

9, A robotok azt is kiszúrják, ha több domain néven regisztráltatjuk ugyanazt a lapot, vagy több szerverre tesszük föl a cuccunkat, és többször regisztráltatjuk magunkat. (Ha ez sikerülne, különféle címeken mi töltenénk meg az egész találati oldalt, ami egy elég tolakodó módszer.)

10, Talán fölösleges is mondani, hogy programgenerálta lapok, jelszóhoz kötött lapok, Acrobat Reader lapok, adatbázisok nem kerülnek indexelésre.

Eddig arról volt szó, mit ne tegyünk . Jövő hónapban megtudhatjuk, mit tegyünk . Addig semmi elhamarkodott butaság, csak csiszolgassátok lapjaitokat.





Ezúton is köszönöm Szendi Gábornak, a cikk szerzőjének, hogy engedélyezte cikkének publikálását.


Forrás:
http://www.behsci.sote.hu/ismert1.htm
http://www.behsci.sote.hu/ismert2.htm

9 HOZZÁSZÓLÁS

  1. Szia!

    Nekem még olyan problémám lenne, hogy a több helyen a linkajánláshoz partnerlinket kérnek. Tudnál nekem abban segíteni, hogy ezt hogy tudom megcsinálni? Mármint a partnerlinkeket az oldalamra. Kiraknám én őket, de nem tudom a gyakorlati kivitelezését. Vagy esetleg ha megírnád, hogy hol tudnék ennek utánanézni: partnerlinkeket úgy tudsz kihelyezni az oldaladra, hogy …….
    Sajnos már itt elakadtam és nem találok rá információt, hiába keresem.

    Köszi:
    Feri

  2. Csak hozz létre egy új oldalt a lapodon pl. topaukciok.hu/partnerek.php névvel, majd oda másold be azt a kódot, amit a linkajánlás során kapsz. Ha bemásoltad és elmentetted, akkor az URL-t, ahol a bemásolt kód megjelenik, írd be a linkajánlás során a megfelelő mezőben és utána nyomd meg a linkbeküldéshez szolgáló gombot. Sok linkgyűjteménynél az ellenőrzés automatikusan megy, ha korábban ajánlod be a sajátodat minthogy kitennéd az övét, akkor nem fogja elfogadni a linkajánlást.

  3. Sziasztok!

    Nekem az lenne a kérdésem, hogy ha az oldal egyetlen flash animációból áll akkor az nem is igazán lehet optimalizálni a keresőnek? Mert ugye nincs benne szöveg.. nekem még a swf-ben sincs, mert minden photoshop-ból lett átemelve…
    Itt a cím erről beszélek… Ez az első lapom, de ez is csak a photoshop tutorialok miatt készült el :-)
    hxxp://web.t-online.hu/nyirbutortrade/

  4. Lehet a flash-t is optimalizálni valamennyire, egy ideje már indexeli a google, viszont biztos nem lesz olyan hatékony e téren, mint egy nem flash-es lap.

  5. Köszi!

    De mondjuk a nagy kérdés az az, hogy bármit írok a metatag-okhoz az biztos nem lesz megtalálható a boby-ban, és ebből kifolyólag komolyak az esélyek arra, hogy spam legyen az oldal… Vagy nem?

  6. Nem, attól hogy vmi olyan szöveg van a meta-nal ami nincs meg a body-ban, még nem “spam” az oldal. :) Nézz utána hogy hogy lehet optimalizálni flash-es oldalt, mert nekem úgy rémlik, hogy pont az a lényege az egésznek, hogy a flash-ben lévő tartalmat be lehet ágyazni a HTML-be is csak épp nem az jelenik meg.
    Nagy hülyeséget nem szeretnék írni ezzel kapcsolatban, úgyhogy itt meg is állok. :)

  7. sziasztok most ezt az egészet nemértem itt azt írja hogy
    3, Csak olyan kulcsszót használjunk, amely szerepel a részben is.

    itt meg azt hogy
    Alapvetően a részben kell elhelyezni, de itt sem mindegy, hogy hova.

    Most akkor hogy és hova kel ezeket berakni mert ez számomra teljesen értelmetlen az egész.
    köszönöm

HOZZÁSZÓLOK A CIKKHEZ

Kérjük, írja be véleményét!
írja be ide nevét