Aan je eigen website sleutelen blijft ontzettend leuk. Dat ondervond ik toen ik vorig jaar met een eenvoudige tool een eigen webstek online plaatste. Uiteraard wil je dat Google en andere zoekmachines je webconstructie snel kunnen vinden. Om je webhuis hoog te laten scoren in de resultatenlijst van zoekmachines, moet je de techniek van ‘zoekmachine optimalisatie’ toepassen of SEO (search engine optimalization), maar helaas bestaat hiervoor geen toverformule. Google stelt zijn zoekresultaten samen op basis van meer dan 200 factoren, die bovendien voortdurend veranderen. Bij SEO moet je oog hebben voor verschillende criteria. Gelukkig is er Screaming Frog, een gratis tool om je site zoekvriendelijk te maken. Screaming Frog is gratis en op de homepage www.screamingfrog.co.uk/seo-spider kan je deze kikker downloaden voor Windows, Mac OS X of Linux Ubuntu. Nog dit, Screaming Frog corrigeert geen websites, maar spoort wel verbeterpunten op die je dan achteraf kan aanpassen met de webeditor.
STAP 1 / Bereikbaarheid
Wanneer je het programma opstart, komt het overdonderend over, met veel tabbladen en submenu’s. Je kan in deze tool inderdaad erg ver gaan, maar laten we alvast beginnen met de meest elementaire SEO-voorzieningen. Eerst geef je in het adresvak de url in van de website die je wil onderzoeken. Dan klik je op Start en je zal merken dat Screaming Frog zijn analyse opbouwt. Begin bij het eerste tabblad, Internal, en gebruik het scrolbalkje om naar rechts te gaan tot je bij de kolom Level komt. Level slaat op het aantal muisklikjes dat nodig is om een pagina te bereiken. Een zoekmachine gaat zelden verder dan 3 of vier muisklikjes. Staat er belangrijke informatie op een pagina die op level 6 staat, dan weet je dat je die pagina beter bereikbaar moet maken. Je kan zo’n verborgen pagina ook ontsluiten door een link naar deze pagina op de homepage of in de navigatiekolom van je website te plaatsen.
STAP 2 / Dode links en dubbele inhoud
Uiteraard moet je vermijden dat er op je website links staan die niet werken. Om dat te onderzoeken gebruik je het tabblad Response Codes. Vervolgens gebruik je de filter en daar selecteer je Client Error (4xx). De kans is groot dat je als resultaat toch enkele foutcodes Error 404 leest. Deze foutmelding is typisch wanneer de webserver een gevraagd bestand niet kan vinden. Hier zal je dus lezen waar die fouten staan, zodat je die onmiddellijk kan corrigeren in de website. Ook dubbele inhoud moet je vermijden. Om die snel te vinden klik je op het tabblad URI en daar filter je op Duplicate. Filter op dezelfde plaats op Non ASCII Characters. Webadressen die vreemde lettertekens bevatten geven immers ook foutmeldingen wanneer de bezoeker ze probeert te bereiken.
STAP 3 / Metatags
Webmasters gebruiken meta-termen of metatags om aan zoekmachines te vertellen waarover de webpagina gaat. Daar werd ontzettend veel misbruik van gemaakt, zodat meta-termen nu niet langer meetellen voor de vindbaarheid. Gebruik je echter teveel metatags dan wordt dat soms als een vorm van spam beschouwd. Gebruik dus maximaal 3 of 4 woorden die echt op de webpagina voorkomen. In het tabblad Meta Keywords krijg je een overzicht van de metatags die op iedere pagina staan.
STAP 4 / Afbeeldingen
Ook het tabblad Images is interessant. Hier krijg je de lijst van alle afbeeldingen die op de gescande website voorkomen. Filter op afbeeldingen die groter zijn 100 Kb. Wellicht kan je die bestanden nog met een fotobewerker verkleinen door bijvoorbeeld de jpg-compressie te verhogen. Ook de filter Missing Alt Text laat je best even lopen. Alt Text is een stukje tekst waarin je beknopt beschrijft wat er op de afbeelding te zien is. Gebruikers met een visuele handicap doen immers beroep op software die voor hen uitleest wat er op een webpagina staat. De resultaten van iedere filteropdracht kan je telkens met de knop Export wegschrijven naar een nieuw Excel-bestand. Op die manier heb je een lijst bij de hand om straks de correcties te maken in je webeditor.