Een technische SEO-analyse: eerst de basis op orde

17 mei 2023

Coen Jansen

SEO

Na maanden zwoegen heb je eindelijk je droomauto opgeknapt. Alle krassen eruit, een mooi kleurtje, nieuwe velgen, modern interieur. Je draait de sleutel om en… Niets. Wat blijkt? Je bent de motor vergeten. Herkenbaar? Dit klinkt natuurlijk onwaarschijnlijk (en super flauw), maar dit is vaak wel wat we zien bij websites. Het maakt niet uit hoe mooi en perfect jouw content is, als de technische staat van je website niet in orde is, wordt het ook niet of nauwelijks gevonden. 

Wat is een goed werkende website?

Zoekmachines hechten waarde aan een goed werkende website. In andere woorden; een website die gemakkelijk vindbaar en te doorzoeken is door zoekmachine en mens. Wanneer je website gebruiksvriendelijk is voor bezoekers, ben je al een heel eind. Maar er zijn genoeg aspecten die alleen zichtbaar zijn voor zoekmachines en niet voor je gebruikers.

Start met een SEO-analyse

Om er zeker van te zijn dat de basis goed is en we met content aan de slag kunnen, voeren wij eerst een SEO-analyse uit. Hierbij beoordelen we de website op meer dan 100 punten. We kijken onder andere naar de toegankelijkheid, indexatie, statuscodes, URL opbouw, robots.txt, sitemap, canonicals, snelheid, CLS, FCP en zo kunnen we nog wel even doorgaan. Uiteenlopende punten die een kleine tot zeer grote impact hebben op de gebruiksvriendelijkheid en vindbaarheid van een website.

Screenshot van de overview in Screaming Frog: een kijkje onder de motorkap van jouw website!

Robot.txt zegt nee

Geen enkele website is exact hetzelfde. Door de jaren heen zijn we van alles tegengekomen en zelfs nu stuiten we nog steeds op dingen die we niet eerder hebben gezien. Om je een idee te geven hoe groot de impact van iets kleins kan zijn, hier een voorbeeld van wat we ooit een keer zijn tegengekomen.

Iedere website heeft (hopelijk) een robots.txt bestand. Deze is vrij in te zien op iedere website (zoals apcdigitaal.nl/robots.txt). Dit bestand geeft instructies aan zoekmachines over wat ze mogen doorzoeken op een website. Met de regel ‘Disallow: /’ vertel je een zoekmachine dat ze de gehele website niet mogen doorzoeken. En over het algemeen betekent ‘niet doorzoeken = niet opnemen in de zoekresultaten’. Een kleine regel met een grote impact.

Dit is slechts een voorbeeld van wat we zoal tegenkomen – en gelijk ook een fors verbeterpunt. In de praktijk komt dit weinig voor. Vaak is het een opsomming van knelpunten die zorgen voor een slechte vindbaarheid en gebruiksvriendelijkheid.

Via Google Search Console kun je de robots.txt-bestandbeheerfunctie gebruiken om de crawlerinstructies voor zoekmachines op je website te beheren.

Niet alles is fout

Geen enkele website is hetzelfde, en toch beoordeelt ieder programma en website alsof ze dat wel zijn. Gebruik je zelf websites zoals PageSpeed Insights? Of kijk je in Search Console? Houd er dan rekening mee dat niet iedere ‘foutmelding’ ook daadwerkelijk een fout is. Kom je iets tegen waarvan je denkt dat het opgelost moet worden? Laat dan altijd iemand met kennis meekijken en beoordelen of het ook daadwerkelijk opgelost dient te worden en wat de mogelijke impact is.

Pak je technische SEO aan!

In deze blog las je meer over het belang van een goede SEO-techniek van je website. Ben je benieuwd naar de SEO-status van jouw website en ontvang je graag meer informatie hierover? Je weet ons te vinden!