Gratis SEO Website Scan
Onze uitgebreide online site analyse is een uitstekende start voor zoekmachine optimalisatie.
Gratis Website Scan
Gratis website audit van SetFocus Online Marketing & SEO
Voordat je begint met zoekmachine optimalisatie (SEO) wil je weten hoe je site er op dit moment voor staat. Om de bezoekers en de zoekmachines een goede gebruikerservaring te geven van je site, is het van belang dat je website in topvorm is. Bij een website die traag is, of één met bijvoorbeeld veel gebroken links zullen bezoekers maar ook de crawlers van zoekmachines afhaken.
Onze gratis website scan geeft je inzicht in de status van je website.
Op basis van dit onderzoek weet je welke aanpassingen je in ieder geval moet verrichten. Zo’n onderzoek is daarom de basis van waaruit gewerkt gaat worden en wordt ook wel een site audit genoemd.
Ook jouw website bevat gegarandeerd fouten, verwijder ze en je komt al hoger in de zoekmachines
Voor deze Website Analyse maken we gebruik van SEOprofiler een website analyse tool. Deze software kijkt niet alleen naar de technische SEO, maar geeft ook informatie over je on-page SEO en off-page SEO. Het is dus niet zo gek om bij deze dienstverlening te spreken over een SEO analyse.
Let wel, zo’n rapportage is slechts de basis. Zelfs als je alle zaken die in zo’n rapport vermeld worden op de goede manier aanpakt, betekent dat nog niet dat je op de door jouw gewenste zoekopdrachten bovenaan komt in Google.
Daar is, in de meeste gevallen, wel iets meer voor nodig.
Maar deze aanpassingen zijn wel noodzakelijk voorafgaande aan alle andere activiteiten waarmee je je website gaat optimaliseren. Alle wijzigingen die je hierna doorvoert zullen dan ook sneller door de zoekmachines worden opgenomen.
Naast genoemde rapportering geven we kort schriftelijk uitleg over hoe je dit verslag moet lezen. Met deze informatie kun je je webmaster aansturen, maar natuurlijk kunnen wij dit ook voor je oppakken.
Bij misbruik behouden wij ons het recht af te zien van levering van deze gratis dienstverlening.
Deze Gratis SEO analyse geeft je inzicht in onderstaande aspecten
1. Totaal aantal files wat is geanalyseerd
2. Waar gaat de site over, met andere woorden: wat leest Google?
Overzicht van woorden die het meest voorkomen op de pagina’s. Dit geeft de zoekmachines een idee waar de site over gaat. Dit kan echt heel afwijkend zijn van het doel van je pagina!
- Overzicht van pagina’s met de meeste (thick content) en met de minste inhoud (thin content)
- meest populaire “anchor texts”, geeft Google een indicatie wat het onderwerp van betreffende link is.
- De eventuele aanwezigheid van dubbele inhoud. Dubbele inhoud kan worden bestraft met een lagere positie in de zoekresultaten omdat zoekmachines dit als spam kunnen ervaren.
- Dubbele titels. Om zoekmachines niet in de war te brengen is het belangrijk dat je elke pagina een unieke titel te geeft.
3. Interne links
4. Externe Links
5. Prestaties

6. Veiligheid
7. Gebruik van "Structured Data"
Overzicht van gebruik van “Structured Data Mark Up” in Type, Taal en Format Structured Data Mark Up is het begrijpelijk maken van content voor de zoekmachines door je bepaalde inhoud te markeren met een stukje code. Met deze code vertel je waar deze informatie voor staat. Google ondersteunt de volgende drie formaten: JSON-LD, Microdata en RDFa. Doordat zoekmachines nu weten waar de informatie voor staat, kan dit ook in de zoekresultaten gepresenteerd worden. Een voorbeeld van zo’n presentatie zijn de rich snippets in Google waarmee je extra kunt opvallen in de zoekresultaten.
8. Technieken
9. Indexeerbaarheid
10. HTTP type respons codes
11. Toegepaste "Meta Robots Tags"
Met de Meta Robots Attribuut kun je op een gedetailleerde, paginaspecifieke manier aangeven hoe een afzonderlijke pagina moet worden geïndexeerd en in zoekresultaten moet worden weergegeven aan gebruikers. Dit kan tot resultaat hebben dat een pagina bijvoorbeeld wel, niet of tijdelijk wordt getoond aan een gebruiker en los daarvan al dan niet geïndexeerd mag worden door een bepaalde zoekmachine.
12. Responsiviteit
13. Robots.txt en Sitemap.XML
Er wordt geanalyseerd of er een robots.txt aanwezig is, wat is de inhoud en wat de consequentie hiervan is voor de diverse zoekmachinerobots. Bepaalde mappen wil je soms liever niet doorzocht hebben door een zoekmachine robot, je kunt dit dan aangeven in je robots.txt. Let wel, dit is slechts een verzoek, geen garantie. Als je wilt dat een map door niemand gevonden gaat worden dan kun je deze beter niet online zetten.
Een sitemap is een pagina waarin de links naar alle pagina’s van een website staan. Zo’n document is een handig hulpmiddel voor zoekmachines en bezoekers om bepaalde pagina’s te vinden op een site. Er wordt gecontroleerd of er een sitemap aanwezig is.