Zoekmachines en website optimalisatie

Vevida kan u niet helpen bij het aanmelden van uw website(s) bij zoekmachines. Daarom op deze pagina een aantal tips en adviezen.
Om uw website(s) hoger in zoekmachines te krijgen moet u met een aantal zaken rekening houden.

1) Omschrijving & keywords
In metatags geeft u relevante informatie aan de browser of aan een zoekmachine over het betreffende document, zoals een beschrijving van de content van het document. Bijvoorbeeld:

 <meta content="Vevida is een internationale Webhosting Provider voor professionele webhosting">
 <meta content="Vevida, webhosting, asp, asp.net, php, hosting, frontpage, e-mail, web, www">

Deze meta tags worden geplaatst tussen de <head></head> tags.

Echter, omdat erg veel webmasters deze metatags misbruiken voor spammen, zoals het herhalen van keywords om een hogere plaats te krijgen, zijn er een aantal zoekmachines die deze keywords niet meer gebruiken. Kies daarom niet te veel keywords. Houd het relevant.
Hebt u goede keywords geplaatst, dan is het zaak deze up2date te houden. Met andere woorden, pas deze indien nodig weer aan.

2) Robots.txt
Zoekmachines zoeken in de website root naar een speciaal bestand met de naam robots.txt (http://www.uwdomein.com/robots.txt). Het bestand bevat instructies voor robots (spiders) welke bestanden geïndexeerd mogen worden. Dit systeem heet The Robots Exclusion Standard.
Het robots.txt bestand gebruikt een standaard formaat. Het bestaat uit records, elk record bestaat uit twee velden: Een User-Agent (UA) regel en één of meerdere Disallow: regel. Het formaat is:

 <Veld> ":" <waarde>

Het bestand moet gecreëerd en opgeslagen zijn in tekst formaat.

User-agent

De User-agent regel specificeert de robot, bijvoorbeeld:

 User-agent: googlebot

Het gebruik van het wildcard teken (*) is toegestaan om alle robots te specificeren:

 User-agent: *

Disallow:

Het tweede gedeelte van een record bestaat uit Disallow: directives. Deze regels vermelden bestanden en/of directories. Bijvoorbeeld, de volgende regel betekent dat spiders het bestand email.html niet mogen indexeren:

 Disallow: email.htm

Directories mogen ook opgegeven worden:

 Disallow: /cgi-bin/

Wat de cgi-bin directory blokkeert voor spiders.

De Disallow: directive bevat een wildcard: De standaard definieert dat /email betekent dat zowel het bestand /email(.html) als bestanden in de folder /email(/index.html) niet geïndexeerd worden. Wordt de Disallow: directive leeg gelaten, dan wordt ALLES geïndexeerd.

Tenminste één disallow regel moet aanwezig zijn voor iedere User-agent directive.
Een leeg robots.txt bestand wordt genegeerd.

Robots.txt regels zijn ook in meta tags te gebruiken, bijvoorbeeld:

 <meta content="ALL" />
 <meta content="noindex,nofollow" />

3) Titel
Een website heeft een titel, bijvoorbeeld “Vevida Internationale Webhosting Provider – ASP.NET Webhosting!”. Kies een titel die bij uw website past. Maar, iedere pagina van uw website kan een eigen titel hebben. Hebt u een website over uw boerderij, dan zou in de tag van de eerste pagina staan:

 <title>Boerderij fam. Janssen</title>

Gaat uw tweede pagina over de huisdieren die ook op uw boerderij rondlopen, dan kunt u deze pagina noemen:

 <title>huisdieren van de fam. Janssen</title>

4) Tekst
Veel zoekmachines indexeren ook de teksten op uw website. Afbeeldingen en flash items zijn uiteraard ook inhoudelijk, en vaak erg mooi. Ze zijn helaas niet indexeerbaar. Vandaar dat we hier spreken over indexeerbare inhoud.
Een goede tekst, relevant over uw onderwerpen (stem dit af met uw description, keywords en titel), wordt hoger geïndexeerd dan teksten met wartaal, of niet relevante teksten. Om bezoekers te trekken moet u op uw boerderij website geen teksten schrijven over assembly programmeren. Tenzij dit uiteraard een hobby is. Een ander voordeel van goede, aantrekkelijke en duidelijke teksten is dat uw bezoekers graag op uw website terugkomen. Een onderdeel van het aantrekkelijk maken (en houden) van uw website is het opnemen van ALT-tags bij plaatjes, ACRONYM-tags bij vreemde en/of moeilijke woorden, TITLE-tags bij hyperlinks e.d.

Een website die aan de W3C (World Wide Web Consortium) standaarden voor (X)HTML / CSS voldoet, wordt in iedere browser goed weergegeven. Een bezoeker wordt niet verplicht een specifieke browser (zoals enkel Internet Explorer, of Mozilla) te gebruiken. Hiermee bereikt u een breder publiek. Veel informatie en z.g. tutorials vindt u op de W3 Schools website.

5) Linking
Veel zoekmachines maken gebruik van een soort page-ranking; hoe meer websites naar uw website linken, hoe hoger uw website in de resultaten opgenomen wordt. Enkele plaatsen waar u uw site gratis, of tegen betaling, kunt aanmelden zijn zo genaamde directories. Zoals:

of grote websites zoals Startpagina.nl (of één van haar dochters).
Past u op met het versturen van e-mail naar webmasters met het verzoek een link naar uw website op te nemen, dit wordt snel gezien als spam.

6) Zoekmachines
Heeft u met al het bovenstaand rekening gehouden, dan is het tijd om uw website aan te melden bij zoekmachines. Dit kan o.a. bij:

Let wel: Als u uw website aanmeldt kan het soms tot enkele weken duren eer deze opgenomen is. Het aanmelden zelf is géén garantie dat de website daadwerkelijk opgenomen wordt.

Maakt u gebruik van bepaalde online diensten die uw website in één keer bij 30 – 40 zoekmachines aanmelden, dan is de kans erg groot dat u later spam ontvangt omdat u uw e-mailadres hebt moeten achterlaten.

7) Bijhouden
Aan de hand van de website statistieken (die u standaard vindt door /stats/ achter uw domeinnaam te typen) kunt u tags, teksten en HTML aanpassen. Zoekmachines veranderen namelijk vaak van indexeringsmethode.

 

Website- en database optimaliseren (forum, CMS en dergelijke)

[Deze informatie gaat in op gebruik van PHP samen met een MySQL-database, maar is net zo relevant iedere andere scripttaal+database combinatie]

Veel websites zijn tegenwoordig gemaakt met behulp van een CMS (Content Management Systeem), met een achterliggende database. Na verloop van tijd kan een website steeds trager worden, hier enkele tips om dat te voorkomen, en de snelheid te verbeteren.

1) MySQL-database

  • a) Net als data op uw computers harde schijf, raakt data in een MySQL-database na verloop van tijd gefragmenteerd (verspreid). Door het verwijderen van data (informatie zoals nieuwsartikelen, reacties, forum-berichten en dergelijke) ontstaat er ruimte tussen de data in de database. Net als dat u uw harde schijf regelmatig moet “defragmenteren“, moet u uw MySQL database tabellen “optimaliseren“.

    Hiermee wordt alle data weer netjes achterelkaar geplaatst, neemt de database minder ruimte in beslag en kan informatie sneller gevonden worden.

    Het optimaliseren van een MySQL-database kan via de phpMyAdmin-omgeving. Selecteer alle tabellen en kies voor de actie “OPTIMIZE”.

    Naast dat data gefragmenteerd raakt, kan een tabel corrupt of beschadigd raken. Naast het uitvoeren van een “OPTIMIZE” is een regelmatige “ANALYZE” (analyseren) of “REPAIR” (repareren) actie via phpMyAdmin net zo belangrijk.

  • b) Houdt de database zo klein mogelijk. Verwijder regelmatig niet-relevante data, zoals spam, verouderde berichten, enzovoorts. Hoe kleiner de database, hoe beter.

2) Website / CMS

Zie een CMS als een raamwerk (Framework), waarmee je uitgebreide dynamische websites kunt ontwikkelen, componenten kunt integreren, enzovoorts.

Een CMS of website zelf is niet traag, maar een gebruiker moet instellingen bijstellen en ingebouwde opties gebruiken om de prestaties te verbeteren. Vaak begint dit al bij de keuze voor een template, gevolgd door “addons”, componenten en modules. Ook paginagrootte, inclusief gebruikte CSS- en Javascript-bestanden, hebben er invloed op.

  • Kies een zo klein mogelijke template voor uw website. Wijzig .php-, .css- en .js-bestanden en verwijder bijvoorbeeld commentaar en overbodige spaties. Maak wel eerst een backup van de bestanden, voor het geval er te veel verwijderd wordt. Test de wijzigingen goed. Waar mogelijk, probeer .css- en .js-bestanden samen te voegen om zo het aantal HTTP requests te verminderen.
  • Schakel niet gebruikte addons, componenten en modules uit, in het administrator gedeelte (het “back-end”). Verwijder daarna de desbetreffende mappen via FTP en MySQL-tabellen via phpMyAdmin.
  • Activeer caching-mechanismen via het back-end of in de code (PHP Output Buffering Control, Smarty template engine, PHP PEAR Cache-Lite), of installeer speciale cache-plugins.
  • Voor betere prestaties geldt: gebruik gezond verstand.
    Is het écht nodig om coole effecten te hebben met “JCE Utilities” als de “JCE editor” geïnstalleerd is?! Alle fraaie Ajax pop-ups vereisen weer extra .css- en .js-bestanden, extra HTTP-requests, vergroot de totale paginagrootte en verlengt de laadtijd van de pagina.
  • Maak gebruik van al gecomprimeerde plaatjes, met de .jpg- of .png-extensie. Deze bestandsformaten zijn al gecomprimeerd (verkleind), in tegenstelling tot .bmp-bestanden (bitmap). Maak zelf thumb-nails (verkleinde versie van een plaatje) in plaats van dit door een script op de server te laten doen. Het Microsoft programmaatje Image Resizer, uit de Windows XP PowerToys, kan hier goed voor gebruikt worden.
  • Bepaal welke content op de hoofdpagina weergegeven dient te worden. Verdeel de rest van de content op in verschillende categorieën en secties.
  • Schakel een zoekfunctionaliteit van een forum, CMS of website geheel uit, of bijvoorbeeld alleen voor niet geregistreerde bezoekers.

3) Op de webserver
Op de webserver zijn verschillende technieken standaard ingeschakeld die zorgen voor het cachen en/of gecomprimeerd (deflate of gzip) versturen van content (data) naar de browser (bezoeker).

Denk hierbij bijvoorbeeld aan HTTP compressie (voor statische pagina’s, met onder andere de extensies .htm, .html, .txt, .css, .js, .xml en .rdf), FastCGI ISAPI voor PHP (waarbij PHP in het geheugen van de server geladen blijft),Zend Optimizer en IonCube Loader. Of zelfs een mysqli PHP-extensie, voor snellere en betere MySQL toegang vanuit PHP-scripts.

4) En verder…
Standaard maakt een browser (Internet Explorer, Firefox, Safari, Opera) maar twee gelijktijdige HTTP-requests per website-URL. Bevat een website 6 .css-bestanden, dan zijn daar drie keer twee HTTP-requests voor nodig. Wat tijd kost. Voor Internet Explorer is deze waarde in het Windows Registry aan te passen. Hoe u dit doet, leest u hier:http://support.microsoft.com/?kbid=282402. In Firefox is dit via about:config aan te passen (Preference Name: network.http.max-persistent-connections-per-server).

Daarnaast is het mogelijk om plaatjes, .css- en .js-bestanden te verdelen over verschillende URL’s, of DNS hostnamen (hostheaders). Bijvoorbeeld images1.uwdomeinnaam.nl voor standaard plaatjes, images2.uwdomeinnaam.nl voor geüploadde plaatjes en css.uwdomeinnaam.nl voor .css-bestanden. Zodoende worden de verschillende website-onderdelen opgehaald, van verschillende URL’s, met twee HTTP-requests per DNS hostnaam.

Externe links

Terug