af83

Validate website

Valider le HTML des pages d'un site peut être long et rebutant. J'ai donc cherché un outil pour crawler le site que je développais à ce moment et valider chaque page avec sa DTD.

Liste de projets similaires :

J'avais un premier script qui marchait bien mais pas très rapide. Un petit crawler en 200 lignes de Ruby et la libxml-ruby pour la validation.

Quand je suis tombé sur le projet anemone de Chris Kite, je me suis lancé dans la réécriture avec l'utilisation d'XML Schema qui permet de définir des domaines de validité pour la valeur d'un champ, avec un peu d'inspiration récupérée de markup_validity.

Le résultat a été validate-website, disponible sur https://github.com/spk/validate-website.

Pour les fonctionnalités :

  • Crawler et valider tous un site sur une URL donnée
  • Validation des fichiers statiques locaux avec validate-website-static
  • Pas d'appel au webservice du W3C donc rapide, sauf pour le HTML5
  • Vérification de l'absence d'erreurs 404, y compris dans les CSS
  • Utilisable en console
  • Fichier de log

Pour l'installation, je vous invite à consulter les instructions du README.

Pour valider le site du w3c et checker les 404 :

validate-website -v -n -s http://www.w3.org/

Si vous avez des idées de fonctionnalités ou bugs : https://github.com/spk/validate-website/issues

blog comments powered by Disqus