Entwicklungsumgebung mit grafischem XML-Schema-Editor, Texteditoren für XML und Document Type Definitions (DTD) sowie einem Generator für HTML-Dokumente und XPATH-Abfragen; enthält darüber hinaus Validierungsfunktionen und lässt sich in Visual Studio einbinden; in verschiedenen Versionen erhältlich
Automatisiert das Testen von Internetseiten: findet tote Links, verwaiste Dateien und langsam ladende Dokumente
Xenu’s Link Sleuth durchsucht HTML-Dokumente gründlich und schnell nach toten Links. Das Programm bezieht nicht nur normale Links, sondern auch Bilder, Frames, Hintergründe, Image-Maps, Java-Applets, Plug-ins, Skripte und Style Sheets in seinen Test mit ein. Dabei kann der Ausgangspunkt im Intra- oder Internet liegen, auch https-URLs werden akzeptiert. Alle gefundenen Links führt Link Sleuth in einer ständig aktualisierten Liste auf, aus der das Programm dann auf Anfrage jederzeit einen Bericht zu ungültigen Links generiert.
Das Programm hat sich in den letzten Jahren kaum verändert, gilt aber immer noch als einer der schnellsten und zuverlässigsten Link-Checker. Mit erstaunlichem Tempo ermittelt die Anwendung Tippfehler und Überarbeitungs-Leichen bei den Verweisen.
Die Software wird nicht weiterentwickelt.
Alternativen sind unter anderem WebMatrix und Visual Studio Express.
Microsofts Expression Web ist ein WYSIWYG-Editor, der Anwender beim Erstellen, Designen, Entwickeln und Pflegen von Webseiten unterstützt. Bringt als Nachfolger von Microsoft Frontpage unter anderem diverse CSS-Design-Features sowie visuelle Diagnose-Tools mit. Expression Web unterstützt viele Protokolle und Programmiersprachen – darunter PHP, HTML/XHTML, JavaScript, ASP.NET und ASP.NET AJAX. Die kostenlose Design-Software setzt unter anderem die .NET-Entwicklungsumgebung voraus. Um Expression Web nutzen zu können, muss man sich dafür mit einer gültigen Windows-Live-ID registrieren.
Überprüft eingegebene URL-Adressen auf deren Erreichbarkeit und schlägt Alarm, wenn einer der Links nicht funktioniert oder ungültige HTTP-Weiterleitungen enthält
Mischung aus XHTML-Validator und Web-Spider (Robot oder auch Crawler), der alle Links einer Website besucht; prüft Webseiten regelmäßig auf XHTML-Konformität und spürt tote Links sowie fehlerhafte HTML-Code-Passagen auf
Webdienst, der Internetseiten anhand von Google-Richtlinien auf ihre Tauglichkeit für Suchmaschinen untersucht; überprüft Parameter wie Pagerank, Ladezeit, Überschriften, Länge der Webseite, Keyword-Verteilung oder Suchmaschinen-Freundlichkeit der URL; gibt nach der Analyse einen ausführlichen Report aus
Überprüft die Gültigkeit von HTML- und XHTML-Quellcodes; auch als stark eingeschränkte Lite-Version erhältlich
Erweiterung für die Browser Firefox und Mozilla, die die Quelltextsyntax basierend auf Tidy und OpenSP überprüft, auf Wunsch fehlerhafte Zeilen korrigiert und die Seite neu speichert oder in das XHMTL-Format konvertiert