Lösung 1) bietet zwar die Möglichkeit, die .html-Dateien
einzeln zu lesen - um auf die richtige Datei zu kommen, würde ich diese normalerweise im Browser über ein Link erreichen, und nicht in der Verzeichnisstruktur manuel suchen (abgesehen davon, dass die Datei kryptischen Namen haben kann bzw. den Title nicht gesetzt haben kann, dauert das Einlesen von den Verzeichnissen mit sehr vielen .htlm-Dateien sehr sehr lange).
Lösung 2) "verflacht" die Struktur der Webseite, so dass der gesamte Inhalt linear gelesen werden muss. Bei einer Testseite (
http://groovy.codehaus.org/gapi/ als fb2 gespeichert) kam ich auf etwa 600 Seiten. Normalerweise würde ich den Inhalt direkt über einen Link ansteuern.
Wie gesagt, ein Browser im offline Modus würde alle Probleme lösen :-D