Bisher habe ich immer einzelne Seiten abgerufen und gespeichert. Gibt es Programme, die alle Seiten einer Webseite selbstständig suchen und herunterladen?

Bisher habe ich immer einzelne Seiten abgerufen und gespeichert. Gibt es Programme, die alle Seiten einer Webseite selbstständig suchen und herunterladen?
Komplette Webseiten kann z.B. WinHTTrack speichern.
Die Verlinkung der einzelnen Seiten wird dabei für das Offline-Betrachten angepasst.
Gruß, Wolfgang