Hallo Nickleianer/innen,
ein bißchen kenn ich mich im Internet aus, aber für mein Problem reichts leider nicht.
Ich wohne auf dem Land und werde daher wohl in näherer Zukunft nicht in den Genuß eines flotten DSL-Anschlusses kommen.
Momentan bin ich bei einer Freundin in der großen, bösen Stadt ;-) und würde mir gerne eine website (bzw. Teile) runterladen um daheim offline reinschauen zu können.
Es ist eine Seite mit Buch- und Hörspielkritiken, die alphabetisch angeordnet sind.
Die Adreesen lauten also ungefähr so:
www.beispiel.de/a
www.beispiel.de/b
www.beispiel.de/c usw.
Also fortlaufend.
Wir haben es schon mit so einem Copier probiert, der ist aber zu kompliziert.
Ich will ja nicht die Bilder oder die Seiten die hinter links versteckt sind speichern, sondern nur die jeweilige HTML-Seite, von a-z.
Kann mir da jemand helfen ?
Am besten wäre es, wenn ich meinen Namen und Passwort für die Seite in die Software eingeben könnte, vielleicht reicht es aber ja auch, mich anzumelden und ich werde dann automatisch über die IP erkannt !?
Ich würd mich sehr über Eure Hilfe freuen.
Liebe Grüße, Julchen
(ich möchte nämlich nicht mein "Gesicht verlieren" und nen Mann fragen....also hier bei nickles natürlich schon, aber nicht face-to-face....will nämlich nachher scheinheilig so tun, als wär ich selbst auf die Lösung gekommen ;-))
Internetanschluss und Tarife 23.312 Themen, 97.798 Beiträge
geht nicht ? Es gibt doch so Programme, die sogar bis zu einer gewissen Linktiefe? alles runterladen.
Oder hab ich mich jetzt tussihaft ausgedrückt ;-) Dann bitte ich um Nachsicht.
Nen Anschluß hab ich ja auch, aber nur ISDN mit Zeittarif.
Ein Beispiel versuch ich noch, will Eure Geduld ja nicht überstrapazieren ;-)
Ich hab bei meinem Versuch auch nicht nur den Text kopiert, sondern bin in Opera auf Speichern gegangen.
Dann hatte ich die Seite die gerade angezigt wurde als soundso.HTML auf der Festplatte (ohne Bilder zwar, aber das ist mir ja egal).
Und das möchte ich eben mit vielen Links machen (online), ich will aber nicht jede Adresse in den Browser tippen und dann speichern, sondern ein Programm mit einer Link-Liste "füttern", dass dann hier bei meiner Freundin über DSL2000 die HTML-Seiten einzeln speichert. Dann bräuchte ich daheim ja gar nicht ins Internet gehen, sondern einfach die grspeicherte Seite anklicken.
Mit den 20 Probeseiten hat es ja auch schon geklappt, das sind insgesamt aber wahnsinnig viele, "von Hand" würde das ja tagelang dauern.
Also ich hätte gerne das ich in eine Textdatei eine Liste schreibe wie
www.nickles.de/1
www.nickles.de/2
www.nickles.de/3
und mir ein Programm dann die entsprechende HTML-Seite runterlädt. Nur jeweils die eine Seite unter der einen Adresse. Und dann die nächste, so dass ich dann jede einzelne Seite im HTML-Format auf der Festplatte habe.
Also hätte ich dann viele einzelne HTML-Seiten auf der Festplatte, die ich dann einzeln aufrufen könnte.
Also einfach die Opera-Funktion "Speichern", nur eben über Software, die die Links einzeln abarbeitet.
Wir haben das schon mit einem "HTTrack Website Copier", aber der speichert dann allen möglichen mist dazu und man muß 15 semester Informatik studiert haben, um den zu kapieren.
und dieses komplizierte brauch ich ja auch gar nicht. Da kann man nämlich sogar die "Maximale Tiefe" einstellen, ich will aber nicht die links die auf der jeweiligen Seite sind runterladen sondern nur die Seite selbst....bzw. den Text.
Alles online. Daheim dann offline.
Entschuldigt bitte, wenn ich mich umständlich ausdrücke, aber so richtig gut kenn ich mich nur bei MS-Office aus.
Aber ich bin lernwillig :-)