| 

.NET C# Java Javascript Exception

1
Ich bin auf der Suche nach einem kompakten und kostenfreien Tool, mit dem ich Webpräsenzen mit HTTP/FTP in der Gesamtheit oder nach ausgewählten Kriterien (z.B. nur HTMLs, nur Bilder) lokal downloaden und mit Designtools nachbearbeiten kann. Wer kennt ein solches Tool und hat einen Tipp parat?
27.04.2012
Jake.20 1 1
5 Antworten
1
Ich habe gute Erfahrungen mit HTTrack Website Copier gemacht. http://www.httrack.com/
07.05.2012
pistenprinz 121 3
0
Die DownThemAll-Erweiterung zu Firefox sollte dem ziemlich nahe kommen. Du bestimmst die Tiefe der Linkverfolgung und die Dateiarten nach vordefinierten Gruppen oder ganz individuell. Ich nutze DownThemAll eigentlich nur als Downloadmanager, der beim Download von Programmen und anderen einzelnen großen Dateien ein bisschen intelligenter und komfortabler zu nutzen ist, aber er soll auch als Offline-Read-Downloader gut sein, angeblich.
28.04.2012
mupan 575 8
0
Also, ich konnte DownThemAll nicht dazu kriegen, ganze Webseiten runterzuladen.

Dafür (prinzipiell): http://curl.haxx.se/ und http://gnuwin32.sourceforge.net/packages/wget.htm, beachte auch http://tinyapps.org/blog/nix/201109120730_wget_curl_sequence.html, aber das Herunterladen sequentiell nummerierter Dateien (wie Bilder z.B.) ist ja nicht dein primärer Ansatz.

Die Einschränkung "prinzipiell" deshalb, weil robots.txt beachtet wird!

Grundsätzlich aber bieten curl und wget rekursives Downloaden mit den Schaltern, das Ganze auch offline lesbar zu machen, also, die Links auf lokale Ziele zu ändern.
07.05.2012
mupan 575 8
0
Ich nutze HTTrack (http://www.httrack.com/), kann es nur empfehlen.
20.06.2012
w3cvalidcode 21 1
-1
Internet Explorer, Datei, Seite speichern unter... - Der lädt das doch eigentlich ziemlich komplett?
07.05.2012
Nicolai Schönberg 2,4k 2 9
Das lädt nur die einzelne Seite komplett. Aber nicht eine Website mit mehreren Seiten als zusammenhängende Struktur.
johny7 07.05.2012

Stelle deine Web-Frage jetzt!