2009-07-28 13:32:02 +0000 2009-07-28 13:32:02 +0000
362
362

Wie kann ich eine ganze Website herunterladen?

Wie kann ich alle Seiten einer Website herunterladen?

Jede Plattform ist in Ordnung.

Antworten (20)

347
347
347
2009-07-28 13:55:39 +0000

HTTRACK funktioniert wie ein Champion für das Kopieren des Inhalts einer ganzen Website. Dieses Tool kann sogar die Teile greifen, die erforderlich sind, damit eine Website mit aktivem Code-Inhalt offline funktioniert. Ich bin erstaunt über das Zeug, das es offline replizieren kann.

Dieses Programm wird alles tun, was Sie von ihm verlangen.

Frohe Jagd!

282
282
282
2009-07-28 14:05:25 +0000

Wget ist ein klassisches Kommandozeilen-Tool für diese Art von Aufgaben. Es wird mit den meisten Unix/Linux-Systemen mitgeliefert, und Sie können es auch für Windows bekommen. Auf einem Mac ist Homebrew der einfachste Weg, es zu installieren (brew install wget).

Sie würden so etwas tun wie:

wget -r --no-parent http://site.com/songs/

Weitere Einzelheiten finden Sie im Wget Handbuch und seinen Beispielen , oder e. g. diese:

8
8
8
2009-09-16 22:12:13 +0000

Sie sollten einen Blick auf ScrapBook , eine Firefox-Erweiterung, werfen. Sie verfügt über einen Tiefen-Erfassungsmodus .

8
8
8
2009-09-16 21:56:24 +0000

Internet Download Manager verfügt über ein Site Grabber-Dienstprogramm mit vielen Optionen - mit dem Sie jede beliebige Website vollständig herunterladen können, ganz nach Ihren Wünschen.

  1. Sie können das Limit für die Größe der herunterzuladenden Seiten/Dateien festlegen

  2. Sie können die Anzahl der zu besuchenden Zweigstellen-Websites festlegen

  3. Sie können das Verhalten von Skripten/Popups/Duplikaten ändern

  4. Sie können eine Domäne angeben, nur unter dieser Domäne werden alle Seiten/Dateien, die den erforderlichen Einstellungen entsprechen, heruntergeladen

  5. die Links können in Offline-Links zum Browsen umgewandelt werden

  6. Sie haben Vorlagen, mit denen Sie die oben genannten Einstellungen für sich auswählen können

Die Software ist jedoch nicht kostenlos - sehen Sie, ob sie Ihren Bedürfnissen entspricht, verwenden Sie die Testversion.

7
7
7
2009-09-17 11:42:49 +0000
  • itsucks ** - das ist der Name des Programms!
5
5
5
2009-09-17 02:08:03 +0000

Mir gefällt Offline Explorer . Es ist eine Shareware, aber sie ist sehr gut und einfach zu benutzen.

5
5
5
2009-07-28 14:03:11 +0000

Ich werde auf die Online-Pufferung eingehen, die die Browser verwenden…

Normalerweise verwenden die meisten Browser einen Browser-Cache, um die Dateien, die Sie von einer Website herunterladen, eine Weile aufzubewahren, damit Sie nicht immer wieder statische Bilder und Inhalte herunterladen müssen. Dies kann die Dinge unter Umständen erheblich beschleunigen. Im Allgemeinen sind die meisten Browser-Caches auf eine feste Größe begrenzt, und wenn sie auf diese Grenze stoßen, werden die ältesten Dateien im Cache gelöscht.

ISPs neigen dazu, Cache-Server zu haben, die Kopien von häufig aufgerufenen Websites wie ESPN und CNN aufbewahren. Das erspart ihnen den Ärger, jedes Mal auf diese Websites zuzugreifen, wenn jemand aus ihrem Netzwerk dorthin geht. Dies kann zu erheblichen Einsparungen bei der Menge der doppelten Anfragen an externe Websites beim ISP führen.

4
4
4
2010-02-26 01:26:42 +0000

WebZip ist auch ein gutes Produkt.

4
4
4
2009-07-28 23:23:28 +0000

Ich habe dies seit vielen Jahren nicht mehr getan, aber es gibt immer noch ein paar Versorgungsunternehmen da draußen. Sie sollten vielleicht Web Snake ausprobieren. Ich glaube, ich habe es vor Jahren benutzt. Ich habe mich sofort an den Namen erinnert, als ich Ihre Frage gelesen habe.

Ich stimme Stecy zu. Bitte hämmern Sie nicht auf ihre Website. Sehr schlecht.

3
3
3
2009-10-14 11:41:36 +0000

Probieren Sie BackStreet Browser .

Es ist ein kostenloser, leistungsstarker Offline-Browser. Ein Programm zum Herunterladen und Anzeigen von Websites mit hoher Geschwindigkeit und mehreren Threads. Durch mehrere gleichzeitige Serveranfragen kann BackStreet Browser schnell die gesamte Website oder einen Teil der Website einschließlich HTML, Grafiken, Java-Applets, Sound und anderer benutzerdefinierter Dateien herunterladen und alle Dateien auf Ihrer Festplatte speichern, entweder in ihrem nativen Format oder als komprimierte ZIP-Datei und offline anzeigen.

3
3
3
2013-03-21 17:14:16 +0000

Teleport Pro ist eine weitere kostenlose Lösung, die alle Dateien von jedem beliebigen Ziel herunterkopiert (es gibt auch eine kostenpflichtige Version, die es Ihnen ermöglicht, mehr Inhaltsseiten herunterzuladen).

3
3
3
2009-09-16 22:17:23 +0000

DownThemAll ist ein Firefox-Add-On, mit dem alle Inhalte (z.B. Audio- oder Videodateien) für eine bestimmte Webseite mit einem einzigen Klick heruntergeladen werden können. Damit wird nicht die gesamte Website heruntergeladen, aber das könnte eine Sache sein, nach der die Frage gesucht hat.

3
3
3
2015-09-18 01:41:23 +0000

Für Linux und OS X: Ich schrieb grab-site für die Archivierung ganzer Websites in WARC -Dateien. Diese WARC-Dateien können browsed oder extrahiert werden. Mit grab-site können Sie mit regulären Ausdrücken steuern, welche URLs übersprungen werden sollen, und diese können geändert werden, wenn der Crawl läuft. Außerdem wird ein umfangreicher Satz von Standardeinstellungen zum Ignorieren von Junk-URLs mitgeliefert.

Es gibt ein Web-Dashboard zur Überwachung von Crawls sowie zusätzliche Optionen zum Überspringen von Videoinhalten oder Antworten ab einer bestimmten Größe.

1
1
1
2017-11-03 18:13:37 +0000

Power wget

Während wget bereits erwähnt wurde, war diese Ressource und Kommandozeile so nahtlos, dass ich dachte, sie verdienten eine Erwähnung:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/ Siehe diesen Code erklärt auf explahell

0
0
0
2019-10-14 14:14:05 +0000

Save Page WE

Ausgezeichnete Erweiterung sowohl für Chrome als auch für Firefox, die den größten Teil/alle Inhalte einer Webseite herunterlädt und direkt in der Datei .html speichert. Google Chrome-Erweiterung Firefox-Erweiterung

Mir ist aufgefallen, dass auf einer Bildergalerie-Seite, auf der ich es ausprobiert habe, die Thumbnails gespeichert wurden, aber nicht die vollständigen Bilder. Oder vielleicht auch einfach nur nicht das JavaScript, um die vollständigen Bilder der Thumbnails zu öffnen.

Aber, es funktionierte besser als wget, PDF, etc. Großartige einfache Lösung für die Bedürfnisse der meisten Menschen.

0
0
0
2019-11-11 16:33:26 +0000

Sie können untenstehende kostenlose Online-Tools verwenden, die eine Zip-Datei mit allen in dieser URL enthaltenen Inhalten erstellen

0
0
0
2015-09-27 08:49:33 +0000

Der ehrwürdige * FreeDownloadManager.org ** hat diese Funktion ebenfalls.

Free Download Manager hat sie in zwei Formen in zwei Formen: Site Explorer und Site Spider :

Site Explorer Mit Site Explorer können Sie die Ordnerstruktur einer Website anzeigen und notwendige Dateien oder Ordner einfach herunterladen. HTML Spider Mit HTML Spider können Sie ganze Webseiten oder sogar ganze Websites herunterladen. Das Tool kann so eingestellt werden, dass nur Dateien mit bestimmten Erweiterungen heruntergeladen werden können.

Ich finde, dass Site Explorer nützlich ist, um zu sehen, welche Ordner ein-/ausgeschlossen werden müssen, bevor Sie versuchen, die gesamte Website herunterzuladen - insbesondere wenn sich ein ganzes Forum in der Website versteckt, das Sie beispielsweise nicht herunterladen möchten.

-1
-1
-1
2015-09-21 16:02:12 +0000

HTTracker herunterladen es wird Websites herunterladen sehr einfache Schritte zu folgen.

download link http://www.httrack.com/page/2/

video that help may help you https://www.youtube.com/watch?v=7IHIGf6lcL4

-3
-3
-3
2015-12-02 13:59:03 +0000

Firefox kann es nativ tun (mindestens FF 42 können es). Benutzen Sie einfach “Seite speichern”

-4
-4
-4
2015-05-16 18:05:51 +0000

Ich glaube, Google Chrome kann dies auf Desktop-Geräten tun, gehen Sie einfach zum Browser-Menü und klicken Sie auf Webseite speichern.

Beachten Sie auch, dass Dienste wie pocket die Website möglicherweise nicht wirklich speichern und daher anfällig für Link-Rot sind.

Beachten Sie schließlich, dass das Kopieren des Inhalts einer Website das Urheberrecht verletzen kann, wenn es zutrifft.