Wie kann ich eine ganze Website herunterladen?
Wie kann ich alle Seiten einer Website herunterladen?
Jede Plattform ist in Ordnung.
HTTRACK funktioniert wie ein Champion für das Kopieren des Inhalts einer ganzen Website. Dieses Tool kann sogar die Teile greifen, die erforderlich sind, damit eine Website mit aktivem Code-Inhalt offline funktioniert. Ich bin erstaunt über das Zeug, das es offline replizieren kann.
Dieses Programm wird alles tun, was Sie von ihm verlangen.
Frohe Jagd!
Wget ist ein klassisches Kommandozeilen-Tool für diese Art von Aufgaben. Es wird mit den meisten Unix/Linux-Systemen mitgeliefert, und Sie können es auch für Windows bekommen. Auf einem Mac ist Homebrew der einfachste Weg, es zu installieren (brew install wget
).
Sie würden so etwas tun wie:
wget -r --no-parent http://site.com/songs/
Weitere Einzelheiten finden Sie im Wget Handbuch und seinen Beispielen , oder e. g. diese:
Sie sollten einen Blick auf ScrapBook , eine Firefox-Erweiterung, werfen. Sie verfügt über einen Tiefen-Erfassungsmodus .
Internet Download Manager verfügt über ein Site Grabber-Dienstprogramm mit vielen Optionen - mit dem Sie jede beliebige Website vollständig herunterladen können, ganz nach Ihren Wünschen.
Sie können das Limit für die Größe der herunterzuladenden Seiten/Dateien festlegen
Sie können die Anzahl der zu besuchenden Zweigstellen-Websites festlegen
Sie können das Verhalten von Skripten/Popups/Duplikaten ändern
Sie können eine Domäne angeben, nur unter dieser Domäne werden alle Seiten/Dateien, die den erforderlichen Einstellungen entsprechen, heruntergeladen
die Links können in Offline-Links zum Browsen umgewandelt werden
Sie haben Vorlagen, mit denen Sie die oben genannten Einstellungen für sich auswählen können
Die Software ist jedoch nicht kostenlos - sehen Sie, ob sie Ihren Bedürfnissen entspricht, verwenden Sie die Testversion.
Mir gefällt Offline Explorer . Es ist eine Shareware, aber sie ist sehr gut und einfach zu benutzen.
Ich werde auf die Online-Pufferung eingehen, die die Browser verwenden…
Normalerweise verwenden die meisten Browser einen Browser-Cache, um die Dateien, die Sie von einer Website herunterladen, eine Weile aufzubewahren, damit Sie nicht immer wieder statische Bilder und Inhalte herunterladen müssen. Dies kann die Dinge unter Umständen erheblich beschleunigen. Im Allgemeinen sind die meisten Browser-Caches auf eine feste Größe begrenzt, und wenn sie auf diese Grenze stoßen, werden die ältesten Dateien im Cache gelöscht.
ISPs neigen dazu, Cache-Server zu haben, die Kopien von häufig aufgerufenen Websites wie ESPN und CNN aufbewahren. Das erspart ihnen den Ärger, jedes Mal auf diese Websites zuzugreifen, wenn jemand aus ihrem Netzwerk dorthin geht. Dies kann zu erheblichen Einsparungen bei der Menge der doppelten Anfragen an externe Websites beim ISP führen.
WebZip ist auch ein gutes Produkt.
Ich habe dies seit vielen Jahren nicht mehr getan, aber es gibt immer noch ein paar Versorgungsunternehmen da draußen. Sie sollten vielleicht Web Snake ausprobieren. Ich glaube, ich habe es vor Jahren benutzt. Ich habe mich sofort an den Namen erinnert, als ich Ihre Frage gelesen habe.
Ich stimme Stecy zu. Bitte hämmern Sie nicht auf ihre Website. Sehr schlecht.
Probieren Sie BackStreet Browser .
Es ist ein kostenloser, leistungsstarker Offline-Browser. Ein Programm zum Herunterladen und Anzeigen von Websites mit hoher Geschwindigkeit und mehreren Threads. Durch mehrere gleichzeitige Serveranfragen kann BackStreet Browser schnell die gesamte Website oder einen Teil der Website einschließlich HTML, Grafiken, Java-Applets, Sound und anderer benutzerdefinierter Dateien herunterladen und alle Dateien auf Ihrer Festplatte speichern, entweder in ihrem nativen Format oder als komprimierte ZIP-Datei und offline anzeigen.
Teleport Pro ist eine weitere kostenlose Lösung, die alle Dateien von jedem beliebigen Ziel herunterkopiert (es gibt auch eine kostenpflichtige Version, die es Ihnen ermöglicht, mehr Inhaltsseiten herunterzuladen).
DownThemAll ist ein Firefox-Add-On, mit dem alle Inhalte (z.B. Audio- oder Videodateien) für eine bestimmte Webseite mit einem einzigen Klick heruntergeladen werden können. Damit wird nicht die gesamte Website heruntergeladen, aber das könnte eine Sache sein, nach der die Frage gesucht hat.
Für Linux und OS X: Ich schrieb grab-site für die Archivierung ganzer Websites in WARC -Dateien. Diese WARC-Dateien können browsed oder extrahiert werden. Mit grab-site können Sie mit regulären Ausdrücken steuern, welche URLs übersprungen werden sollen, und diese können geändert werden, wenn der Crawl läuft. Außerdem wird ein umfangreicher Satz von Standardeinstellungen zum Ignorieren von Junk-URLs mitgeliefert.
Es gibt ein Web-Dashboard zur Überwachung von Crawls sowie zusätzliche Optionen zum Überspringen von Videoinhalten oder Antworten ab einer bestimmten Größe.
Während wget bereits erwähnt wurde, war diese Ressource und Kommandozeile so nahtlos, dass ich dachte, sie verdienten eine Erwähnung:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/
Siehe diesen Code erklärt auf explahell
Ausgezeichnete Erweiterung sowohl für Chrome als auch für Firefox, die den größten Teil/alle Inhalte einer Webseite herunterlädt und direkt in der Datei .html
speichert.
Google Chrome-Erweiterung
Firefox-Erweiterung
Mir ist aufgefallen, dass auf einer Bildergalerie-Seite, auf der ich es ausprobiert habe, die Thumbnails gespeichert wurden, aber nicht die vollständigen Bilder. Oder vielleicht auch einfach nur nicht das JavaScript, um die vollständigen Bilder der Thumbnails zu öffnen.
Aber, es funktionierte besser als wget, PDF, etc. Großartige einfache Lösung für die Bedürfnisse der meisten Menschen.
Sie können untenstehende kostenlose Online-Tools verwenden, die eine Zip-Datei mit allen in dieser URL enthaltenen Inhalten erstellen
Der ehrwürdige * FreeDownloadManager.org ** hat diese Funktion ebenfalls.
Free Download Manager hat sie in zwei Formen in zwei Formen: Site Explorer und Site Spider :
Site Explorer Mit Site Explorer können Sie die Ordnerstruktur einer Website anzeigen und notwendige Dateien oder Ordner einfach herunterladen. HTML Spider Mit HTML Spider können Sie ganze Webseiten oder sogar ganze Websites herunterladen. Das Tool kann so eingestellt werden, dass nur Dateien mit bestimmten Erweiterungen heruntergeladen werden können.
Ich finde, dass Site Explorer nützlich ist, um zu sehen, welche Ordner ein-/ausgeschlossen werden müssen, bevor Sie versuchen, die gesamte Website herunterzuladen - insbesondere wenn sich ein ganzes Forum in der Website versteckt, das Sie beispielsweise nicht herunterladen möchten.
HTTracker herunterladen es wird Websites herunterladen sehr einfache Schritte zu folgen.
download link http://www.httrack.com/page/2/
video that help may help you https://www.youtube.com/watch?v=7IHIGf6lcL4
Firefox kann es nativ tun (mindestens FF 42 können es). Benutzen Sie einfach “Seite speichern”
Ich glaube, Google Chrome kann dies auf Desktop-Geräten tun, gehen Sie einfach zum Browser-Menü und klicken Sie auf Webseite speichern.
Beachten Sie auch, dass Dienste wie pocket die Website möglicherweise nicht wirklich speichern und daher anfällig für Link-Rot sind.
Beachten Sie schließlich, dass das Kopieren des Inhalts einer Website das Urheberrecht verletzen kann, wenn es zutrifft.