Ergebnis 1 bis 13 von 13

Thema: Firefox - Webseiten offline lesen

Hybrid-Darstellung

Vorheriger Beitrag Vorheriger Beitrag   Nächster Beitrag Nächster Beitrag
  1. #1
    Oi, doch so kompliziert, ja? Hatte mir das ganze leichter vorgestellt. Aber eigentlich wäre ich schon dankbar wenn diese Seite offline auf meinem PC zur Verfügung stehen würde.
    Von wget habe ich noch nie etwas gehört, weiss demnach weder wie es funktioniert, noch wie gross der Umfang für so eine Seitenspiegelung ist. Aber wenn du mir einen Befehl für obige Seite basteln könntest, würde ich mir sogar überlegen, eine Runde Füsse küssen springen zu lassen

  2. #2
    Zitat Zitat von Shinigami
    Oi, doch so kompliziert, ja? Hatte mir das ganze leichter vorgestellt. Aber eigentlich wäre ich schon dankbar wenn diese Seite offline auf meinem PC zur Verfügung stehen würde.
    Von wget habe ich noch nie etwas gehört, weiss demnach weder wie es funktioniert, noch wie gross der Umfang für so eine Seitenspiegelung ist. Aber wenn du mir einen Befehl für obige Seite basteln könntest, würde ich mir sogar überlegen, eine Runde Füsse küssen springen zu lassen
    Mit Bilder oder ohne?

    Vorteil ohne Bilder: Die Spiegelung geht wesentlich schneller von statten.

    Nunja, wärend ich den Befehl für beide Variationen bastel und dann später hier reineditiere bzw. Poste, wenn jemand nach mir gepostet hat, besorg dir schonmal die wget.exe-Datei.
    Dann öffne mal die DOS-Eingabeaufforderung (Start -> Programme -> Zubehör -> Eingabeaufforderung/Kommandozeile/MS-DOS/Whatever) und geb dort dies ein:
    path

    schieb die wget.exe dann in irgendeinen der daraufhin ausgegebenen Pfade. Die Pfade sind über ein Semikolon (";") getrennt. Bei mir würde ich es z.B. in CWINDOWS\COMMAND\ schieben, nur weiß ich nicht wie das bei WinXP ausschaut.


    UPDATE: Hmja... *kratzambart* Da hast du eine Seite erwischt die mit GET-Variablen arbeitet die unauff#llig in die URL eingebettet sind. Da haben, zumindest die Spiderprogramme die ich kenne, gerne Probleme mit. XD
    Somit wird's noch komplizierter.
    wget kann die Seite zwwar spiegeln, nur sind die Links in der Seite dann falsch und man kann sich nicht bequem durch rumklicken auf der Seite durch die Seite navigieren sondern muss die .html-Dateien deren Dateinamen nicht sonderlich aussagekräftig sind, einzelnd öffnen.
    Oder man benutzt einen Kniff und benutzt z.B. den Dateieditor Proton um innerhalb der Dateien diesen text: /cps/rde/xchg/SID-3D0AB75D-D1EEDACF/hbs/hs.xsl/ durch nichts ersetzen zu lassen.
    Wenn du das machen möchtest, hier der Code für wget:
    wget -m -k -nd --accept=.html,.php,.htm --level=9 -np --domains=www.boeckler.de http://www.boeckler.de/cps/rde/xchg
    (ohne Bilder)

    wget -m -k -nd --accept=".html, .php, .htm, .jpg, .png, .gif" --level=9 -np --domains=www.boeckler.de http://www.boeckler.de/cps/rde/xchg
    (mit Bilder)

    Einen der Befehle pack in eine Textdatei, benenn diese in suck.bat um, und pack die Datei in einen leeren Ordner. Führ die Datei dann per Doppelklick aus.
    Proton bekommt man kostenlos hier:
    http://www.meybohm.de/

    Alternativ kannst du auch warten bis jemand eine andere, vielleicht bequemere Softwarelösung hier postet. Weil zugegeben, ist schon recht kompliziert und gar nicht so einfach nachzuvollziehen für jemanden der sich ncht häufig damit und mit Webtechnik beschäuftigt hat.

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •