hallo, ich suche ein Programm, mit dem man ganze Webseiten auf dem pc abspeiochern kann?
kann mir da jemand was empfehlen?
ismi
hallo, ich suche ein Programm, mit dem man ganze Webseiten auf dem pc abspeiochern kann?
kann mir da jemand was empfehlen?
ismi
Das geht ganz einfach mit mozilla!eifach rechtsklick dann "seite speichern unter" wählen!
ich glaube ehr er meinte alles zu Downloaden sprich auch unterseiten etz.
Soweit ich weiss kann das flashget
--
Böh, warum so klobig und aufgebläht?Zitat von dadie
wget! Plain, simple and clean.
Windowsversion des ursprünglichen Linux-Programms gibts hier:
http://allserv.ugent.be/~bpuype/wget/
Nur muss man damit leben das das Programm über Kommandozeile funktioniert, dafür aber sehr gut wenn man sich etwas damit beschäftigt.
Was man tun muss damits ordentlich läuft:
Benenn die enthaltene .exe Datei in wget.exe um und verschieb sie ind en Ordner CWINDOWS\COMMAND\
Jetzt kannst du über deine DOS-Eingabeaufforderung wget bedienen.
Zunächst mal lass dir die Manualpage als .txt-Datei ausspucken. Navigier dazu zu deinem Desktop. "cd VERZEICHNISNAME" wechselt in Verzeichnisse, "cd .." springt in übergeordnete Verzeichnisse.
steht dann sowas wie "CWINDOWS\Desktop>" im Prompt, gib ein:
wget --help > wget.txt
Jetzt kannst du die Argumente in der Textdatei nachlesen mit denen du wget bedienen kannst.
Hier ist ein Beispielbefehl:
Der Befehl saugt alle gif,jpeg,png-Bilder die auf einer Seite eingebunden oder gelinkt sind bis zu einer Ordner-/Linktiefe von 9 Ebenen. Der Befehl spart dabei allerdings Dateien mit _t.jpg im Dateinamen aus.
Wenn man kreativ ist und sich ein wenig mit Webtechnik auskennt, kann man richtig mächtige Befehle damit basteln.
nun, ich habe shcon ein anderes Prog. gefunden!![]()
http weazel heisst es. ist äusserst einfach zu bedienen. aber danke für die hilfe!
ismi
mal ne frage dazu, kann man so php code und MYSQL (kenne mich da noch nicht aus, wills aber mir mal anschauen >__> Auch wenns sehr kompliziert aussieht) runterladen?
Falls ja: >__> Shice
Dennis
--«Wir können alles schaffen, wir brauchen nur genug dressierte Affen» - infinite monkey theorem
Das kann man sich auch denken. Die Php-Dateien werden bei jedem Aufruf vom Server ausgeführt und dann an den User geschickt. Da ist es egal, ob der User einen Browser oder ein x-beliebiges anderes Programm benutzt. Für die Php-Dateien braucht man die Ftp-Daten (oder man muss den Server hacken).
Ich habe neulich verscht, mir mit wget die Dokumentation zur Java-API runterzuladen. Das hat auch geklappt, nur habe ich vergessen, Java zu sagen, daß es keine Links verfolgen soll, die nicht auf dem aktuellen Server liegen... Als ich abgebrochen habe hatte ich einen fast vollständigen Mirror von sun.com auf meiner Platte. ^^°Zitat von Chocwise
Wenn man es richtig benutzt ist wget super.
Wenn du den Fehler machst, einen Server zu benutzen, der kein PHP unterstützt, wird allerdings meistens der gesamte Code angezeigt. Sollte aber eigentlich nicht passieren, da du ja eh bei Funpic bist. Aber mal ne Frage am Rande: Wieso wäre es schlimm, wenn man es könnte? Speicherst du deine Passwörter unverschlüsselt da rein, oder was?
neben dem sagen wir es klappt tja. dann sehe ich mir deine config.inc.php datei an und freue mich einen Asst abZitat von getöteter_ork
![]()
--
Öhm, wieso? Was steht da drin, was nicht verschlüsselt ist und trotzdem wichtig? BTW stell ich die Server eigentlich immer so ein, dass sie auf die Include-Dateien den Zugriff verbieten.
du Freak xD
Ging mir nur ums Prinzip
Euer erleichterter Dennis
--«Wir können alles schaffen, wir brauchen nur genug dressierte Affen» - infinite monkey theorem