![]() |
Willkommen, Gast ( Anmelden | Registrierung )
![]() |
![]()
Beitrag
#1
|
|
Newbie ![]() Gruppe: MemberS Beiträge: 2 Mitglied seit: 22-January 08 Mitglieds-Nr.: 13.149 ![]() |
Hallo habe eine Frage:
Ich will mir mit wget ganze Internetseiten speichern. Bisher kein Problem. Funktioniert auch mit einer Schleife der diverse Seiten hintereinander runterlädt.- Wie mache ich das jedoch wenn die Seite zuerst meinen Login brauch ?? Bitte um Antworten! |
|
|
![]() |
![]()
Beitrag
#2
|
|
BMFH ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() Gruppe: tb-Support Beiträge: 2.013 Mitglied seit: 27-January 04 Wohnort: Wien Mitglieds-Nr.: 3.012 ![]() |
Wie schade, dass es kein Manual gibt in dem das genau drinnen steht: http://www.gnu.org/software/wget/manual/wget.html
QUOTE # Log in to the server. This can be done only once. wget --save-cookies cookies.txt \ --post-data 'user=foo&password=bar' \ http://server.com/auth.php # Now grab the page or pages we care about. wget --load-cookies cookies.txt \ -p http://server.com/interesting/article.php Curl: http://curl.haxx.se/docs/httpscripting.html Wenn jemand nicht einmal versucht etwas im Internet zu finden ist RTFM glaub ich passend. |
|
|
![]() ![]() |
![]() |
Vereinfachte Darstellung | Aktuelles Datum: 26. June 2024 - 07:29 |
Copyright 2001 - 2014 technoboard.at
|
Die
Texte geben die Meinung der Autoren und nicht unbedingt die des technoboard.at
Teams wieder.
Alle fraglichen Inhalte werden auf Anfrage und alle gegen die BoardRegeln verstossenden Einträge automatisch entfernt (sobald sie bemerkt werden). Kontakt: [email protected] |