technoboardLogo

Willkommen, Gast ( Anmelden | Registrierung )

> Internetseiten mit wget speichern
kidrock1985
Beitrag 22 Jan 2008, 08:53
Beitrag #1


Newbie
*

Gruppe: MemberS
Beiträge: 2
Mitglied seit: 22-January 08
Mitglieds-Nr.: 13.149



Hallo habe eine Frage:
Ich will mir mit wget ganze Internetseiten speichern. Bisher kein Problem. Funktioniert auch mit einer Schleife der diverse Seiten hintereinander runterlädt.- Wie mache ich das jedoch wenn die Seite zuerst meinen Login brauch ??

Bitte um Antworten!
Go to the top of the page
 
+Quote Post
 
Start new topic
Antworten
eigengrau
Beitrag 22 Jan 2008, 14:00
Beitrag #2


BMFH
********

Gruppe: tb-Support
Beiträge: 2.013
Mitglied seit: 27-January 04
Wohnort: Wien
Mitglieds-Nr.: 3.012



Wie schade, dass es kein Manual gibt in dem das genau drinnen steht: http://www.gnu.org/software/wget/manual/wget.html

QUOTE
# Log in to the server. This can be done only once.
wget --save-cookies cookies.txt \
--post-data 'user=foo&password=bar' \
http://server.com/auth.php

# Now grab the page or pages we care about.
wget --load-cookies cookies.txt \
-p http://server.com/interesting/article.php


Curl: http://curl.haxx.se/docs/httpscripting.html

Wenn jemand nicht einmal versucht etwas im Internet zu finden ist RTFM glaub ich passend.
Go to the top of the page
 
+Quote Post

Beiträge in diesem Thema

« Vorhergehendes Thema · Computer, Hardware & Software · Folgendes Thema »
 
Bookmark and Share

Reply to this topicStart new topic
6 Besucher lesen dieses Thema (Gäste: 6 | Anonyme Besucher: 0)
0 Mitglieder:

 

- Vereinfachte Darstellung Aktuelles Datum: 26. June 2024 - 07:29


Copyright 2001 - 2014 technoboard.at
Die Texte geben die Meinung der Autoren und nicht unbedingt die des technoboard.at Teams wieder.
Alle fraglichen Inhalte werden auf Anfrage und alle gegen die BoardRegeln verstossenden Einträge automatisch entfernt (sobald sie bemerkt werden).
Kontakt: [email protected]

connected by: