Seite 1 von 1

#1 Downloads und wget

Verfasst: 14.08.2006 16:36:12
von calli
Hallo,

da ich kein DSL hab packe ich alle interessanten Downloads in eine Liste und lasse die dann irgendwo wo ich DSL oder Wlan habe (kein Schmarotzen, bei Freunden!) abklappern.

Ist nen Supi Notbehelf, nur bei RHF Downloads habe ich so eine URL: http://www.rchelifan.org/download.php?id=11672 und bekomme dann so einen Filenamen: download.php?id=11672

Nicht so schön. Da ich keine Option bei wget finde den Filenamen automatisch korrekt zu machen (wie es ja ein Browser beim Download macht...):

Tracer: Wäre es möglich hier Serverseitig was zu machen?

Carsten

#2

Verfasst: 14.08.2006 16:48:11
von Dome
benutzt du zufällig firefox?
dann wäre das plugin flashgot wohl was für dich

#3

Verfasst: 14.08.2006 17:11:53
von calli
Naja, hab ich mir schon mal angesehen, nur gefallen hat es mir nicht. Kann mich nicht mehr erinnern warum ;-)

wie auch immer, wget ist nett ich mag Kommandozeilenprogramme....

C.

#4

Verfasst: 14.08.2006 17:15:49
von Dome
flashgot, nicht flashget
flashgot ist ein plugin für den firefox
wenn du auf einen download klickst kommt ja normal
"öffnen mit" und "speichern unter/auf der festplatte"
durch das plugin kommt dann noch "download mit flashgot" dazu
das plugin sendet dann die URL von der datei an das download programm
sofern ich weiss, unterstüzt das plugin auch wget (und viele andre)

#5

Verfasst: 14.08.2006 17:18:18
von calli
Hab noch nen Script gefunden, ist bash nicht nett ;-)

C.

Code: Alles auswählen

#!/bin/bash

OPTIONS="--limit-rate=5k"

URL="$1"

FILENAME="$(basename "$(wget --spider --server-response "$URL" 2>&1 | grep filename | cut -d"\"" -f2)")"

[ -f "$FILENAME" ] && { echo "Datei existiert."; exit 1; }

if [ -n "$FILENAME" ]
then
  wget $OPTIONS -O "$FILENAME" "$URL"
else
  wget $OPTIONS "$URL"
fi


#6

Verfasst: 14.08.2006 17:19:34
von calli
Ne, hab schon verstanden, ich mag Kommandozeilenprogramme wirklich!

#7

Verfasst: 14.08.2006 18:03:48
von calli
Habs nochmals probiert....

Örks! ;-)

Leider wieder durchgefallen, die Filenamen stimmten auch nicht und wenn man wget oder curl benutzt dann startet man aus einem GUI Programm wgets/curls und hatt dann aus der GUI keine Kontrolle mehr... Ein falscher Klick und man läd recursiv und gleichzeitig 100 URLs runter was bei ISDN wenig Spaß macht. Also mal "killall wget" leider sind dann alle Downloads hin....

Noch ein Vorteil von reinem wget: Das geht sowohl unter Windows als auch unter Linux genau gleich sogar mit der gleichen "Sourcen" Datei und setzt angefangene DLs fort.

C

#8

Verfasst: 14.08.2006 18:25:42
von calli
Musste grad lernen, das fortsetzten vom RHF Server nicht geht?

Naja hier mal mein Script vielleicht hilft es ja dem einen oder Anderen:

Code: Alles auswählen

#!/bin/bash

#wget options
OPTIONS="-c -nc -r -l 1 "

while
        read urlzeile
do
        echo $urlzeile
	FILENAME="$(basename "$(wget --spider --server-response "$urlzeile" 2>&1 | grep filename | cut -d"\"" -f2)")"

	echo $FILENAME

	if [ -n "$FILENAME" ]
	then
	  wget $OPTIONS -O "$FILENAME" "$urlzeile"
	else
	  wget $OPTIONS "$urlzeile"
	fi

done < $1
Aufgerufen wird es dann mit "saug.sh Liste.txt"

Wobei Liste.txt eine Datei mit den URLs ist.

Carsten

#9

Verfasst: 14.08.2006 18:47:06
von calli
Schön wäre noch wenn bereits geladenen URLs aus der Liste.txt auskommentier würden, aber soooo sehr mag ich nun Kommandozeilen auch nicht das ich SED verstehen würde ;-)

C