■掲示板に戻る■ 全部 1- 101- 201- 最新50

連番のH画像を一気にダウンロードする

1 :たのも〜 :2001/01/10(水) 15:02
最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。

120 :名無しさん@お腹いっぱい。 :2001/05/07(月) 15:24
なんだかんだで perl で oneliner 書いて | wget -i - な感じだ.



121 :名無しさん@お腹いっぱい。 :2001/05/18(金) 04:15
あげ

122 :名無しさん@お腹いっぱい。 :2001/05/18(金) 08:21
あるディレクトリから下にあるファイルのみとってくるなんてこと、できるのかな?
先輩方、よろしくお願いします。

123 :名無しさん@お腹いっぱい。 :2001/05/18(金) 10:45
>>122
フワナェ、簗ヒ。、筅、、、、、、「、、ネサラ、、、゙、ケ、ャ。「サ荀ホ・ア。シ・ケ。」
FreeBSD、ホports、ホニテト・ヌ・」・・ッ・ネ・ーハイシ、ャペ、キ、、サ、ホ、ソ、皃ヒ。「
alias wgetports 'wget --proxy=on --force-directories
--no-host-directories --directory-prefix=. --cut-dirs=4
--passive-ftp --recursive --level=1
ftp://hogehoge/path/to/ports/\!*'
、.cshrc、ヒス、、、ニ、゙、ケ。」シツコン、マ1ケヤ、ヌ、ケ。」。ハコニス、ュ、゙、キ、ソ。ヒ
、ウ、、ヌ。「~/ports、ネ、ォ、ヌ。「wgetports shells/tcsh、ネ、ォ、キ、゙、ケ。」
、「、゙、熙ウ、ホ・ケ・(。ヨ」ネイ霖。ラ)、ネエリキク、ハ、、、ホ、ォ、ハ。ゥ

124 :名無しさん@お腹いっぱい。 :2001/05/18(金) 11:35
>>122
wgetで--no-parentを指定すれ。

125 :名無しさん@お腹いっぱい。 :2001/05/19(土) 15:08
象を一気にダウンロード

126 :名無しさん@お腹いっぱい。 :2001/05/20(日) 13:19
面倒くさいので
wget -r http://www.ero.com なんですけど・・・
56kでも2,3時間ほっとけばそれなりおちてくるし

127 :名無しさん@お腹いっぱい。 :2001/05/20(日) 20:02
>>126
ちったー、設定しろ


128 :名無しさん@お腹いっぱい。 :2001/05/26(土) 05:10
age


129 :名無しさん@お腹いっぱい。 :2001/06/15(金) 16:24
最近、どうよ。

130 :名無しさん@お腹いっぱい。 :2001/07/03(火) 01:35
ICHでH画像全部消えた。
まあ、俺の心の中にバッファされてるが。

131 :名無しさん@お腹いっぱい。 :2001/07/03(火) 04:31
ageないの?

132 :名無しさん@そうだドライブへ行こう :2001/07/03(火) 04:48
perl の magical increment をつかえ。

133 :厨房 :2001/07/03(火) 10:40
#!/bin/sh
b=10
c=1
d=Z

while test $b -lt 21
do
wget http://210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/0$b.j
pg
b=`expr $b + 1`
done
while test $c -lt 10
do
wget http://210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/00$c.
jpg
c=`expr $c + 1`
done

134 :名無しさん@お腹いっぱい。 :2001/07/05(木) 13:55
つーか、特定のリンクサイトのリンク先の画像を一気に取って来る方法で、
かつ、余分な画像をはじく意味でも、サイズがある一定サイズ以上のもの
を取って来て、なおかつ、連番で保存ってどおよ。

135 :名無しさん@お腹いっぱい。 :2001/07/06(金) 21:31
wgetを使ってこのようにCGIでファイルがリンクされている場合はどうすればいいのでしょうか?
http://www.classicalarchives.com/bach.html

上のサイト、クラシックのMidiが作曲者ごとにたくさんあって好き。

136 :名無しさん@お腹いっぱい。 :2001/07/07(土) 19:28
なんかwget1.7ってmakeが失敗するんだけどなんでかな。
ていうかgnuのサイトからとってきたソース、gzipがエラー吐く・・・。
おとなしく1.6を使ってろ、ってことかな。

137 :名無しさん@Emacs :2001/07/08(日) 00:49
wget1.7おれはmake出来たよ

でも-kオプションってうまく働いてない気がする.
ついでにSSLもうまくいかん.

138 :名無しさん@お腹いっぱい。 :2001/07/10(火) 00:48
とりあえずこの話題に関しては
まずこのサイトを見ないと始まらないと
思われ。
ツールもそろってるし
http://members.tripod.co.jp/casinoA1/

139 :名無しさん@お腹いっぱい。 :2001/08/21(火) 12:32
age

140 :名無しさん@お腹いっぱい。 :2001/08/22(水) 02:14
bashでときどき
for i in `seq -w 0 52`; do wget http://..../aaa$i.jpg; done
とか
while read i; do wget $i; done
とかやるね。後者はMozillaからURLコピーしまくる。

こういう感じの使い捨てスクリプト書いてたけど
あんまり使わなかった。標準入力からURLを入力するだけで
000〜そのURLの番号まで全取得してくれるはずなんだけど。

#!/bin/bash
while read url; do
if [ -z "$url" ]; then next; fi
eval 'url=(' `echo $url|sed 's/\(.*\/[^0-9]*\)\([0-9]*\).jpg/\1 \2/'` ')'
for i in `seq -w 0 ${url[1]}`; do
wget ${url[0]}$i.jpg
done
done

GNU/Linuxシステムじゃないと動かんカモ。

141 :名無しさん@お腹いっぱい。 :2001/08/22(水) 12:34

集めたあとの整理はどうしてるよ?

wgetとかでとってくると
www9.smutserver.com/teen/sex1000/tgp/*.jpg
のようにディレクトリが深くていやーん。

どうでもいいけど。

142 :名無しさん@お腹いっぱい。 :2001/08/23(木) 04:24
$ find . -type f -name \*.jpg -exec mv {} . \;
$ rm -r */

とでもしてカレントディレクトリに移せば?

143 :名無しさん@お腹いっぱい。 :2001/08/23(木) 05:28
>>141
-nd つかえば?
-nHでも一つ減る。

144 :名無しさん@お腹いっぱい。 :2001/08/23(木) 10:01
ネタはくだらないくせに妙に為になるよ、このスレ(藁

145 :名無しさん@お腹いっぱい。 :2001/08/23(木) 13:45
>>141
俺は URL そのままにしてるよ。
利点は
* 連番系をあとで補間できる
* サイトを割り出せる
* 2ch で紹介しやすい :-)
* そもそもユニークなファイル名を付けるのが面倒

146 :名無しさん@お腹いっぱい。 :2001/08/23(木) 15:16
$ mkdir symlinks
$ find . -type f -name \*.jpg -exec ln -sf {} symlinks \;

これはどーだ?

147 :sage :2001/08/23(木) 15:42
sage

148 :名無しさん@お腹いっぱい。 :2001/08/23(木) 16:33
おなにーするときはどうするんですか?

find . -name '*.jpg' | xargs xv -wait 2 -random

でいいですか? (藁

149 :名無しさん@お腹いっぱい。 :2001/08/23(木) 17:00
>>148
こーいうときに威力を発揮するのが仮想画面だったりするのよね.
1 画面に 5 〜 6 枚, 数画面に渡り表示しておき, 画面切り替え.

1600x1200 いいぜ :D

# スレ的には失格なネタ

150 :名無しさん@お腹いっぱい。 :2001/08/23(木) 17:13
俺はGQviewがお気に入り。
サムネイル画像を表示させておき、
最後は全画面表示にして逝く
下品でスマソ

151 :名無しさん@お腹いっぱい。 :2001/08/24(金) 02:14
tarやzipを読めるviewerってない?
微妙にスレ違いだが、inode消費が気になる....

152 :名無しさん@お腹いっぱい。 :2001/08/24(金) 03:07
キーボードで楽に使える viewer ないかな。
ノートPCなのでほとんどキーボードでやってるんだが、
画像表示だけは GQview で仕方なくトラックボールを
しこしこやってる。

153 :名無しさん@お腹いっぱい。 :2001/08/24(金) 03:17
>>151
こんなのはいかが?
http://enfle.fennel.org/

154 :名無しさん@お腹いっぱい。 :2001/08/24(金) 03:53
>>153

Susie Plug-in にも対応してるんですね
(・∀・)イイ!

155 :名無しさん@お腹いっぱい。 :2001/08/24(金) 23:39
>>152
いまだに xv を愛用しています。快適。

156 :名無しさん@お腹いっぱい。 :2001/08/25(土) 00:14
>>141
> 集めたあとの整理はどうしてるよ?
種類ごとにディレクトリほって、symlink してる。
めんどうだけど。

画像見ながら分類したいな。
なんかいいツールない?
Nautilus か?

157 :152 :2001/08/25(土) 01:51
>>155
おーサンキュ。xv ってキーボードで操作できるんだ。
non-free だから今まで敬遠してたけど、使ってみよう。

158 :名無しさん@お腹いっぱい。 :2001/08/25(土) 02:24
>>157
最初はキーボードの操作を覚えるのがちょっと大変かもしれん。
最近は良い時代になって、FLMask パッチを使う必要がほとんどなくなった。

159 :名無しさん@お腹いっぱい。 :2001/08/25(土) 04:44
>>158
FLMaskパッチに感動したのも懐かしいなあ。
今はもう動画ばっかりだ。

関係ないけど「璃樹無」分割って単なるsplitだったんだね。
気づく前はこれだけのためにWIN立ち上げてたYO。

160 :名無しさん@お腹いっぱい。 :2001/08/25(土) 10:11
どこだったか忘れたけど、サムネール画像上のマウスの位置を送らないと見られないサイトがあって、
HTTPでPOSTリクエストしてデータを取得するPerlスクリプトを書いたこともあったなぁ。

今では、うちに背景画像配信サーバーが立っていたりする…

161 :名無しさん@お腹いっぱい。 :2001/08/25(土) 11:45
例えば、
ttp://www.xxx81.com/jp
にリンクされている、rmファイルを一気にすべてダウンロード
するなんてperlなどで出来るの化な?

162 :tori :2001/08/25(土) 12:02
internet -router - solaris (proxy でfire Wall) - クラスCの事業所セグメント
現在事業所の計算機をグローバルアドレスにするには、Router
使っています。このNATをルーターでは無く、Solaris で行うには
どうすればいいでしょうか?

163 :名無しさん@お腹いっぱい。 :2001/08/25(土) 12:07
>>162
H画像を落とすためにか?

164 :名無しさん@お腹いっぱい。 :2001/08/25(土) 13:00
>>161
そのページに14個のサンプルがあるけど、そのこと?
それなら、何も考えなくても、どんな方法でも簡単に落とせるように見えるけど。

165 :名無しさん@Emacs :2001/08/25(土) 13:06
>>161
htmlからリンク先を抽出したいということですか?

166 :名無しさん@お腹いっぱい。 :2001/08/25(土) 13:13
q , ,
q /( )`
q \ \___ / |
q /- _ `-/ '
q (/\/ \ \ /\
q / / | ` \
q O O ) / |
q `-^--'`< '
q (_.) _ ) /
q `.___/` /
q `-----' /
q <----. __ / __ \
q <----|====O)))==) \) /====
q <----' `--' `.__,' \
q | |
q \ / /\
q ______( (_ / \______/
q ,' ,-----' |
q `--{__________)
q

167 :名無しさん@お腹いっぱい。 :2001/08/25(土) 13:14
.................,........,
................/(........)`
................\.\___.../.|
.............../-._..`-/..'
..............(/\/.\.\.../\
.............././...|.`....\
..............O.O...)./....|
..............`-^--'`<.....'
.............(_.).._..).../
...............`.___/`..../
................`-----'./
...<----......__./.__...\
...<----|====O)))==).\)./====
...<----'....`--'.`.__,'.\
................|........|
.................\......./......./\
............______(.(_../.\______/
.........,'..,-----'...|
.........`--{__________)

168 :名無しさん@お腹いっぱい。 :2001/08/25(土) 13:15
...................................................,........................,
................................................/(........................)`
................................................\...\___........./...|
............................................./-..._......`-/......'
..........................................(/\/...\...\........./\
........................................../.../.........|...`............\
..........................................O...O.........).../............|
..........................................`-^--'`<...............'
.......................................(_...)......_......)........./
.............................................`...___/`............/
................................................`-----'.../
.........<----..................__.../...__.........\
.........<----|====O)))==)...\).../====
.........<----'............`--'...`...__,'...\
................................................|........................|
...................................................\...................../...................../\
....................................______(...(_....../...\______/
...........................,'......,-----'.........|
...........................`--{__________)

169 :名無しさん@お腹いっぱい。 :2001/08/25(土) 14:32
モナーフォント無しで見られる親切設計だ。
NetBSD デーモンかな?

170 :名無しさん@お腹いっぱい。 :2001/08/26(日) 00:58
00000000000000000000000

171 :161 :2001/08/26(日) 01:07
>165
その通りです。
インターネットNinja(Window)らしき事を
Unix系OS上(特にperl)で実現したいのです。
可能でしょうか。


>162
あなた、
Solaris教えてスレッド 其の弐 (826)
の方へ書き込んだつもりでしょう。

私もその失敗、経験済みです。

172 :名無しさん@お腹いっぱい。 :2001/08/26(日) 01:14
>>171
Perlとかを使えば、HTMLファイルからURLを抽出するのは単なる文字列の抽出なので、
慣れれば簡単にできますよ。この機会に正規表現とか覚えるのもいいかも。

173 :名無しさん@お腹いっぱい。 :2001/08/26(日) 01:23
grep して sed >> list して (これを何回かやって) wget -i list

174 :173 :2001/08/26(日) 01:24
ガガーソ。こんな書き込みでスレをageてしまうなんて初めての経験だ…

175 :普段は エロ系 :2001/08/26(日) 01:32
凄い! 2ちゃん の危機で UNIX初めて覗いたけど なんか凄い
で PGF 一応全タイトルと WAVファイル持ってます
1さん
でも 簡単に 入手するより きっと 過程が楽しいのでしょうね
皆様 凄いわ!

176 :名無しさん@お腹いっぱい。 :2001/08/26(日) 01:44
過程なんか楽しくねーよ。

177 :名無しさん@お腹いっぱい。 :2001/08/26(日) 01:51
過程 "も" 楽しい。

178 :普段は エロ系 :2001/08/26(日) 01:53
あ そうなの(^^;;

179 :名無しさん@お腹いっぱい。 :2001/08/26(5) 29:00
「インターネットニンジャじや、一発じゃ。」
と無粋な流れを無視したコメントを残しておく。

(そして反発を買う。)  ワクワク・・・・うふ。





                                           ラブ。

180 :では反発 :2001/08/26(5) 31:00
sed で複数 html からリスト作って wget で取得の方が遥かに早いです

181 :180 :2001/08/26(5) 32:00
ていうか、書き込み時刻がめちゃくちゃだな

182 :名無しさん@お腹いっぱい。 :2001/08/26(5) 34:00
こここれは??

183 :名無しさん@お腹いっぱい。 :2001/08/26(5) 34:00
32:00って_________?

184 :test :2001/08/26(5) 43:00
test

185 :名無しさん@お腹いっぱい。 :2001/08/26(5) 44:00
やっぱおかしいな

186 :名無しさん@お腹いっぱい。 :2001/08/26 06:02
だめ?

187 :名無しさん@Emacs :01/08/26 09:17
test

188 :名無しさん@Emacs :01/08/26 09:18
自治age

189 :名無しさん@お腹いっぱい。 :01/08/26 11:59
27 名前:名無しさん(新規) 投稿日:2001/08/26(日) 11:56 ID:9kvbOGiQ
  ◎
  ┣−-┓
  |AGE|
  ┣−-┛
  |
  |
 Λ|Λ
(・∀・)イイ!
(    )
|  つ |
(__)_)

190 :名無しさん@Emacs :01/08/26 13:17
perlのモジュール使ってhtmlからリンク先を抽出するのは
どうやればいいんですか?

191 :名無しさん@お腹いっぱい。 :01/08/26 13:23
>>190
wgetでできるだろうがスカポンタン

192 :名無しさん@お腹いっぱい。 :01/08/26 13:28
やり方はいろいろあると思うが HTML::Parser モジュールを使うと
XML でいう SAX のような感じの処理で <A HREF="XXXXX">...</A>
の XXXXX の部分を抜きだせるはず

193 :名無しさん@Emacs :01/08/26 13:33
>>191
wgetで出来るとは知りませんでした。調べてみます。
再帰転送のことではないですよね?

194 :名無しさん@お腹いっぱい。 :01/08/26 15:10
httpgetというスクリプトがあって、
それで再帰的にリンク先のファイルを取得できるみたいよ。
まあwgetでいいわけだけど。
参考にしてみれば?

195 :名無しさん@Emacs :01/08/26 16:38
>>194
httpget取って来て見てみました。
確かにリンクを抜き出す関数がありました。感謝です。

196 : :01/09/05 22:02 ID:ssMW8tkM


197 :名無しさん@お腹いっぱい。 :01/09/06 07:42 ID:t/5EHQk.
rtsp://hoge.hoge/stream.rm のストリーミングビデオを
ファイルに落とすのはどうすればいい?

198 :名無しさん@お腹いっぱい。 :01/09/06 12:12 ID:RQop.hqE
>>197
http で落とせたような気がする

199 :名無しさん@お腹いっぱい。 :01/09/16 11:54
age

200 :名無しさん@お腹いっぱい。 :01/09/17 23:34
正直言って、zsh と wget で大抵の事は出来るような気がする。
今までそれ以上の手間が必要な連番ダウンロードには出会った事がない。

201 :犬板 :01/09/18 11:14
>>200

じゃぁここはどーやって落すの?
httpだとどっかあさってに吹っ飛ばされるのだが…

http://japanese.asian-house.com/ura/1999-10/Mintshower.html

202 :名無しさん@お腹いっぱい。 :01/09/18 12:10
>201
あきらめる。
んで、他のトコから落とす。

203 :名無しさん@お腹いっぱい。 :01/09/18 18:19
>201 zsh -c 'wget --referer=http://japanese.asian-house.com/ura/1999-10/ japanese.asian-house.com/ura/1999-10/1030_m[01-52].jpg'

204 :名無しさん@お腹いっぱい。 :01/09/18 18:20
間違えた。{01..52}ね。

205 :名無しさん@Emacs :01/09/18 23:48
refferer

206 :名無しさん@お腹いっぱい。 :01/09/27 05:19
for i in `jot -s ' ' 30 1`; do i=`printf %03d $i`; for j in 1 2 3 4 5; do wget -nd -nH http://210.155.134.217/phpdmm/m/mdc${i}/mdc${i}jp-${j}.jpg; done ; done
ハァハァ

207 :名無しさん@お腹いっぱい。 :01/09/27 22:36
bash$ for n in `seq -f %02g 8 12`
bash$ do
bash$ echo ero$n.jpg
bash$ done

ero08.jpg
ero09.jpg
ero10.jpg
ero11.jpg
ero12.jpg

こんなんどう?

208 :名無しさん@Emacs :01/10/04 01:10
>>207

140で既出

209 :1 :01/10/04 01:41
このところ忙しくて裏本リンクサイト見てなかったら数冊の新刊本がでてた。
一冊一冊取ってくるのは面倒なので、寝る前に一括して取ってくるスクリプトを
考えてます。とりあえずそれぞれの連番のリストファイルはlistとして作っておいて、各裏本用のフォルダーをxxx.dirにおいておくとして以下のようなスクリプ
トをつかってます。とりあえずうまくいってますが、サイトが変わるとrefererの
問題などが考えられると思います。皆様のお知恵を拝借したいと思います。

#!/bin/sh
for i in *.dir
do
cd /home/username/urabon/$i
cat list | xargs wget
done

210 :名無しさん@お腹いっぱい。 :01/10/04 18:04
>>209
フォルダーと言ってしまったな...

211 :1 :01/10/05 00:59
>>210
ばればれ? by Kyon2

212 :名無しさん@お腹いっぱい。 :01/10/05 01:21
$ lftp http://www.iy-n.org
lftp> get *.jpg

ってのがまだないな。

213 :(゚o゚) :01/10/05 01:59
このサイトはみなさんのインターネット環境の
スピードを計ってくれます。また、遅いと思う
人は設定を少し変えることによって無料で
スピードを早くすることができます。
お金を出す前に一度試してみては
いかがでしょうか。上がりの計測も可能です。

http://cym10262.omosiro.com/

214 :名無しさん@お腹いっぱい。 :01/10/05 22:28
>>209
>サイトが変わるとrefererの問題などが考えられると思います。

1さんお帰りなさい。

referer等の情報を保持したリストを読み込めるwrapperを書くのがいいのでは。
reget, getright, iria 等のリストが読み込めると嬉しいっす。

215 :名無しさん@お腹いっぱい。 :01/10/05 22:41
>>212
でlftpの威力をはじめて知った。

216 :名無しさん@お腹いっぱい。 :01/10/13 09:46
定期age

217 :名無しさん@Emacs :01/10/18 07:14
破損jpegの検索とかできない?

218 :名無しさん@お腹いっぱい。 :01/10/18 07:59
>217
i) ImageMagick
$ identiry broken.jpg
identify: Corrupt JPEG data: premature end of data segment (broken.jpg) [No such file or directory].
broken.jpg JPEG 510x750 DirectClass 8-bit 5120b 0.1u 0:01

ii) libjpeg
$ djpeg broken.jpg >/dev/null
Premature end of JPEG file

nonzero statusで死ぬ分djpegの方が便利かも。

219 :名無しさん@Emacs :01/10/19 02:22
>218 サンキュ

for I ;do
for J in `find "$I" -iname \*.jpg` ;do
djpeg "$J" >& /dev/null || wget -xc -T30 -t0 "$J"
done
done


続きを読む

掲示板に戻る 全部 前100 次100 最新50
名前: E-mail (省略可) :

read.cgi ver5.26+ (01/10/21-)