■掲示板に戻る■ 全部 1- 101- 201- 最新50連番のH画像を一気にダウンロードする
- 1 :たのも〜 :2001/01/10(水) 15:02
- 最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。
- 90 :名無しさん@お腹いっぱい。 :2001/02/15(木) 21:21
- 肛門マーク * とか。
# mkdir \*
- 91 :名無しさん@お腹いっぱい。 :2001/02/17(土) 17:20
- まずばれないよ
cd /usr/sbin
rm reboot
mkdir reboot
chmod 700 reboot
- 92 :名無しさん@お腹いっぱい。 :2001/02/20(火) 20:12
- lajfoauf:wp
- 93 :名無しさん :2001/02/20(火) 21:37
- どんなセキュリティーねたよりも何よりも人を必死にさせるエロねたって一体・・・
- 94 :PGFコンプリート記念age :2001/02/27(火) 02:42
- 2chの皆様のご協力により、標記のようにPGF全168シリーズを無事コンプリートすることができました。
ご協力頂いた無数の2chの賢者の方々に御礼申し上げます。
- 95 :名無しさん@お腹いっぱい。 :2001/02/27(火) 02:59
- エロ画像のフルダウンロードですか。好きですね。
実は、自動backup機能がある、RAID5 NFSファイルサーバにエロ画像
1Gぐらいためてたんだが、ファイル消してもbackupフォルダに残って
るんだよ。backupはreadonlyで消したいんだが消せないんだ。管理者
に見つかったらどうするべ?
- 96 :>94 :2001/02/27(火) 14:48
- アドレス教えて
- 97 :名無しさん@お腹いっぱい。 :2001/02/27(火) 16:41
- >>95
管理者を抱きこむ
管理者を殺す
クラックする
…識者のレス待ちですかなぁ。
- 98 :>96 :2001/02/27(火) 16:51
- 私は下記URLのリンクなどをたどって、かき集めました。
ttp://www.jansweb.dk/jp/pgf/series.asp
ttp://pgf.fucu.com/pgf/index.htm
このスレ立ち上げたのが1月10となっているから苦節50日ですかね。
- 99 :名無しさん@お腹いっぱい。 :2001/02/27(火) 17:07
- Winで連番リスト作るのにエクセル使ってるよ。
- 100 :96 :2001/02/27(火) 18:38
- >98
あり♪
>99
Winでいいならiriaが一発でやってくれる。
ワレザーが作った文化の恩恵にあずかれます。
- 101 :99@お腹いっぱい。 :2001/02/28(水) 11:30
- >>100
Iriaで展開できない名前の時のみ使ってるですよ。
- 102 :100 :2001/02/28(水) 19:08
- >101
そんなのあるの?
- 103 :101 :2001/02/28(水) 21:49
- 盂蘭盆サイトとか…、Iriaのお約束を知らない土人詩サイトとか…。
- 104 :名無しさん@お腹いっぱい。 :2001/04/20(金) 00:23
- あげ
- 105 :名無しさん@お腹いっぱい。 :2001/04/20(金) 00:27
- 14歳です。長さ太さこの年齢でどうですか?評価お願いします。
http://216.101.214.102/souko/pic_post3/image/1172.jpg
- 106 :名無しさん@お腹いっぱい。 :2001/04/20(金) 06:15
- >>105
まあ普通ってとこだろう。
しかし毛がずいぶんとひ弱な感じだな。
つかお前のふとももには毛が生えてないのか?
- 107 :名無しさん@お腹いっぱい。 :2001/04/20(金) 16:09
- gtmを使う私は軟弱もの。
toolメニューに連番機能があります。numeric downloadね。
http://gtm.sourceforge.net/
- 108 :名無しさん@お腹いっぱい。 :2001/04/22(日) 00:05
- aria 使えば?
- 109 :名無しさん@Emacs :2001/04/22(日) 23:06
- wgetで
http://www.lares.dti.ne.jp/~lupan/pk/comp_angle.html
このページうまく落とすことが出来ますか?
なぜかimage/comp_angle1.jpgからimage/comp_angle6.jpgがうまく落とせないのですけど・・・
- 110 :名無しさん@お腹いっぱい。 :2001/04/22(日) 23:58
- >>109
# wget http://www.lares.dti.ne.jp/~lupan/pk/image/comp_angle1.jpg
--23:55:15-- http://www.lares.dti.ne.jp/%7Elupan/pk/image/comp_angle1.jpg
=> `comp_angle1.jpg'
www.lares.dti.ne.jp:80 に接続しています... 接続しました!
HTTP による接続要求を送信しました、応答を待っています... 200 OK
長さ: 18,463 [image/jpeg]
0K -> .......... ........ [100%]
23:55:19 (6.53 KB/s) - `comp_angle1.jpg' を保存しました [18463/18463]
- 111 :名無しさん@Emacs :2001/04/23(月) 00:08
- >>110
いやいや直接jpgをurlに指定するのでは無くたとえば
wget -r -l2 http://www.lares.dti.ne.jp/~lupan/pk/comp_angle.html
とかでjpgファイルも一緒に落としてくれるとおもったんだけど・・・
- 112 :名無しさん@お腹いっぱい。 :2001/04/23(月) 20:01
- 覚書。
wget --header=REFERER: "http://www.hogehoge.com/index.html" http://www.hogehoge.com/ero.jpg
wget -r -A .jpg http://www.hugohugo.com/gallary/hoge.html
- 113 :名無しさん@Emacs :2001/04/23(月) 23:38
- いやいや
wget -r -l1 http://www.lares.dti.ne.jp/~lupan/pk/comp_angle.html
wget -r -l1 http://www.lares.dti.ne.jp/~lupan/pk/photoexpo99.html
この2つで
photoexpo99.htmlはjpgファイルを落としてくれるけど
comp_angle.htmlはjpgファイルを落としてくれないのです.--referer=設定してもだめ
<IMG SRC="...">のタグは落としてくれるけど<IMAGE SRC="...">のタグは落とせないのでしょうか?
もしかして私はとんでもない勘違いをしてる?
- 114 :名無しさん@お腹いっぱい。 :2001/04/24(火) 09:21
- >>113
<IMAGE> ってなんだ?
- 115 :名無しさん@お腹いっぱい。 :2001/04/24(火) 10:07
- IMGSRC はね、キャッスル.jp.FreeBSD.ORGがあるデザイン会社
ですね。おとしたらMLが配送されなくてこまります。
- 116 :名無しさん@Emacs :2001/04/24(火) 17:10
- 結局html.cのhtmlfindurl()に{ "image", "src" }を追加する事により
解決した.
- 117 :名無しさん@お腹いっぱい。 :2001/05/04(金) 12:25
- 挙げ
- 118 :なまえをいれてください :2001/05/04(金) 23:09
- 普通にcshで
wget http.../ecchi{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg
でできるんだけど…。
うちのcshってふつうじゃないんだろか???
たまにはこんなこともする。
echo wget http.../ecchi{"{0,2,4,6,8}","{1,3,5,7,9}"}.jpg\ \& | csh
極悪?
- 119 :もしもの為の名無しさん :2001/05/07(月) 10:38
- 【1】何分だいぶ昔に作ったものをまだ使っていて
可変数引数を使っていないあたりが当時の厨房ぶりの象徴ですが、
printf() の引数フォーマットをそのまま使えていろいろ使えます。それを
(1)例えば【2】みたいなんで落としてネスケで開いてページを編集→保存とか、
(2)同様に wget を使ったスクリプトを吐き出して勝手に落としてもらうか
と、そんな感じで私はやっておりますが。
※to ってコマンドが【1】をコンパイルしたもの。
【1】
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
main(argc,argv)
int argc;
char *argv[];
{
int i,start,end,tmp,st;
char form[1024];
if(argc < 3){
printf("Usage: %s start end [\"format\"]\n",argv[0]);
exit(-1);
}
start = atoi(argv[1]);
end = atoi(argv[2]);
if(start < end)
st = 1;
else
st = -1;
if(argc > 3)
sprintf(form,"%s\n",argv[3]);
else
sprintf(form,"%sd\n","%");
for(i=start;i*st<=st*end;i+=st)
printf(form,i,i,i,i,i,i,i,i,i,i,i,i);
exit(0);
}
【2】
#!/bin/csh -f
foreach i (01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20 21 22)
to 1 50 '<img src="http://making001.japannudes.net/jgirl'"$i"'/%03d.jpg" width=64 heisht=48>'
end
- 120 :名無しさん@お腹いっぱい。 :2001/05/07(月) 15:24
- なんだかんだで perl で oneliner 書いて | wget -i - な感じだ.
- 121 :名無しさん@お腹いっぱい。 :2001/05/18(金) 04:15
- あげ
- 122 :名無しさん@お腹いっぱい。 :2001/05/18(金) 08:21
- あるディレクトリから下にあるファイルのみとってくるなんてこと、できるのかな?
先輩方、よろしくお願いします。
- 123 :名無しさん@お腹いっぱい。 :2001/05/18(金) 10:45
- >>122
フワナェ、簗ヒ。、筅、、、、、、「、、ネサラ、、、゙、ケ、ャ。「サ荀ホ・ア。シ・ケ。」
FreeBSD、ホports、ホニテト・ヌ・」・・ッ・ネ・ーハイシ、ャペ、キ、、サ、ホ、ソ、皃ヒ。「
alias wgetports 'wget --proxy=on --force-directories
--no-host-directories --directory-prefix=. --cut-dirs=4
--passive-ftp --recursive --level=1
ftp://hogehoge/path/to/ports/\!*'
、.cshrc、ヒス、、、ニ、゙、ケ。」シツコン、マ1ケヤ、ヌ、ケ。」。ハコニス、ュ、゙、キ、ソ。ヒ
、ウ、、ヌ。「~/ports、ネ、ォ、ヌ。「wgetports shells/tcsh、ネ、ォ、キ、゙、ケ。」
、「、゙、熙ウ、ホ・ケ・(。ヨ」ネイ霖。ラ)、ネエリキク、ハ、、、ホ、ォ、ハ。ゥ
- 124 :名無しさん@お腹いっぱい。 :2001/05/18(金) 11:35
- >>122
wgetで--no-parentを指定すれ。
- 125 :名無しさん@お腹いっぱい。 :2001/05/19(土) 15:08
- 象を一気にダウンロード
- 126 :名無しさん@お腹いっぱい。 :2001/05/20(日) 13:19
- 面倒くさいので
wget -r http://www.ero.com なんですけど・・・
56kでも2,3時間ほっとけばそれなりおちてくるし
- 127 :名無しさん@お腹いっぱい。 :2001/05/20(日) 20:02
- >>126
ちったー、設定しろ
- 128 :名無しさん@お腹いっぱい。 :2001/05/26(土) 05:10
- age
- 129 :名無しさん@お腹いっぱい。 :2001/06/15(金) 16:24
- 最近、どうよ。
- 130 :名無しさん@お腹いっぱい。 :2001/07/03(火) 01:35
- ICHでH画像全部消えた。
まあ、俺の心の中にバッファされてるが。
- 131 :名無しさん@お腹いっぱい。 :2001/07/03(火) 04:31
- ageないの?
- 132 :名無しさん@そうだドライブへ行こう :2001/07/03(火) 04:48
- perl の magical increment をつかえ。
- 133 :厨房 :2001/07/03(火) 10:40
- #!/bin/sh
b=10
c=1
d=Z
while test $b -lt 21
do
wget http://210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/0$b.j
pg
b=`expr $b + 1`
done
while test $c -lt 10
do
wget http://210.188.252.22/%7Ezenigata/lsrNpie/seifuku3/seifuku3$d/00$c.
jpg
c=`expr $c + 1`
done
- 134 :名無しさん@お腹いっぱい。 :2001/07/05(木) 13:55
- つーか、特定のリンクサイトのリンク先の画像を一気に取って来る方法で、
かつ、余分な画像をはじく意味でも、サイズがある一定サイズ以上のもの
を取って来て、なおかつ、連番で保存ってどおよ。
- 135 :名無しさん@お腹いっぱい。 :2001/07/06(金) 21:31
- wgetを使ってこのようにCGIでファイルがリンクされている場合はどうすればいいのでしょうか?
http://www.classicalarchives.com/bach.html
上のサイト、クラシックのMidiが作曲者ごとにたくさんあって好き。
- 136 :名無しさん@お腹いっぱい。 :2001/07/07(土) 19:28
- なんかwget1.7ってmakeが失敗するんだけどなんでかな。
ていうかgnuのサイトからとってきたソース、gzipがエラー吐く・・・。
おとなしく1.6を使ってろ、ってことかな。
- 137 :名無しさん@Emacs :2001/07/08(日) 00:49
- wget1.7おれはmake出来たよ
でも-kオプションってうまく働いてない気がする.
ついでにSSLもうまくいかん.
- 138 :名無しさん@お腹いっぱい。 :2001/07/10(火) 00:48
- とりあえずこの話題に関しては
まずこのサイトを見ないと始まらないと
思われ。
ツールもそろってるし
http://members.tripod.co.jp/casinoA1/
- 139 :名無しさん@お腹いっぱい。 :2001/08/21(火) 12:32
- age
- 140 :名無しさん@お腹いっぱい。 :2001/08/22(水) 02:14
- bashでときどき
for i in `seq -w 0 52`; do wget http://..../aaa$i.jpg; done
とか
while read i; do wget $i; done
とかやるね。後者はMozillaからURLコピーしまくる。
こういう感じの使い捨てスクリプト書いてたけど
あんまり使わなかった。標準入力からURLを入力するだけで
000〜そのURLの番号まで全取得してくれるはずなんだけど。
#!/bin/bash
while read url; do
if [ -z "$url" ]; then next; fi
eval 'url=(' `echo $url|sed 's/\(.*\/[^0-9]*\)\([0-9]*\).jpg/\1 \2/'` ')'
for i in `seq -w 0 ${url[1]}`; do
wget ${url[0]}$i.jpg
done
done
GNU/Linuxシステムじゃないと動かんカモ。
- 141 :名無しさん@お腹いっぱい。 :2001/08/22(水) 12:34
集めたあとの整理はどうしてるよ?
wgetとかでとってくると
www9.smutserver.com/teen/sex1000/tgp/*.jpg
のようにディレクトリが深くていやーん。
どうでもいいけど。
- 142 :名無しさん@お腹いっぱい。 :2001/08/23(木) 04:24
- $ find . -type f -name \*.jpg -exec mv {} . \;
$ rm -r */
とでもしてカレントディレクトリに移せば?
- 143 :名無しさん@お腹いっぱい。 :2001/08/23(木) 05:28
- >>141
-nd つかえば?
-nHでも一つ減る。
- 144 :名無しさん@お腹いっぱい。 :2001/08/23(木) 10:01
- ネタはくだらないくせに妙に為になるよ、このスレ(藁
- 145 :名無しさん@お腹いっぱい。 :2001/08/23(木) 13:45
- >>141
俺は URL そのままにしてるよ。
利点は
* 連番系をあとで補間できる
* サイトを割り出せる
* 2ch で紹介しやすい :-)
* そもそもユニークなファイル名を付けるのが面倒
- 146 :名無しさん@お腹いっぱい。 :2001/08/23(木) 15:16
- $ mkdir symlinks
$ find . -type f -name \*.jpg -exec ln -sf {} symlinks \;
これはどーだ?
- 147 :sage :2001/08/23(木) 15:42
- sage
- 148 :名無しさん@お腹いっぱい。 :2001/08/23(木) 16:33
- おなにーするときはどうするんですか?
find . -name '*.jpg' | xargs xv -wait 2 -random
でいいですか? (藁
- 149 :名無しさん@お腹いっぱい。 :2001/08/23(木) 17:00
- >>148
こーいうときに威力を発揮するのが仮想画面だったりするのよね.
1 画面に 5 〜 6 枚, 数画面に渡り表示しておき, 画面切り替え.
1600x1200 いいぜ :D
# スレ的には失格なネタ
- 150 :名無しさん@お腹いっぱい。 :2001/08/23(木) 17:13
- 俺はGQviewがお気に入り。
サムネイル画像を表示させておき、
最後は全画面表示にして逝く
下品でスマソ
- 151 :名無しさん@お腹いっぱい。 :2001/08/24(金) 02:14
- tarやzipを読めるviewerってない?
微妙にスレ違いだが、inode消費が気になる....
- 152 :名無しさん@お腹いっぱい。 :2001/08/24(金) 03:07
- キーボードで楽に使える viewer ないかな。
ノートPCなのでほとんどキーボードでやってるんだが、
画像表示だけは GQview で仕方なくトラックボールを
しこしこやってる。
- 153 :名無しさん@お腹いっぱい。 :2001/08/24(金) 03:17
- >>151
こんなのはいかが?
http://enfle.fennel.org/
- 154 :名無しさん@お腹いっぱい。 :2001/08/24(金) 03:53
- >>153
Susie Plug-in にも対応してるんですね
(・∀・)イイ!
- 155 :名無しさん@お腹いっぱい。 :2001/08/24(金) 23:39
- >>152
いまだに xv を愛用しています。快適。
- 156 :名無しさん@お腹いっぱい。 :2001/08/25(土) 00:14
- >>141
> 集めたあとの整理はどうしてるよ?
種類ごとにディレクトリほって、symlink してる。
めんどうだけど。
画像見ながら分類したいな。
なんかいいツールない?
Nautilus か?
- 157 :152 :2001/08/25(土) 01:51
- >>155
おーサンキュ。xv ってキーボードで操作できるんだ。
non-free だから今まで敬遠してたけど、使ってみよう。
- 158 :名無しさん@お腹いっぱい。 :2001/08/25(土) 02:24
- >>157
最初はキーボードの操作を覚えるのがちょっと大変かもしれん。
最近は良い時代になって、FLMask パッチを使う必要がほとんどなくなった。
- 159 :名無しさん@お腹いっぱい。 :2001/08/25(土) 04:44
- >>158
FLMaskパッチに感動したのも懐かしいなあ。
今はもう動画ばっかりだ。
関係ないけど「璃樹無」分割って単なるsplitだったんだね。
気づく前はこれだけのためにWIN立ち上げてたYO。
- 160 :名無しさん@お腹いっぱい。 :2001/08/25(土) 10:11
- どこだったか忘れたけど、サムネール画像上のマウスの位置を送らないと見られないサイトがあって、
HTTPでPOSTリクエストしてデータを取得するPerlスクリプトを書いたこともあったなぁ。
今では、うちに背景画像配信サーバーが立っていたりする…
- 161 :名無しさん@お腹いっぱい。 :2001/08/25(土) 11:45
- 例えば、
ttp://www.xxx81.com/jp
にリンクされている、rmファイルを一気にすべてダウンロード
するなんてperlなどで出来るの化な?
- 162 :tori :2001/08/25(土) 12:02
- internet -router - solaris (proxy でfire Wall) - クラスCの事業所セグメント
現在事業所の計算機をグローバルアドレスにするには、Router
使っています。このNATをルーターでは無く、Solaris で行うには
どうすればいいでしょうか?
- 163 :名無しさん@お腹いっぱい。 :2001/08/25(土) 12:07
- >>162
H画像を落とすためにか?
- 164 :名無しさん@お腹いっぱい。 :2001/08/25(土) 13:00
- >>161
そのページに14個のサンプルがあるけど、そのこと?
それなら、何も考えなくても、どんな方法でも簡単に落とせるように見えるけど。
- 165 :名無しさん@Emacs :2001/08/25(土) 13:06
- >>161
htmlからリンク先を抽出したいということですか?
- 166 :名無しさん@お腹いっぱい。 :2001/08/25(土) 13:13
- q , ,
q /( )`
q \ \___ / |
q /- _ `-/ '
q (/\/ \ \ /\
q / / | ` \
q O O ) / |
q `-^--'`< '
q (_.) _ ) /
q `.___/` /
q `-----' /
q <----. __ / __ \
q <----|====O)))==) \) /====
q <----' `--' `.__,' \
q | |
q \ / /\
q ______( (_ / \______/
q ,' ,-----' |
q `--{__________)
q
- 167 :名無しさん@お腹いっぱい。 :2001/08/25(土) 13:14
- .................,........,
................/(........)`
................\.\___.../.|
.............../-._..`-/..'
..............(/\/.\.\.../\
.............././...|.`....\
..............O.O...)./....|
..............`-^--'`<.....'
.............(_.).._..).../
...............`.___/`..../
................`-----'./
...<----......__./.__...\
...<----|====O)))==).\)./====
...<----'....`--'.`.__,'.\
................|........|
.................\......./......./\
............______(.(_../.\______/
.........,'..,-----'...|
.........`--{__________)
- 168 :名無しさん@お腹いっぱい。 :2001/08/25(土) 13:15
- ...................................................,........................,
................................................/(........................)`
................................................\...\___........./...|
............................................./-..._......`-/......'
..........................................(/\/...\...\........./\
........................................../.../.........|...`............\
..........................................O...O.........).../............|
..........................................`-^--'`<...............'
.......................................(_...)......_......)........./
.............................................`...___/`............/
................................................`-----'.../
.........<----..................__.../...__.........\
.........<----|====O)))==)...\).../====
.........<----'............`--'...`...__,'...\
................................................|........................|
...................................................\...................../...................../\
....................................______(...(_....../...\______/
...........................,'......,-----'.........|
...........................`--{__________)
- 169 :名無しさん@お腹いっぱい。 :2001/08/25(土) 14:32
- モナーフォント無しで見られる親切設計だ。
NetBSD デーモンかな?
- 170 :名無しさん@お腹いっぱい。 :2001/08/26(日) 00:58
- 00000000000000000000000
- 171 :161 :2001/08/26(日) 01:07
- >165
その通りです。
インターネットNinja(Window)らしき事を
Unix系OS上(特にperl)で実現したいのです。
可能でしょうか。
>162
あなた、
Solaris教えてスレッド 其の弐 (826)
の方へ書き込んだつもりでしょう。
私もその失敗、経験済みです。
- 172 :名無しさん@お腹いっぱい。 :2001/08/26(日) 01:14
- >>171
Perlとかを使えば、HTMLファイルからURLを抽出するのは単なる文字列の抽出なので、
慣れれば簡単にできますよ。この機会に正規表現とか覚えるのもいいかも。
- 173 :名無しさん@お腹いっぱい。 :2001/08/26(日) 01:23
- grep して sed >> list して (これを何回かやって) wget -i list
- 174 :173 :2001/08/26(日) 01:24
- ガガーソ。こんな書き込みでスレをageてしまうなんて初めての経験だ…
- 175 :普段は エロ系 :2001/08/26(日) 01:32
- 凄い! 2ちゃん の危機で UNIX初めて覗いたけど なんか凄い
で PGF 一応全タイトルと WAVファイル持ってます
1さん
でも 簡単に 入手するより きっと 過程が楽しいのでしょうね
皆様 凄いわ!
- 176 :名無しさん@お腹いっぱい。 :2001/08/26(日) 01:44
- 過程なんか楽しくねーよ。
- 177 :名無しさん@お腹いっぱい。 :2001/08/26(日) 01:51
- 過程 "も" 楽しい。
- 178 :普段は エロ系 :2001/08/26(日) 01:53
- あ そうなの(^^;;
- 179 :名無しさん@お腹いっぱい。 :2001/08/26(5) 29:00
- 「インターネットニンジャじや、一発じゃ。」
と無粋な流れを無視したコメントを残しておく。
(そして反発を買う。) ワクワク・・・・うふ。
ラブ。
- 180 :では反発 :2001/08/26(5) 31:00
- sed で複数 html からリスト作って wget で取得の方が遥かに早いです
- 181 :180 :2001/08/26(5) 32:00
- ていうか、書き込み時刻がめちゃくちゃだな
- 182 :名無しさん@お腹いっぱい。 :2001/08/26(5) 34:00
- こここれは??
- 183 :名無しさん@お腹いっぱい。 :2001/08/26(5) 34:00
- 32:00って_________?
- 184 :test :2001/08/26(5) 43:00
- test
- 185 :名無しさん@お腹いっぱい。 :2001/08/26(5) 44:00
- やっぱおかしいな
- 186 :名無しさん@お腹いっぱい。 :2001/08/26 06:02
- だめ?
- 187 :名無しさん@Emacs :01/08/26 09:17
- test
- 188 :名無しさん@Emacs :01/08/26 09:18
- 自治age
- 189 :名無しさん@お腹いっぱい。 :01/08/26 11:59
- 27 名前:名無しさん(新規) 投稿日:2001/08/26(日) 11:56 ID:9kvbOGiQ
◎
┣−-┓
|AGE|
┣−-┛
|
|
Λ|Λ
(・∀・)イイ!
( )
| つ |
(__)_)
続きを読む
掲示板に戻る 全部 前100 次100 最新50read.cgi ver5.26+ (01/10/21-)