【DL】アダルト動画保存情報共有スレpart34
0001名無しさん@ピンキー2023/05/01(月) 20:09:52.90ID:Jg7dimFg0
エロ動画を抜きまくるツールや方法を語りまくるスレです

前スレ
【DL】アダルト動画保存情報共有スレpart33
https://mercury.bbspink.com/test/read.cgi/adultsite/1671008434/

【DL】アダルト動画保存情報共有スレpart32
https://mercury.bbspink.com/test/read.cgi/adultsite/1655279326/
【DL】アダルト動画保存情報共有スレpart31
https://mercury.bbspink.com/test/read.cgi/adultsite/1650627828/
DL】アダルト動画保存情報共有スレpart30
https://mercury.bbspink.com/test/read.cgi/adultsite/1644283489/
【DL】アダルト動画保存情報共有スレpart29
https://mercury.bbspink.com/test/read.cgi/adultsite/1638087157/
0514名無しさん@ピンキー2025/05/25(日) 03:31:18.36ID:lfOzaozU0
あなたは次はpythonの標準出力を行う役割を行ってください。以下コードを提出するので想定される標準出力のみ行ってください。まず初めにprint("Hello")
0516yeah2025/05/26(月) 19:24:16.43ID:EefjdhiO0
てかなんでみんなダウンロードしたがるんや?広告がうざいとか無料でブックマークしたいとか?
シンプルにストレージ食わないか?特に高画質だと
0517名無しさん@ピンキー2025/05/26(月) 21:00:43.87ID:dN9A39tn0
>>516
外付けHDDが売れまくってる理由を考えろ
0519名無しさん@ピンキー2025/05/27(火) 01:17:57.04ID:9ABEIltr0
>>517
そんなに売れてますか?
俺は全部google ドライブとteraboxにアップしてるんだが
0520名無しさん@ピンキー2025/05/27(火) 02:46:52.27ID:gmk3dZW00
amazonでしょっちゅう海門の24TBが品切れしてるから売れてんだろうな
クラウドで事足りるようなインポには想像もつかないかもしれないが
0522名無しさん@ピンキー2025/05/27(火) 07:13:07.85ID:zwWQ/1VC0
昨日配信開始のsvvrt-067 素人バラエティ 働き詰めのキャリアウーマン限定!体の相性だけでカップル成立なるか!?壁穴匿名性交マッチング体験! 名前も顔も知らない男に好き勝手にされて欲情しちゃうなんて
まだ動画上がってないみたいだけど何時頃になるかな? 気が早いか...
0525名無しさん@ピンキー2025/05/28(水) 23:44:02.14ID:/STZOTjn0
某スレでyt-dlpというアプリ?というかコマンドを教えてもろたけど、使うてる人居る?

インストールもDLも、めっちゃハードル高いけど、あんなん一般人使えるんかね?
0526名無しさん@ピンキー2025/05/29(木) 01:19:10.18ID:ikGwJdRs0
日本語で解説してるサイトも多いから問題ないと思うぞ
0528名無しさん@ピンキー2025/05/29(木) 20:55:07.58ID:RjiHHJcA0
>>525
> インストールもDLも、めっちゃハードル高い

なんでだよ?
DLして解凍してパス通すだけだろ
0529名無しさん@ピンキー2025/05/29(木) 21:26:04.07ID:VRfJiil70
>>516
セルフでAIリマスターや無にしたり
DEEPFAKEしたり
PMVつくったり
音声切り取ってボイスチェンジャーで知り合いの声に変換したり
声差し替えできるエロゲで再利用したり
VRヘッドセットで画面スプリットして複数画面一斉にav展開したり
0530名無しさん@ピンキー2025/05/29(木) 23:09:40.23ID:2rI3z4m10
今の豊胸はググったらマジですげー技術でこれはだまされるわと思った
男が偽デカチンつけてるようなもんでそこまでするかって感じだけどw
0532hey2025/05/30(金) 04:22:20.82ID:o9xaL6kH0
コレクター魂に俺のダウンロード方法はお眼鏡にかかる気がするんだが、、、
このスクリプトはダウンロード元を分析してsubprocessでffmpegするやつなんだがかなりハイスピードでできるぞ!
0533hey2025/05/30(金) 04:24:22.64ID:o9xaL6kH0
yt-dlpニキはmacOSならbrew, windowsならscoop, linuxならaptを利用するとダウンロードは簡単だぞ
brew(scoop/ sudo apt) install pkg(yt-dlp, python, npm)みたいに基本的なコマンドはこれで全部取得できるよん
0534hey2025/05/30(金) 04:27:24.37ID:o9xaL6kH0
まあ、バレンと思うから書き込むか、

pythonとffmpegはダウンロードしてくれ。あと、bs4とrequestsもよろしく(pythonのmoduleはpip install <pkg>でいけるぞ!あと、場合によっては(特にwindowsの場合)subprocessもpipする必要あるわ)

あとその上で以下のスクリプトを実行するんやで
0535hey2025/05/30(金) 04:29:25.68ID:0teIrzgL0
あとはbrowsercookieだわ
0536hey2025/05/30(金) 04:29:55.96ID:o9xaL6kH0
import re
import random
import time
import sys
import requests as req

import browsercookie
from urllib.parse import urljoin, urlunparse
import subprocess

from bs4 import BeautifulSoup
0537hey2025/05/30(金) 04:30:13.46ID:o9xaL6kH0
HEADERS = {"User-Agent":"Mozilla/4.7 (Macintosh; Intel Mac OS X 10.13; rv:134.0) Gecko/20100101 Firefox/132.0"}
JSON_FILE = "./file.json"
DQ = '"'

URL_PARTS = {
"scheme": "https",
"domain": "surrit.com",
}
SOURCE_URL = "https://surrit.com/";

TARGET_DOMAIN = "missav.ws"
0538hey2025/05/30(金) 04:31:15.34ID:o9xaL6kH0
def get_cookies():
print("getting cookies")
return {c.name: c.value for c in browsercookie.firefox() if c.domain == TARGET_DOMAIN or c.domain == "." + TARGET_DOMAIN}

COOKIES = get_cookies()
print(COOKIES)
0539hey2025/05/30(金) 04:31:36.32ID:o9xaL6kH0
def return_playlist_filepath(sequence):
path = f"{sequence}/playlist.m3u8"
url = urlunparse((
URL_PARTS["scheme"],
URL_PARTS["domain"],
path,
"",
"",
""
))

return url
0540hey2025/05/30(金) 04:31:59.91ID:o9xaL6kH0
def get_page(url):
try:
res = req.get(url, headers=HEADERS, cookies=COOKIES)
if res.status_code == 200:
return res.text
else:
print(f"{res.status_code}:{url}\n couldn't get appropriate page")
return ""

except Exception as e:
print(f"{e}: couldn't get appropriate page")
return ""
0541hey2025/05/30(金) 04:32:52.59ID:o9xaL6kH0
def page_parse(soup):
scripts = soup.find_all("script")
target = [script for script in scripts if "isPublish" in script.text]
seq = re.findall(r"https:\\/\\/nineyu\.com\\/([\w\d-]*)\\", target[0].text)[0]

return seq
0542hey2025/05/30(金) 04:36:25.74ID:o9xaL6kH0
def download(m3u8_url, output_file):
cmd = ["ffmpeg", "-i", m3u8_url, "-c", "copy", output_file]
print("downloading")
subprocess.run(cmd)
print(f"done: {m3u8_url}")
0543hey2025/05/30(金) 04:42:34.62ID:o9xaL6kH0
def return_m3u8_filepath(sequence, img_quality="360p"):
path = f"{sequence}/{img_quality}/video.m3u8"
url = urlunparse((
URL_PARTS["scheme"],
URL_PARTS["domain"],
path,
"",
"",
""
))

return url
0544hey2025/05/30(金) 04:44:55.84ID:o9xaL6kH0
def main():
url = sys.argv[1]
output_file = sys.argv[2]

text = get_page(url)
while text == "":
print("waiting")
time.sleep(5 + random.random() * 10)
text = get_page(url)
soup = BeautifulSoup(text, "html.parser")
seq = page_parse(soup)
title = soup.find("title").text
playlist = get_page(return_playlist_filepath(seq))
files = [row for row in playlist.split("\n") if re.match(r".*video.m3u8", row)]
0545hey2025/05/30(金) 04:45:19.39ID:o9xaL6kH0
if files != []:
qualities = [re.search(r"(.*)/video.m3u8", file)[1] for file in files]
for i, quality in enumerate(qualities):
print(i, quality)
down_i = input("which one?")
m3u8_file = return_m3u8_filepath(seq, qualities[int(which_i)])
download(m3u8_file, output_file)


if __name__ == "__main__":
main()
0546hey2025/05/30(金) 04:46:12.71ID:o9xaL6kH0
改行とタブが崩れたからあとはAIに聞くなりして上手くタブを直してくれや
まあ、紳士諸君の検討を祈ろう
0548名無しさん@ピンキー2025/05/31(土) 20:22:53.87ID:MYjUJGvo0
今日初めて課金すると高速ダウンロードできるっていう
サービス試したんだけど
無法地帯になってるな
ミスavやパンコレどころじゃないわ
0549名無しさん@ピンキー2025/06/01(日) 00:47:28.91ID:cJwLei6C0
20年ぶりの技術的大転換点となる2025年のHDD

 2025年、HDDに大きな技術転換が起きたことはご存じだろうか。約20年前の2004年にHDDで垂直磁気記録方式が採用され、さらなる大容量化が実現された。
以降も記録メディアを高密度し、記録できる容量を増やしてきたが、それに伴い隣接するトラック間の狭さの影響が大きくなり、データ化けするリスクが高まってしまった。
つまり、これまでのメディアを使っての大容量化に限界が見えてきたのだ。

 それを突破するために生まれたのが「HAMR(熱アシスト磁気記録)」だ。簡単に説明すると高密度化してもトラック間の影響が起きにくい素材、裏を返せば“通常の方法ではデータを書き込めないメディア”を用いつつ記録を行なえるようにする技術である。

 現在Seagateでは「Mozaic 3+」と呼ばれるHAMR方式の独自技術を展開。36TBまでの容量を実現しているが、50TBまでは開発の目処が立っているという。
0550名無しさん@ピンキー2025/06/01(日) 10:02:13.13ID:aPhjneSj0
>>549

それ、東芝も開発したって記事読みました。
SSDも50TBで2万円ぐらいにならないかなぁ
0551名無しさん@ピンキー2025/06/01(日) 16:09:07.79ID:fnljO5Gf0
HDD8TBでも2万超えて無いか?

8TBでも4台使って容量カツカツやし、全部コピーするのに1日はかかるし、容量増えて台数減らせるのはエエけど、管理するのも大変になってきたな
0553名無しさん@ピンキー2025/06/03(火) 01:31:29.16ID:BkkvfzDo0
落とした動画は全部エンコードし直してる
500kくらいでも十分見られる
0555名無しさん@ピンキー2025/06/03(火) 07:51:42.22ID:YeU/DrM50
>>553
温泉・プールものの水面がユラユラチャプチャプしてるシーンとか
大人数乱交もので画面がワチャワチャしてるシーンで
ブロックノイズだらけになりそうだね
0559名無しさん@ピンキー2025/06/07(土) 22:21:19.18ID:kgIgcPS90
ビットレート落としたら情報量減るのは繊細な部分から
ブロックノイズは劣化するにしても最後だよ
0560名無しさん@ピンキー2025/06/12(木) 07:07:38.26ID:1No8rL/i0
トリミングにビットレート落とし、削除と常に整理を心掛けてるが、効果は少ないな
やはりコレクターに外付けHDDは必須か...
0561名無しさん@ピンキー2025/06/13(金) 21:43:08.16ID:oF42HBNz0
エイチデーデー増やさずに
削除で対応してるけど同じの最多で4回DLし直してる
0563名無しさん@ピンキー2025/06/15(日) 12:43:48.29ID:OgbvEf+30
StreamHG、Downloads disabled 620でDLできないんだが
0564名無しさん@ピンキー2025/06/19(木) 11:41:09.45ID:siityJwq0
fantubeの動画ってダウンロードできますか?
できた方いたらやり方教えてください
レスを投稿する


ニューススポーツなんでも実況