HyperNewsReader FAQ
Last Update: 2015/02/20
リンク
ニュース全般
おすすめニュースサーバ
HyperNewsReaderの使い方
便利なツール
不具合対策
リンク
/~sukonbu/sukonbu/hnr/
/~sukonbu/cgi-bin/hnrbbs/yybbs.cgi
ニュース全般
ネットニュースというのは基本的には2chと同じような掲示板システムです 。
それこそ2chのように細分化されたカテゴリ内で雑談、質問、回答などの投稿がされています。
国ごとにカテゴリが分かれていたりしますが、特に投稿や閲覧に関して国別規制があるわけではありません。
2chと少し違うのは、
(1)世界中にサーバが設置されていて、ひとつのサーバに投稿されると、リレー形式で他のサーバにも届く。
(2)バイナリデータの投稿が簡単にできる。
ということです。(他にもありますがここで重要なのはこの2点くらい)
これが何を意味するかというと、合法ではないかもしれない(^_^;データが楽々入手できるということです。
同じことがWebからダウンロードすることでも可能ではありますが、
a)ネットニュースはカテゴリが細分化されているので、個人の嗜好に合ったデータを集めやすい。
b)Webで入手しにくい巨大なデータ(市販かもしれない(^_^;DVDとか)が多数投稿されている。
という大きな違いがあり、特に長時間の動画を入手したいと思ったらネットニュースの方が格段に効率がいいです。
(日本でしか流通していない動画等は投稿される確率が低いので、別の方法を使って探す方が効率的です)
このネットニュースに投稿されたバイナリデータを入手するのに、HyperNewsReaderは絶大な威力を発揮します。
データを修復するためのパリティファイルです。
MultiParというアプリを使って、壊れたデータを修復したり、不足している分割ファイルを 作り出したり!
することができます。
QuickParというのが標準ツールですが、MultiParはこれの改良版で、QuickParと同様に 使うことができ、
Win7にも正式対応しています。
また、MultiParはコマンドラインで動くpar1j.exe,par2j.exeを含んでいるので、これを ExecSで実行したり
バッチファイルに組み込んだりすることが可能です。
ニュースのデータは一部が壊れていたり、分割ファイルが全部揃わなかったりということが 頻繁に発生しますが、
par2ファイルを使うことでその大部分を補完することができます。
ネットニュースに生きるものにとっては神に等しい存在といっても過言ではありません。(^_^;
詳しくは、quickparとかmultiparでネット検索して勉強してみてください。
多分、バイナリ分割されたファイルです。
ネットニュースのサーバでは記事あたりの最大サイズ制限のある場合がほとんどなので、巨大なファイルは
分割して 投稿するのが普通です。
その分割手法のひとつがバイナリ分割です。
このタイプのファイルを復元するにはDOSプロンプトでバイナリ結合すればいいのですが、いろいろ面倒なことが
あるので 結合ツールなどを使って復元するのが一般的でしょう。
(1)結合用のバッチファイルが用意されている場合
分割されたファイルの他に"bat"という拡張子のファイルがあったら、多分それは結合用のバッチファイルです。
ダブルクリックして実行すれば自動的にファイル結合が行われます。
ただ、結合用バッチファイルに見せかけたウィルスかもしれないので、一応中を確認した方がいいかもしれません。
(2)QuickParで自動結合されるようになっている場合
QuickParは本来ファイル修復用のツールですが、これを使ってファイル結合を自動的に実行できるようにした
ファイルが 時々投稿されます。
この場合はpar2ファイルをダブルクリックすればファイル検査ののち自動的に結合が行われます。
QuickParの代わりにMultiParがインストールされている場合でも同様です。
(3)バイナリ結合ツールを使う場合
(1),(2)で結合できない場合は結合ツールを使います。
いろいろなツールがあるので好きなものを使えばいいのですが、酢こんぶのおすすめは、Brawny Lads Joinerです。
このツールは外国産なので、どうしても日本産がよい場合は、Vectorとかで探してみてください。
またネットニュースからダウンロードできる大半のバイナリ分割ファイルは、酢こんぶ作のExecSでも簡単に結合する
ことができます。
すいません、酢こんぶもよく知らないのですが、調査した限りでは以下のようなものらしいです。
(1)newzBinが開発したXML言語をベースにした分割ファイルの情報ファイルである。
(2)分割投稿されたファイルをあちこちのサーバから自動収集することができる?
(3)NewsBinPro、NewsLeecher等のニュースリーダがこのファイルに対応している。
(4)投稿ファイルのWeb検索も可能。
(2)は未確認なので"?"にしてあります。
(2)のようなことができると場合によっては便利ですねえ。ただほとんど抜けのないサーバを使っている場合は
関係ないような、、、。
とりあえずNewsBinProでnzbファイルを使ってみましたが、DVD等の分割数が一万を超えるようなファイルを
ダウンロードするとか ダウンロードしなおすというような場合はそれなりに便利です。
また(4)に関しては以下のサイトで検索可能です。
http://www.binsearch.info/
ここはネットニュースに投稿されたファイルを検索し、見つかったデータベースからnzbファイルを作ることができる
ので、nzb対応の ニュースリーダさえあれば、簡単にファイルの再取得が可能です。
少し前にダウンロードしたものを再度ダウンロードしたいけど、nzbファイルはないし記事を再取得するのも
面倒だというような場合や 特定のキーワードで投稿ファイルを探したい場合は非常に便利です。
ダウンロードした、プロテクトのかかっていないDVDに関して、DVD-RAM片面に入るように圧縮する手法を
紹介します。
ここでは概要のみ説明しますので、詳細に関しては自分で調べるか掲示板で質問してください。
(1)DVD Shrinkを使う。
これで済む場合は簡単です。
DVD-RAM片面に収めたい場合は、圧縮後のサイズを4360MBくらいにします。
二ヶ国語の場合、必要ない言語を削除すると圧縮しなくて済む場合もよくあります。
元が片面2層のDVDだったりすると、圧縮後のサイズが半分近くになることも珍しくありませんので、画質に
期待はできません。
この場合はメニューの圧縮率を最大にしたり、DVDの宣伝などを静止画にしたりして本編の圧縮率を下げる
ようにします。
(2)DVD Shrinkを2回使う。
元が大きすぎると圧縮しても4360MB以下にならないことがあります。このような場合は一度HDDに圧縮して
書き出した後、もう一度圧縮すると一応なんとかなります。
当然画質には期待できませんが、1回目は本編無圧縮で他を最大圧縮、2回目に普通に圧縮というように
すると、本編の圧縮率を下げることができます。
酢こんぶは本編のみの洋物エロDVDを2回圧縮したことがありますが、画質なんて関係ないと割り切ったつもり
だったのに、その画質には納得いかなかったので2回圧縮はおすすめしません。
(3)TitleSetBlankerを使う。
DVD Shrinkでエラーになったり、より高画質で圧縮したい場合はTitleSetBlankerを使います。
TitleSetBlankerは圧縮こそできませんが、DVD ShrinkにはできないWarning画面やCM部分の削除、本編と
特典の分離などが可能です。
またVTS単位でダミーに置き換えるということをするのでほとんど時間がかからず、元に戻すのも簡単というのが
大きなメリットです。
TitleSetBlankerで不要部分を削除->DVD Shrinkで圧縮
とすれば、圧縮率を低く抑えることができます。
現在公式ページではダウンロードできないようですが、2006.10.24時点で以下の場所からダウンロード可能です。
http://www.videohelp.com/tools?tool=TitleSet_Blanker
但し、TitleSetBlankerで処理してからDVD Shrinkで読み込もうとすると、たまにエラーになる場合があるのと
元がISO形式の場合は一旦HDDに展開する必要があるので、次に説明するVobBlankerの方が確実かも
しれません。
(4)VobBlankerを使う。
VobBlankerの機能はTitleSetBlankerに非常によく似ていて、一部の映像を完全に削除することができます。
TitleSetBlankerに対するメリットは、より細かい単位での編集ができることですが、構造を再構築するために
かなり時間がかかるというデメリットもあります。
VobBlankerで不要部分を削除->DVD Shrinkで圧縮
とすれば、圧縮率を低く抑えることができますが時間がかかるので私はあまりしません。(^_^;
ここでは基本的な使い方はマスターしているという前提で、圧縮が困難な場合の回避策を紹介します。
a)IFOを読み込むと、ファイルがないといわれます。
投稿者が適当に特典映像などのファイルを削除した結果だと思われます。
ファイルさえあれば何とかなる場合が多いので、ないといわれたファイルと同じ名前のファイルを用意します。
このファイルは拡張子が同じ他のファイルをコピーすると確実でしょう。
この状態で一度読み込んで、追加したファイルの部分をSkipし、さらに必要ない言語や特典などを削って
4360MBに収めます。
b)マルチアングルに対応していないといわれます。
VobBlankerはマルチアングルに対応していませんので、無理やり実行しても二つのアングルの映像が交互に
表示されるというDVDができるだけです。
では、DVD ShrinkでエラーとなるマルチアングルのDVDは圧縮できないかというと、条件によっては可能です。
それは、残るのがひとつのアングルだけで構わないという場合です。
どうしてもマルチアングルが必要な時はどうしようもありませんが、海外版の日本アニメなどはスタッフロールを
英語と日本語で切り替えるためにマルチアングルを使っていたりしますから、どちらかに統一されるのは特に
問題ないでしょう。この場合ダブっている部分が削られるので、画質は落ちずにサイズだけ小さくなります。
また、DVDが2枚以上になってもいいならアングル毎にDVDを作ることもできます。
具体的な方法として、最新版の2.1.1.0に同梱されているアングルをカットするツールを使います。
これを使った後VobBlankerで読み込むと、マルチアングルに対応していないからその部分をSkipするという旨の
表示が出ますが、Skipになった部分をProcessに戻して実行すればアングルはひとつになっています。
どのアングルが必要かはDVDプレーヤの情報表示で確認してください。
但しアングルカットとその他の作業(不要音声カット等)を同時に行うとアングルカットがうまくいかないようなので
アングルカットの時はそれ以外の作業はしないようにするのが無難です。
マルチアングルを削除する方法としてはこの他にPgcEditでDelAngleした後にVobBlankerを通すという方法が
あって、こちらの方がより正しい結果が得られるという話もありますが、一度やってみたら変なエラーが出たので、
それ以降はやってません。(^_^;
(5)IFO Editを使う。
私はやったことがありませんが、(3)-a),(3)-b)のような場合、IFOを書き換えて整合を取ればDVD Shrinkでの
エラーを回避することができると思われます。この場合IFO Editを使います。
IFOの構造について熟知していないと使えないので、少し敷居が高いです。
世の中にはニュースからバイナリを取り出すことに特化したニュースリーダがたくさんあって、それぞれに特徴が
ありますが、 自動巡回機能とフォルダ自動振り分け機能が必須である酢こんぶにとって、HNRに代わる
リーダはありません。
ただHNRではどうしても効率が悪くなる場合があるのと機能アップの見込みがほぼない現状では、他のリーダを
使いたく なる場合もあります。
この項では酢こんぶが使ったことのあるHNR以外のリーダについて紹介します。
(1)NewsBin Pro(有料:$35,Giganewsユーザは$25)
nzbが使えるのでDVD等の分割数が非常に多いものを落とすときにはかなり楽でダウンロードスピードも
速いです。
但し記事番号を指定しての記事一覧取得ができないのが難点です。自動振り分けはできますが自動
巡回はできません。
Giganews Acceleratorがリリースされてからは、記事一覧の取得スピードが10倍になったので多分最速
です。 ダウンロードしたrarファイルを自動でデコードしてくれる機能も非常に便利です。
(2)Xnews(無料)
複数コネクションができないのでダウンロードスピードは遅いですが、記事一覧の取得は速いです。自動
巡回と 自動振り分けはできません。
ということで酢こんぶは、HNRではうまく落とせないものについて、NewsBinで記事一覧を取得してダウンロード
という ようにしています。以前はXnewsも使っていましたが、NewsBinで記事一覧取得が速くなってからは
NewsBinだけに なりました。
XnewsとNewsBinはデコード途中でエラーを検出してもストップせず、デコードできるところだけ出力してくれる
ので、HNRのようにあとから手動でデコードしなおす必要がないのも便利です。
おすすめニュースサーバ
http://www.giganews.com/
(1) 月$25で無制限のダウンロードが可能で、20コネクション可、バイナリ記事データの保存が406日と
最強です。 (ちなみにテキスト記事は2278日(^_^; )
条件を揃えれば月に1TB(=1000GB)を超えるダウンロードも可能です。(実績あり)
(2) +$5でアクセスの暗号化と30コネクション(計50コネクション)を追加することができます。
(3) 無料のGiganewsAcceleratorを使えば、記事一覧を取得するスピードが劇的に(最大10倍程度)
上がります。
(4) 日本語ページもあるので、英語がわからなくても安心です。
ダウンロード量無制限でなくてよいならもっと安いプランもあります。
どうしても無料でと考える人もいるかと思いますが、結局お金のかわりに時間を失うことになるので、有料で
管理のしっかりしたサーバと契約する方が得策だと思います。
速度が速くて、記事の抜けがなくて、記事の保存期間が長くて、コネクション数が多い無料サーバなど、
ありえないと思いますよ。
HyperNewsReaderの使い方
(1)に関しては、"優&魅衣"さんから、
(2)と(3)に関しては、"a_hooh"さんから、
掲示板にて情報をお寄せいただきました。ありがとうございます。m(_'_)m
(1)HNRの設定ファイルを直接書き換える。
HNRをインストールしてできるNH_Infoフォルダ内に、"_ServerGroup.txt"というファイルがあります。
この中にサーバの設定が書かれているので、これをエディタなどで開いて手作業で修正します。
たとえば、giganewsの場合は以下のような記述となります。
S news.giganews.com 119 **** ******
M 9 1 2 9 0 0 1 0 300 0 0 20
2行目2番目の9はサーバー自体の接続数、5番目の9がダウンロードの同時接続数です。
この5番目のパラメータを変更してHNRを起動すると接続数を6以上にすることができます。
なお、HNRのサーバのプロパティを開くと、強制的に"5"になってしまうので、プロパティを
開かないようにしてください。
(2)と(3)の基本的な考え方は、「同じサーバを違う名前で登録する」ということです。
(2)IPアドレスを直接指定する。
ニュースサーバは通常ホスト名で指定しますが、当然それに対応するIPアドレスがあります。
これをサーバ名として登録すれば違うサーバとして認識されます。
具体的な手順は
a)DOSプロンプトで、"ping サーバ名"としてIPアドレスを調べる。
b)このIPアドレスを新しくサーバとして登録する。(認証が必要なら元サーバと同様に設定する)
c)サーバのプロパティでハイパーサーバ機能を有効にする。
この方法の欠点は、IPアドレスの変更に対応できないことですが、頻繁に変わるとも思えないので大きな
問題ではないと 思います。IPが変わると当然エラーが起きますが、結局元のサーバでダウンロードされるので、
コネクション数が無駄になる 以外の実害はないでしょう。但しIPアドレス指定のサーバで記事予約をすると
いろいろ困ることがあるので、ダウンロード のみに使うのがいいと思います。
(3)proxyソフトを使う。(酢こんぶは動作を確認していません)
BlackJumboDog イントラネット用簡易サーバ(Windows95/98/Me/インターネット&通信)
http://www.vector.co.jp/soft/win95/net/se155232.html
等でproxyサーバを立ち上げ、元のサーバ名を変換してHRNに登録します。
サーバの登録手順やハイパーサーバとして動作させることは(1)の場合と同様です。
この方法は、IPアドレスが変わっても問題ない点が(2)よりも優れています。
この方法での動作確認を酢こんぶは実施していませんが、特に問題なく動作すると思われます。
ただproxyを通すことでスピードが落ちる可能性があります。
一応この他にも、
(4)もう一台パソコンを用意する。
(5)仮想マシンを立ち上げて、そこでHNRを動かす。
という方法がありますが、あまりお手軽ではないので詳細は省きます。
HNRの一時フォルダをRAMDISKに移動する方法です。
これを実行することで、ダウンロードのスピードアップが見込めます。
概要
○シンボリックリンクを使ってHNRのフォルダとRAMDISKのフォルダをリンクする。
これを実行すると、HNRが自分のフォルダ内のNH_tmpにアクセスしようとした時に
実際にはリンク先のNH_tmpにアクセスするという動作をします。
具体的な手順
(1)RAMDISKを作る。(酢こんぶはSoftPerfect RAM Diskを使って、とりあえず1GB確保しました)
(2)RAMDISK内に、NH_tmp,NH_tmpM,NH_tmpRの3つのフォルダを作る。
(3)HNRフォルダ内にある、(2)の3つのフォルダを削除する。
(これをしないと(5)でエラーが起きます)
(4)cmd.exeを管理者権限で立ち上げる。
(5)cmd.exe内で(2)の3つのフォルダに対して次のコマンドを実行する。
mklink /d [元のフォルダ] [リンク先のフォルダ]
NH_tmpフォルダのパス:C:\Program Files\HNR\NH_tmp
RAMDISKのパス:Z:\NH_tmp
の場合は、
mklink /d "C:\Program Files\HNR\NH_tmp" "Z:\NH_tmp"
これをNH_tmpM,NH_tmpRについても実行する。
(5)HNRを立ち上げて動作確認する。
HNR動作中にNH_tmp内を見ていると、1記事1キャッシュになっているようで、ものすごい頻度で書き換え
られているのがわかります。このフォルダがフラッシュメモリのSSDに置いてあれば、急激にその寿命を縮める
のは勿論ですが、HDDであったとしてもかなりの負担になるので、RAMDISKに置くのが理想でしょう。
但し、HNRはファイルのデコード時にもNH_tmp内に一時ファイルを作るので、1記事で1GBとかの巨大な
ファイルが投稿されていると、RAMDISK容量によってはデコードできないので注意が必要です。
また、Windowsの一時フォルダも同じRAMDISKに設定していると、アプリのアップデート時等にRAMDISKに
大きな一時ファイルが作られることがあるので、最低1GB程度は確保しておくのがいいと思います。
とりあえずはスピードの速い有料ニュースサーバと契約することと、何らかのFTTHサービス(フレッツ光とか)に
加入してください。(^_^; 実際、これが最も効果が上がる方法です。
上記の条件が満たされると、ネックになってくるのはHDDへの書き込み時間で、これをいかに短くするかが
ポイントです。
まずは最速のHDD(SSD)を使うのが早道ですが、その条件が満たされているとして、さらにスピードアップする
方法を考えます。
酢こんぶが実際に実行しているのは、
(1)RAMを2Gにして、ページファイルを使わないように設定する。
(2)Windowsのカーネルをメモリに置くように設定する。
これはWindows自体の動作を速くすることと、バスを流れるデータを少なくしてHNRに与えられる帯域を
できるだけ 広くすることが目的です。とりあえずこれはWindowsの設定だけで可能です。
その他に考えられるのは、
(3)記事保存するHDDと分割ファイルを一時保存するHDDを分ける。
同じHDDにアクセスが集中すればそれだけ遅くなるので、これをできるだけ分散するという発想です。
実際には一時保存するNH_tmpと分割ファイル保存するフォルダNH_Divと記事保存するDownloadを
別の HDDに設定し、さらに保存記事から最終デコードファイルを作るのも別HDDにしてみました。
結果は、感覚的に言うと2割程度のスピードアップ。根拠は、以前の最高ダウンロード容量が1TB/月
程度で あったものが1.2~1.3TB程度になったということです。この結果は単にダウンロードスピードが
上がったという ことだけが原因とは言えませんが、HDDを分けることで有意な効果があったことは確実と
考えます。
(4)RAID0でHDDへの書き込み速度をアップする。
HDDへの書き込み速度自体を速くするという発想です。
多分かなり効果がありますが、面倒です。あとHDDが壊れたときにデータを取り戻せないという問題が
ありますが、 記事保存期間の長いニュースサーバを使っていればダウンロードしなおすだけという考え方も
できます。
(5)記事保存と分割ファイル一時保存の二つのフォルダ以外をすべてRAMDISK上に置く。
大きな容量になるフォルダ以外をRAM-DISKに置いてHDDへのアクセスを減らします。
一時ファイルの書き込み分だけは速くなると思います。
(6)HNR関連のフォルダをすべてRAMDISK上に置く。
HDDアクセスがすべてメモリアクセスに置き換わるのでかなりの速度アップが見込めます。
しかしRAMDISKの容量の問題ですぐに限界がきます。
しかもマシンが暴走したらデータはパー。i-RAM使っても容量の問題は残ります。
(7)パソコンを2台使う。
くらいでしょうか。
世の中には10GB/hourくらいのスピードが出ている人がいるようで、これは酢こんぶの10倍くらいにあたります。
この人はHNRを使っているのではないようで、HNRでどこまでこれに迫れるかというところですね。
ほんとはHNRの作者さんに、できるだけHDDアクセスがないように改善してもらえると一番いいんですけどね。
普通はHNRを立ち上げて、
ツール -> オプション -> 予約ダウンロード -> 一般
で変更すればよいのですが、たまにHNRを立ち上げない状態でこの設定を変更したいことがありますので、
この方法を説明します。
なおこの方法はレジストリを操作します。不適切なレジストリの操作はWindowsに致命的な問題を引き起こす
ことがあるので十分注意して実行してください。
スタートメニュー -> ファイル名を指定して実行 -> 名前欄に"regedit"として
レジストリエディタを立ち上げ
HKEY_CURRENT_USER\Software\Treasure Soft\HyperNewsReader\Reserve
の
AutoStartの値を"0"にしてください。これで自動で予約ダウンロードを始めない設定に変更されます。
ちなみにこの値が"1"のとき、自動で始める設定となります。
便利なツール
Brawny Lads Joinerというツールがおすすめです。
これは酢こんぶが「こうあって欲しい」と考える使い勝手に最も近いツールです。
ファイルのDrag&Dropが使えることが最大の利点です。
またネットニュースからダウンロードできる大半のバイナリ分割ファイルは、酢こんぶ作のExecSでも簡単に
結合する ことができます。
QuickPar->事実上標準のツール。日本語で使いたい場合は日本語化が必要。
MultiPar->QuickParの改良版。QuickParよりスピードが速くリカバリ率も高い。
par2cmdline->コマンドライン版のpar2クライアント。バッチファイル等で使えるのがメリット。
これを使って、壊れたデータを修復したり、不足している分割ファイルを作り出したり! することが
できます。
ニュースのデータは一部が壊れていたり、分割ファイルが全部揃わなかったりということが 頻繁に発生
しますが、par2ファイルを使うことでその大部分を補完することができます。
また最近では分割ファイルを結合->検査という作業を連続して実行するために使われる ことも多く、
ネットニュースに生きるものにとっては神に等しい存在といっても過言ではありま せん。(^_^;
詳しくは、quickparとかmultiparでネット検索してみてください。
お奨めはQuickParですが、MultiParは開発者が日本人で、開発継続もしているので 最新OSでも
安心です。
なお、QuickParは処理が終了してもアプリは立ち上がったままなので、
「ひとつの処理が終わったら次の処理を行う」
という動作ができません。
これは、酢こんぶ作の「ExecS」を使うと解決することができます。
/~sukonbu/sukonbu/software/index.html
MultiPar最新版では、処理終了後にアプリを終了する設定ができます。
また、MultiParはコマンドラインで動くpar1j.exe,par2j.exeを含んでいるので、これを ExecSで実行したり
バッチファイルに組み込んだりすることが可能です。
WinRARがおすすめです。
rarファイルを結合、解凍できるツールはいくつもあるのですが、WinRARの独自形式があるらしく、
これでしか解凍できないファイルが存在します。
(.rarの前に、part001とか入っているのがそれ)
一応シェアウェアですが、試用期限後の機能制限などはないようです。
ところでこの独自形式ってなんであるのかな?って考えてみたんですが、そもそもrar形式の拡張子は
r00,r01,r02・・・で、最後のファイルがrarとなるんですが、r99の次はどうなるかというと、s00なんですよ。
で、s99の次はt00ということで、どこまで定義されてるのかわかりませんが、すごくわかりにくいです。
動画ファイルの投稿で数百の分割になることは珍しくないので、元々のrarの拡張子だとs00,t00,u00
とかなって、それがrarの拡張子なのかどうかが判然としなくなってきます。
そんなわけで、圧縮のアルゴリズムは同じにしておいて、分割ファイルの命名規則を変更した形式が
考えられた、ということですかね。
この推論があっているかどうか、知っている人がいたら教えてください。
HNRでダウンロードをしていると、同じシリーズのファイルが1ファイル1フォルダにデコードされてしまい、
これを一つにまとめたくなることがよくあります。
Windowsの機能を使えばできなくはないのですが、とても面倒です。
これを解決するのが酢こんぶ作の「ひとまとめ」です。
/~sukonbu/sukonbu/software/index.html
送り先フォルダを指定
->まとめたいフォルダをドロップ
という簡単操作で効率よくフォルダをまとめることができ、同一名のファイルがあっても、自動的に名前を
変えて まとめるので手間がかかりません。
また、特定のフォルダにファイルやフォルダを移動/コピーするという用途にも使えます。
酢こんぶのデスクトップには常に7つのひとまとめが立ち上がっています。(^_^;
またこの作業を10回も繰り返せば、ほとんどの人が「なんで自動でできないんだよ!」という気分になって
くると思います。 そのときは
送り先フォルダを指定
->まとめたいフォルダをドロップ
という動作を連続的に行うことができる「ひとまとぬ」が同じ場所にありますのでご利用ください。
結論から言うと、酢こんぶ作の「ExecS」を使うと、連続してデコードすることが可能です。
/~sukonbu/sukonbu/software/index.html
ネットニュースに投稿されるファイルは、サイズが大きいために分割されていることが普通です。
これを結合してデコードするには、投稿の形態によっていくつかの方法があります。
(1)分割rarファイル、zipファイル等 -> WinRARでデコード
(2)par2ファイルとともに投稿された分割ファイル -> QuickParでデコード
(3)par2ファイルのないバイナリ分割ファイル -> 結合ツールやバッチファイルを使ってデコード
これらをそれぞれのツールを使ってデコードしてもいいのですが、ダウンロードファイルが多くなってくると
非常に手間がかかるので自動で処理をしたくなります。
自動処理の方法としては、通常バッチファイルを使ったりVBスクリプトを使ったりすることになりますが、
QuickParは処理が終了してもアプリは立ち上がったままなので、
「ひとつの処理が終わったら次の処理を行う」
という動作ができません。
そこで「ExecS」を使うと、CPU使用時間が0に近くなったらアプリを終了させることができるので、 実行
したいアプリにQuickParが含まれていても連続実行することが可能となります。
またネットニュースからダウンロードできる大半のバイナリ分割ファイルは、酢こんぶ作のExecSでも簡単に結合する
ことができます。
なお、ExecSを使用するために、WinRARとQuickPar(or MultiPar)をインストールしておくことをお奨めします。
これは必須ではないのですが、これらをインストールしない場合、別のアプリでデコードを行うための設定を
自分で作る必要があります。
不具合対策
ディスクフルが発生した時によく起きる現象です。
HNRのアプリケーションフォルダの中の"NH_Info"の中を確認してください。
"_Reserve.txt.tmp"というファイルがあったら、最後の".tmp"を削除して、
HNRを再起動してください。予約ファイルが元に戻っているはずです。
この方法で元に戻らない場合は、あきらめて再予約しましょう。
HNRやPC本体が異常終了したときに起こります。
実際には分割ファイル本体がなくなったわけではなく、一覧情報を保存してあるファイルが壊れただけ
なので、これを修復してやれば元通りになります。
本家のサイトに修復ツールが用意されているので、
http://www.fan.hi-ho.ne.jp/treasure/recover2.html
ツールをダウンロードしたのち、指示に従って修復作業を行ってください。
分割された不正なyEncファイルを結合->デコードしようとして落ちていると思われます。
強制終了しないようにするには、そのファイルをデコードしないようにすればよいので、その方法を説明
します。
(1)HNRのアプリケーションフォルダの中の、"NH_tmp"を開く。
(2)中にファイルが残っているので、それをテキストエディタで開く。
(3)そのファイルの中に、デコードしようとしていたファイルのサブジェクトが書かれている。
(4)このサブジェクトと同じ物を、"NH_Div"内の"_DivIndex.txt"内から検索で探す。
(5)"_DivIndex.txt"には各記事が下記のように記述されている。
-------
T 1 52
F NewPoster
I - hogehoge.wmv
S - hogehoge.wmv
D 20050614101508
-------
(6)このうちの"S"というのが記事のサブジェクトで、該当記事の"D"に書いてある数字をメモしておく。
(7)"NH_Div"内に"D"に書かれているのと同じ名前のフォルダがある。(ここでは20050614101508)
(8)このフォルダ内のファイルをデコードしようとして落ちているので、フォルダ名を変えるか削除する。
不正なyEncファイルをデコードしようとしてエラーが起きている可能性が高いです。
基本的にHNRではどうすることもできないので、その予約を削除する以外に方法はありません。
予約ダウンロードの状態を監視(目視で)して、どのファイルをダウンロードしたときに落ちているかを特定し
その予約を削除してください。このときコネクション数を1にしておくと特定がしやすいです。
また、自動で予約ダウンロードを開始する設定にしていて、設定変更する時間もなく落ちてしまう場合の
対処法は以下のとおりです。
なおこの方法はレジストリを操作します。不適切なレジストリの操作はWindowsに致命的な問題を引き起こす
ことがあるので十分注意して実行してください。
スタートメニュー -> ファイル名を指定して実行 -> 名前欄に"regedit"として
レジストリエディタを立ち上げ
HKEY_CURRENT_USER\Software\Treasure Soft\HyperNewsReader\Reserve
の
AutoStartの値を"0"にしてください。これで自動で予約ダウンロードを始めない設定に変更されます。
ちなみにこの値が"1"のとき、自動で始める設定となります。
通常、結合途中でエラーになるファイルは何とかデコードしても役に立ちません。
しかし、par2ファイルによって修復可能な場合は大きな意味があります。
それは、強制的にデコードすることで、修復ブロック数をかせげるからです。
まったくデコードできなければ0ブロックですが、強制デコードすれば数ブロックをロスするだけであとは修復
ブロックとして使用できます。
例えばあるファイルが本来30ブロックだったとすると、強制デコードでたいがいは20ブロック以上が使えます。
これはあと数ブロックあれば全体を修復できるというような場合に非常に有効です。
強制デコードの方法は以下のとおりです。
(1)エラーログで、何番目のファイルでエラーが起きたかを確認する。
(2)結合マネージャのウィンドウで該当ファイルを右クリックして、"手動結合"を選ぶ。
(3)手動結合のウィンドウが表示されるので、エラーの出るファイルのチェックをはずしてデコードする。
(4)複数箇所でエラーが出る場合もあるので、エラーが出るファイルのチェックをすべてはずす。
なお、エラーファイルのチェックをはずしてデコードするとまた次のファイルでエラーになり、それをはずしても
また次のファイルでエラー、というように連続したファイルでエラーになる場合は、最初のエラーファイルの
一つ前のファイルをはずすとエラーが出なくなることがあります。
ところでこの作業はどうしても人間がつきっきりで行う必要があり、大量にエラーファイルがあって、かつ
複数箇所でエラーが発生する状態では 終了まで何時間もかかることがあって非常に面倒です。
これを解決するのに、他のニュースリーダを使うという方法があります。
酢こんぶはその目的でNewsBinを使っています。
NewsBinは自動巡回機能が弱いようなのでHNRの代わりにはなりませんが、デコード途中でエラーが
あってもそのままデコードを続けてファイルを出力してくれるので、HNRのようにあとからデコードしなおす
必要がありません。
http://www.binsearch.info/ で記事検索してnzbを作り、NewsBinでダウンロードという方法を使えば
あまり手間をかけずにファイルの 再取得をすることが可能です。
結合マネージャは、記事のサブジェクトによって結合すべきファイルの総数を判断しています。
しかしサブジェクトの記述によってはファイル総数を間違えることがあり、その場合正常にデコードされません。
ファイル総数を間違えるサブジェクトの例)
Omoshiroi Eiga no DVD part10 (10/102) yEnc (100/103)
上記のファイルは全体がpart1からpart102に分かれていて、さらにひとつのpartが103個に分割されて投稿
されているという想定で、このファイルはpart10の100番目のファイルです。
これを結合マネージャは、part10が102分割されていて、このファイルはそのうちの10番目のファイルと解釈
してしまいます。
対処法
1) 結合マネージャで手動結合を使う。
結合マネージャは分割数を間違えてはいますが、とりあえず全部のファイルをひとまとまりにしてくれます。
この状態では自動デコードされないので、手動結合を使ってデコードします。
しかし分割数が100を超えると101個目からが正常に保存されないようなので、par2で修復できない場合は
別の手を考える必要が あります。
2) 手動結合で記事を再取得する。
記事取得時に手動結合を使えば、結合マネージャは関係ないので分割数の間違いは起きません。
しかし、このとき手間を省くためにすべての分割ファイルを一度に再取得すると、デコード前とデコード後の
ファイルが一時的とはいえ 同時に存在することになるので、全体が4GBなら8GBのHDD空き容量が必要で、
ディスクフルが非常に起きやすく、一度そうなると ダウンロードは終わっているのにまた最初からやり直しに
なってしまうので注意が必要です。
また途中のファイルでデコードエラーが発生すると、どのpartが原因なのかわからないので、最終的に1part
ずつダウンロードすることになって非常に面倒です。
3) 別のニュースリーダを使う。
HNRでできないことを他のニュースリーダで補おうという発想です。HNRですべてできるのが理想ですが、
他のリーダを使ったほうが効率がよいのならHNRのみにこだわる必要はないと思います。
ちなみに酢こんぶは、NewsBin(有料)を使っています。
NewsBinはnzbに対応しているので動画系を落とすときにはかなり楽でダウンロードスピードも速いです。
但し記事一覧の取得が 弱いのが難点。
ということで、自動巡回をHNRで行い、HNRで正常にダウンロードできないものは、
nzbがあれば->NewsBinでダウンロード
nzbがなければ->http://www.binsearch.info/でファイル検索してnzbを作り、NewsBinでダウンロード
というようにしています。
NewsBinは、自動巡回の機能がないようなのでHNRの代わりにはなりませんが、複数のpartをまとめて
デコード指定 しても順次ひとつずつに分けてくれるのでHDD容量の問題が発生しにくく、またデコードの
途中でエラーがあってもそのままデコードを続けて ファイルを出力してくれるので、HNRのようにあとから
デコードしなおす必要がなく手間がかかりません。
------------------------------------------------------------------------------
ところで2)の状態から3)にたどりつくまでに、なんとかHNRだけで完結できないかといろいろやってみたけど
どうにもならなかったことについて書いておきます。
a)サブジェクトを書き換えて結合マネージャに渡す。
結合マネージャがサブジェクトの記述を誤解するならそれを書き換えればいいだろうという発想です。
予約記事一覧はテキストファイルとして保存されているので、エディタの置換機能を使えば容易に書き
換えることができます。
ということでやってみましたが、結合マネージャはダウンロードした記事のサブジェクトを見ているようで、
予約記事の一覧を書き換えても何も変わりませんでした。(T_T)
b)proxyを通してサブジェクトを書き換える。
予約記事一覧を書き換えるのがダメならproxyを通してHNRが受け取るデータ自体を書き換えてしまえ
という発想です。
DeleGateを使えばできそうな気もしましたが、面倒なのでやめました。(^_^;
誰かもっと簡単に使えるnntp対応proxyサーバを知りませんか?
c)テキストファイルで出力し、yEncデコーダを使ってデコードする。
ニュースのヘッダが付いた状態で、かつ複数のファイルをまとめてデコードできるデコーダを見つけることが
できませんでした。(T_T)
いっそのこと自分で作ろうと考えましたが、上記3)のほうが簡単なのでやめました。(^_^;
d)yproxyを使う。
yproxyというのはyEnc形式をUUENCODE形式にリアルタイム変換してくれるproxyソフトです。HNRが
分割ファイルを認識する手段としてSubjectの内容以外にPartial IDを使うというものがありますので、
yproxyがコード変換するときにPartial IDを付けてくれれば分割情報が正しく認識されると考えました。
結果、確かにコード変換は正しく行われましたがPartial IDは付けてくれませんでした。
ここまでやって、結局他のリーダを使うのが最も効率がよいと判断しましたが、他にいい方法ありますかね?
とりあえずファイルのデコードはできているようなので、そのままでも構わないと思います。一度HNRを終了
して再起動すれば正常終了したことになっているはずです。
原因ははっきりしませんが、分割ファイルの通し番号がマイナスになると終了しないような気がします。
(未検証)
長期間HNRを動作させていると分割ファイルの通し番号がオーバーフローしてマイナスの数になることが
あります。HNRを再起動すれば 通し番号が振りなおされるので、安定動作のためにはこまめに再起動
するのがいいかもしれません。
重複ファイル検出機構が動いていませんか?
重複ファイル検出機構は、ファイル名が違っていても内容が同じファイルを検出してくれる優れた機能です。
しかし、ファイルが増えるに従って、より多くのメモリを必要とするようになります。
HDDがガリガリいっているのは、メモリが足りなくてHDDとのスワップが発生しているためと思われます。
これを解決するには、
(1)メモリを増やす。
(2)重複ファイル検出をやめる。
という二つが考えられますが、メモリを増やすのには限界があるのと、メモリを増やしても検出に時間がかかる
ことには変わりなく、 CPUの負荷も大きなものになってPC全体の動作が遅くなります。
ということで、多少の重複ファイルには目をつぶって、重複ファイル検出をやめる方が総合的に有利です。
但し、ダウンロード量がそれほど多くないユーザは動作させておいても問題ないと思われます。
"購読ニュースグループ一覧"->サーバ名右クリック->"プロパティ" を開いて、
"特性2"->"記事取得方式"で"MsgID指定"を選択してみてください。
取得した記事No.が間違っている場合に、上記の設定で回避できることがあるようです。
この情報は、本家の掲示板の書き込みを参考にしています。
HNRは記事のサブジェクトから、その記事が分割ファイルかどうかを判断しています。
つまり適切なサブジェクトになっていないと分割ファイルと認識できずに、ばらばらにデコードされてしまう
という事態が発生します。
具体的には、10MBのファイルのはずが、500KBのファイル20個になってしまっているとかです。
対処方法は
(1)QuickParで修復を試みる。
非常に運がいいときはQuickParを使うだけで修復が可能です。しかしこれは滅多にありません。
(2)par2ファイルを無理やり結合してみる。
このような場合、par2ファイルもばらばらにデコードされているので修復ブロックが0としか認識
されません。
しかし、バイナリファイルを結合するツール(Brawny Lads Joiner等)でファイルを結合すると、
数ブロックだけ認識されることがあります。
少し運がいいと、この状態で修復可能になります。
(3)par2ファイルをダウンロードしなおす。
記事一覧を取得しなおす必要がありますが、確実に修復できます。
記事一覧のウィンドウで必要なpar2ファイルをすべて選んで、右クリック->手動結合として記事を
予約後ダウンロードしてください。
記事をすべてダウンロードしなおすという選択肢もありますが、このような場合は10程度の修復
ブロックで修復可能なので、par2ファイルをダウンロードする方が効率的です。
このとき
http://www.binsearch.info/ でファイル検索してnzbファイルを作る
-> nzbが使えるニュースリーダ(例:NewsBin)でダウンロード
という方法を使うと、あまり手間をかけずにファイルを再取得することができます。
投稿記事のサブジェクトの記述によって、こういう状態になることがよくあります。
全部のフォルダをひとつのフォルダに入れる。
->そのひとつのフォルダ内の全ファイルを検索。
->検索されたファイルを一番上の階層に移動。
->空になったフォルダを削除。
という手順でまとめられなくはないのですが、非常に手間がかかります。
これを解決するのが酢こんぶ作の「ひとまとめ」です。
/~sukonbu/sukonbu/software/index.html
送り先フォルダを指定
->まとめたいフォルダをドロップ
という簡単操作で効率よくフォルダをまとめることができ、同一名のファイルがあっても、自動的に名前を
変えて まとめるので手間がかかりません。
また、特定のフォルダにファイルやフォルダを移動/コピーするという用途にも使えます。
酢こんぶのデスクトップには常に7つのひとまとめが立ち上がっています。(^_^;
またこの作業を10回も繰り返せば、ほとんどの人が「なんで自動でできないんだよ!」という気分になって
くると思います。そのときは
送り先フォルダを指定
->まとめたいフォルダをドロップ
という動作を連続的に行うことができる「ひとまとぬ」が同じ場所にありますのでご利用ください。
(1)Size欄の表示がファイルサイズに関係なく、0か1になってしまう。
(2)Lines欄の表示は正しいように見える。
ということであれば、サーバから正しい情報が送られてこないことが原因です。
ASAHI-NETのサーバでこの現象が確認されています。
サーバ側の問題なので対処法はありません。
この状態のとき、予約ダウンロードの状態欄の%が正しく表示されないことがありますが、
オプション-全般-全般の進行状況表示を行数単位にすると、正しく%表示できるようになります。
とりあえずの対策として、
「予約ダウンロードウィンドウを表示しない」
とすると現象は消えます。
このことから考えて、予約ダウンロードウィンドウに記事を表示しようとするときに何かが起きている
のは確実ですが、単なるユーザの身としてはこれ以上原因を追求することは不可能なので、
完全解決はあきらめます。
なお、この現象はWin7 64bit版のみで確認されています。
その他で発生しないとは限りませんが、WinXP 32bitおよびWin7 32bitでは同現象を確認した
ことはありません。