AI deconvolutionとか、sirilの事をとりとめなく…


少し前にsirilが1.4.0 beta2になってましたが、それ以降GraXpertのインターフェースを開く時にダイアログが出てきていました。


何も読まずにokをクリックしていたのですが、よく読んでみるとGraXpert-AI.pyが試せますよ的な事が書いてあるのに気づきました。


どうやらSirilでGraXpert 3.1の機能(AI Deconvolution)が使える様になるらしい。


これは試さない手はない!

少し前にGraXpertを3.0.2にダウングレードしましたが、再度3.1.0rc2にアップデートしました。


早速オリオン大星雲で違いを調べてみました。

ちなみに、今回からSPCCを使い始めたので、以前とは色が全然違っています。



左上から元画像、右上がAI Deconvolution objects 

左下 がAI deconvolution stellar、右下はAI denoiseと処理を進めていきました。


stellarは星が小さくなったので、よく効いています。

パラメータがキツ過ぎると違和感のある処理に仕上がるので、strengthやPSFは適度にした方がいいと思います。


objectは何が変わったのか全く分かりません。


denoiseは相変わらず素晴らしい。ノイズ除去どころか、微細構造が見事に浮き出てきました。

というか、デノイズの効果をdeconvolutionのobjectに本来求めるべきでは?と思ってしまいました。



もう一つ、コンポジットする際の条件について、Sirilのdocumentationを勉強していました。

tomはカラーカメラ(ZV-E10)で撮影しており、ディベイヤーではなくbayer drizzleを使っています。


bayer drizzleの画像の場合、コンポジット時のrejectは「MAD clipを使ったほうが良い」と記載がありました。

Siril documentation

sigma clipだと青や赤が満足に排除できないそうです。


という事で早速sigma clipとmad clipで処理を比較してみました。


左がMAD clipで、右がsigma clipです。



ストレッチの条件がきっちり合わせられていないので正しい比較になっているのか微妙ですが、淡い部分のノイズが随分と減った気がします。


外れ値の排除の計算のハズなので、これでノイズが減るのは正直意味がわかりません

これはストレッチの差と言ってしまった方が良いような気がします。

素人にはこのあたりの判断が出来ません💦





それと、上の方でしれっとSPCCを使いましたと記載しましたが、SPCCもsiril 1.4.0の新機能です。

PCCから何がアップデートされたのかなとウキウキしながら見に行きましたが、センサーまで指定する仕様になっていました。



当然ZV-E10を天体に使うモノ好きはごく少数なので選択肢にありません。

無理じゃん!と諦めていましたが、どうやらテキトーにカメラを選べばいいそうです。

(documentationに書いてありました)


実際にカメラはZV-E10ですが、EOS 60DとしてローパスフィルターはEOS 350Dの設定で無事動きました。


QBPフィルターを使っているのでナローバンドにチェックを入れ、テキトーにバンド幅を入力してみました。

3波長入れる必要があるので、青だけは緑と同じ範囲内を選んでます。




ただ、データベースにアクセス出来なくて止まることは何度か発生しています。


うまく動かなかった時には、ログをしっかり読んで、何が起こっているのか把握する必要があります。


アクセス出来なかった場合は、時間を置いて再トライすると解決する事が多かった印象です。



新機能盛りだくさんですし、初心者過ぎて使いこなせてないので、まだまだ勉強する事が多すぎます(笑)


ぼちぼち進んで行きます


コメント