投稿

ラベル(AI)が付いた投稿を表示しています

メールサーバの移行

イメージ
 自前のメールサーバを停止 これまで、自ドメインのメールサーバはVPS上に構築していた。 ・Ubuntu Server ・Postfix ・Dovecot ・spamAssassinと、BlackListの利用 Spam対策を行ってきたし、サーバ上でメールをトリガーにして各種プログラムを動かしたりしてきた。 メールサーバのメンテナンスは結構面倒くさくて、  ・Disk容量のチェック  ・不正アクセスのチェック  ・各種セキュリティパッチの適用 など、手間がかかる。 そこで、外部のサーバを利用することに…。 結構安くて使い勝手の良さそうなのが、「さくらのメールボックス」 3年契約で、3070円とな…。  メールアドレスは自分のだけなので、20GBまで利用可能!  (Gmailより大きいねぇ) ということで、早速契約。 アカウント設定を行って、既存のDNSを書き換える。WHOISも書き換えて完了。 SMTPとIMAPが利用できればOK。 ちょうど、GoogleがSPF設定していないと受信しないし、DKIMおよびDMARCに対応していないメールを弾くようになったので、対応しているのを確認。 さくらサーバ自体は、これまでお客さんのサーバとして何件も利用しているので、利用方法も難しくはない。  Webメールにも対応しているので、いざという場合にもありがたい。 ということで、各メールソフトの設定を変更。  PC(常時使用する3台)とタブレット、スマートフォンと台数は多いがそれ程手間はかからない。 問題は、旧サーバで送受信したメールの履歴だけれど、これはThunderbrdを使ってローカルに保存することで回避。  本当は、サーバtoサーバでMailboxに残そうとも考えたんだけど、古いメールはそれ程必要ないし、ローカルにバックアップしてあれば凌げるので、良しとする。 移行時にDNSの反映で若干時間がかかったものの、問題なく送受信できるのを確認して、作業完了。  これでメンテナンスの手間が減るので、安いもんです。

stable-diffusion-webuiで遊ぶ

イメージ
作業しながら…  データコンバート作業に時間がかかるので、指示を与えながらローカルで少し遊んでみた。 stable-diffusion-webuiを試していて、新しいモデルを読み込んでテストしてみた。 まずは、Promptに 「hacking girl, japanese anime, illustration」を設定。 Modelは「sd_xl_base_1.0.safetensors」 すると、本開いて何してんねん?という(笑) 背景の「手」って??? ホラー系?という感じのキャラクターになっている。 ということで、この結果をimg2imgに渡し、さらにModelを「sd_xl_refiner_1.0.safetensors」に変更。 Negative Promptに「text」を設定する。 で、出力結果がこれ。 Hackingはしていないが、さっきよりはまともな絵面になったかなぁ。 この辺りの、Promptの設定、パラメータの設定が難しい。 矛盾したPrompt 試しに、anime設定で、Photographyを指定してみる。可能か? sd_xl_base_1.0.safetensors を使用し「hacking girl, japanese anime, Photography」 を与えたのがこれ やっぱり、ホラー。 同様にimg2imgでsd_xl_refiner_1.0.safetensorsを使用して、同じPromptを食わせてみる。 少しまともになった感じ。 AI職人さんたちは、こういったPromptと様々なModelを駆使して日夜励んでいるんだなぁと感心します。 ちなみに、Hardwareを増強したので、この手の画像生成には、およそ5秒/枚程度。 思っていたより速くて、色々と試したくなる。 もう少し遊んで… 「Monna Lisa,Photography,Portrait,raw,background National Geo Park」こんなのはどうかと思ったら…。 思いのほか、モナ・リザだった(笑) 奥が深い…。

AIで絵を画くのは面白いけど

イメージ
StableDiffusionを試す 巷では神絵AIと言われる「 Midjourny 」が一躍有名になりましたが、OpenSourceで利用可能な新たなAI(学習済みモデルも含めて)が出ましたので、遊んでみました。 名前は、stable-diffusionです。 2022-08-23 に公開されたばかりなので、まだよくわからない箇所も多いですが… すでに動作がうまく行った人たちの記述を参考に、追試です。 https://zenn.dev/koyoarai_/articles/02f3ed864c6127bb2049?utm_source=pocket_mylist 標準のGPUメモリでは不足していてダメそうなので、省メモリ版forkを利用しないとまずそう。 でも、まあ本家から試すことにする。 前提条件 CUDAが入っていること anaconda3が入っていること まずは、 README を参考に入れていきます。 mkdir ~/temp cd ~/temp git clone https://github.com/CompVis/stable-diffusion cd stable-diffusion conda env create -f environment.yaml conda activate ldm これで、anacondaの仮想環境が用意される。 必要なLibraryなども一式入れてくれるので、これで完了 学習モデルデータは、ユーザー登録が必要なので、以下から先に登録しておく。 メールでの確認が届くので、リンクを踏んで完了。 https://huggingface.co/ でもって、 https://huggingface.co/CompVis/stable-diffusion-v-1-4-original にアクセスして、 「You need to share your contact information to access this model.」項目の最後の「Access repository」を選択。 これでダウンロード可能になる。 参考のURLにしたがって、 cd ~/temp git clone https://huggingface.co/CompVis/stable-diffusion-v-1-4-original cloneされた