投稿

ラベル(StableDiffusion)が付いた投稿を表示しています

たまに掃除は必要!熱暴走…

イメージ
 そんなに暑くないのに… 本日、午前中にオンラインで打合せをしていると、突然マシンがダウン。 一瞬、停電か?と思ったもののディスプレイの電源は入っている。 あれっ?と思い、すぐさまノートで打合せを継続。 その間に、再度マシンの電源を投入。 問題なく起動する。 でも、CPU温度がたまたま目に入り、95℃を超えて徐々に上昇していく。 105℃あたりで再度マシンダウン。 これは、熱暴走によるダウンの可能性が高い。 以前、CPUをRyzen7→9にした頃は、60℃〜70℃程度だった記憶がある。 本当はGW中にSSDの載せ替えを行う予定だったけれど、忙しくて先延ばしにしていた。 その時やっていれば、多分掃除もしただろうに…。 ということで、午後からマシンを解体し、掃除をすることに。 ケース本体のFANはホコリがかなり溜まっている。 GPUのFANは問題ない。 電源とCPU FANはひどい。 一旦、CPU FANを取り外し、きれいにする。ついでにCPUグリスも塗り直しセット。 動作確認すると、投入直後で40℃台。 そりゃ、熱暴走も起こすわけだ。 せっかくバラしたので、SSDの載せ替えを実施。 OSは500GBで、ユーザ領域(/home)は1TBを使用しているもののAIのmodelをいくつも落としていたり、DockerのImageが多種置いてあるため、結構容量を食っている。 今回、2TBのSSD( Hanye SSD ¥17,800- で入手済)を用意してあるので、 1TB→2TB, 500GB→1TBと玉突きで移動させることを計画していたので実施する。 本当は、ddコマンドで移すつもりだったのだけれど、3月にお客さんのところで使いそうだったので、 ORICOのクローン機能付SSDアダプタ を入手済。 裸族のSSD版ですね…。1万円程度の品です。 これに、新品のSSDとこれまでの1TBのSSDを差し込んでクローン開始。 そこそこ時間はかかるものの、放置でOK。 ただ、HanyeのSSDについているヒートシンクが引っかかるため、一旦取り外してクローン後取り付ける必要があった。 続いて、500GB→先程の1TBに書き込み。 ただ、1TB(samsungの980pro)が、先程のクローンでかなり熱くなっていたため、速度低下が激しい感じ。1TB→2TBよりも時間がかかった感じ。 ...

stable-diffusion-webuiで遊ぶ

イメージ
作業しながら…  データコンバート作業に時間がかかるので、指示を与えながらローカルで少し遊んでみた。 stable-diffusion-webuiを試していて、新しいモデルを読み込んでテストしてみた。 まずは、Promptに 「hacking girl, japanese anime, illustration」を設定。 Modelは「sd_xl_base_1.0.safetensors」 すると、本開いて何してんねん?という(笑) 背景の「手」って??? ホラー系?という感じのキャラクターになっている。 ということで、この結果をimg2imgに渡し、さらにModelを「sd_xl_refiner_1.0.safetensors」に変更。 Negative Promptに「text」を設定する。 で、出力結果がこれ。 Hackingはしていないが、さっきよりはまともな絵面になったかなぁ。 この辺りの、Promptの設定、パラメータの設定が難しい。 矛盾したPrompt 試しに、anime設定で、Photographyを指定してみる。可能か? sd_xl_base_1.0.safetensors を使用し「hacking girl, japanese anime, Photography」 を与えたのがこれ やっぱり、ホラー。 同様にimg2imgでsd_xl_refiner_1.0.safetensorsを使用して、同じPromptを食わせてみる。 少しまともになった感じ。 AI職人さんたちは、こういったPromptと様々なModelを駆使して日夜励んでいるんだなぁと感心します。 ちなみに、Hardwareを増強したので、この手の画像生成には、およそ5秒/枚程度。 思っていたより速くて、色々と試したくなる。 もう少し遊んで… 「Monna Lisa,Photography,Portrait,raw,background National Geo Park」こんなのはどうかと思ったら…。 思いのほか、モナ・リザだった(笑) 奥が深い…。

Stable Diffusion with Google Colab

イメージ
Google Colabで試す   前回はローカル実行 で苦戦したので、今度はGoogleのサービス上で実行してみた。 ちょうど苦戦して、GPUを買い換えようかなぁなどとアチコチの価格を調査していたところ、GIGAZINEで「 画像生成AI「Stable Diffusion」を低スペックPCでも無料かつ待ち時間なしで使う方法まとめ 」という記事が出ていた。 ちょうど、同じ内容だしColab使ってやってることに。 手順は記事と全く同じでOK。 結果は全然違う! まずは、サンプルを実行 「a photograph of an astronaut riding a horse」で画像生成 素晴らしい! まず画像生成まで約30秒程度必要になるが、ローカルより速い! 前回なんじゃこりゃの結果になった 「Cyberpunk style Tokyo landscape」 おぉ!雰囲気出ています。 そこそこ良かった 「sleeping golden retriever」 可愛い感じで良きです。 「cute chihuahua」 キュートかどうかは、若干微妙…。 「very cute and soothing cat」 もう写真レベルです。 ひょっとすると写真を持ってきているんじゃ?と思うので有り得なさそうな指示を行ってみる。 「Gorilla dancing with corn on the table」 思っていたのと違ったので、文章を少し変えて、 「dancing Gorilla with corn on the table」 なんとなく想像していた感じに近いイメージ。 これは面白い! 30秒でどんな画像も生成してしまう。 もう少し遊んでみようっと…。

AIで絵を画くのは面白いけど

イメージ
StableDiffusionを試す 巷では神絵AIと言われる「 Midjourny 」が一躍有名になりましたが、OpenSourceで利用可能な新たなAI(学習済みモデルも含めて)が出ましたので、遊んでみました。 名前は、stable-diffusionです。 2022-08-23 に公開されたばかりなので、まだよくわからない箇所も多いですが… すでに動作がうまく行った人たちの記述を参考に、追試です。 https://zenn.dev/koyoarai_/articles/02f3ed864c6127bb2049?utm_source=pocket_mylist 標準のGPUメモリでは不足していてダメそうなので、省メモリ版forkを利用しないとまずそう。 でも、まあ本家から試すことにする。 前提条件 CUDAが入っていること anaconda3が入っていること まずは、 README を参考に入れていきます。 mkdir ~/temp cd ~/temp git clone https://github.com/CompVis/stable-diffusion cd stable-diffusion conda env create -f environment.yaml conda activate ldm これで、anacondaの仮想環境が用意される。 必要なLibraryなども一式入れてくれるので、これで完了 学習モデルデータは、ユーザー登録が必要なので、以下から先に登録しておく。 メールでの確認が届くので、リンクを踏んで完了。 https://huggingface.co/ でもって、 https://huggingface.co/CompVis/stable-diffusion-v-1-4-original にアクセスして、 「You need to share your contact information to access this model.」項目の最後の「Access repository」を選択。 これでダウンロード可能になる。 参考のURLにしたがって、 cd ~/temp git clone https://huggingface.co/CompVis/stable-diffusion-v-1-4-original cloneされた...