投稿

ラベル(AI)が付いた投稿を表示しています

キーボード修理

イメージ
前回 調子が悪くなったと書きましたが、部品が手配できて時間が取れたので直しました。 茶軸のスイッチを購入 Cherryの茶軸は 10個で1,399- ということで購入。 本当は1個で充分なんだけど、仕方なく残りは予備部品として保管。 作業手順 キーボードの裏側ネジを3箇所外します。 左右と中央の丸シールの下。 左右はパッドを貼っているので、少しめくって外します。 (あとで綺麗に戻るので心配なしです) ケーブルが出ている方は、スッと外れ、手前(下側)は、内部に爪が有るので、ピックやカード、マイナスドライバなどで少し隙間を開けるようにして広げれば外れます。 自分は親指の爪で空きました。 今回は「E」が調子悪いので、該当のピン2箇所をハンダ吸いで綺麗に取り除いて、裏側から引き抜いて完了。 基板にしっかりとどのキーかがプリントされているので分かりやすいですねぇ 入手した新品の茶軸を差し込んでハンダ付けします。 この時点で動作確認が可能になるので、直したキーとその周辺が正しく入力できるのをチェック。 問題なく、無事に動作しました。 最後にカバーを取り付けて完了! 残ったのは9個の茶軸…。 今回の費用 Cherryの茶軸10個セット :1,399- キーキャップ引き抜き工具 : 475-  ちなみに10個セットには、簡易引き抜きがついてきますが、ちゃんとしたもののほうが楽に作業できます。(昔買ったのに、どこかに行ってしまったので再購入)  ということで、1900円ほどで完治しました。  手間賃考えると買ったほうが安いかも(笑)

stable-diffusion-webuiで遊ぶ

イメージ
作業しながら…  データコンバート作業に時間がかかるので、指示を与えながらローカルで少し遊んでみた。 stable-diffusion-webuiを試していて、新しいモデルを読み込んでテストしてみた。 まずは、Promptに 「hacking girl, japanese anime, illustration」を設定。 Modelは「sd_xl_base_1.0.safetensors」 すると、本開いて何してんねん?という(笑) 背景の「手」って??? ホラー系?という感じのキャラクターになっている。 ということで、この結果をimg2imgに渡し、さらにModelを「sd_xl_refiner_1.0.safetensors」に変更。 Negative Promptに「text」を設定する。 で、出力結果がこれ。 Hackingはしていないが、さっきよりはまともな絵面になったかなぁ。 この辺りの、Promptの設定、パラメータの設定が難しい。 矛盾したPrompt 試しに、anime設定で、Photographyを指定してみる。可能か? sd_xl_base_1.0.safetensors を使用し「hacking girl, japanese anime, Photography」 を与えたのがこれ やっぱり、ホラー。 同様にimg2imgでsd_xl_refiner_1.0.safetensorsを使用して、同じPromptを食わせてみる。 少しまともになった感じ。 AI職人さんたちは、こういったPromptと様々なModelを駆使して日夜励んでいるんだなぁと感心します。 ちなみに、Hardwareを増強したので、この手の画像生成には、およそ5秒/枚程度。 思っていたより速くて、色々と試したくなる。 もう少し遊んで… 「Monna Lisa,Photography,Portrait,raw,background National Geo Park」こんなのはどうかと思ったら…。 思いのほか、モナ・リザだった(笑) 奥が深い…。

AIで絵を画くのは面白いけど

イメージ
StableDiffusionを試す 巷では神絵AIと言われる「 Midjourny 」が一躍有名になりましたが、OpenSourceで利用可能な新たなAI(学習済みモデルも含めて)が出ましたので、遊んでみました。 名前は、stable-diffusionです。 2022-08-23 に公開されたばかりなので、まだよくわからない箇所も多いですが… すでに動作がうまく行った人たちの記述を参考に、追試です。 https://zenn.dev/koyoarai_/articles/02f3ed864c6127bb2049?utm_source=pocket_mylist 標準のGPUメモリでは不足していてダメそうなので、省メモリ版forkを利用しないとまずそう。 でも、まあ本家から試すことにする。 前提条件 CUDAが入っていること anaconda3が入っていること まずは、 README を参考に入れていきます。 mkdir ~/temp cd ~/temp git clone https://github.com/CompVis/stable-diffusion cd stable-diffusion conda env create -f environment.yaml conda activate ldm これで、anacondaの仮想環境が用意される。 必要なLibraryなども一式入れてくれるので、これで完了 学習モデルデータは、ユーザー登録が必要なので、以下から先に登録しておく。 メールでの確認が届くので、リンクを踏んで完了。 https://huggingface.co/ でもって、 https://huggingface.co/CompVis/stable-diffusion-v-1-4-original にアクセスして、 「You need to share your contact information to access this model.」項目の最後の「Access repository」を選択。 これでダウンロード可能になる。 参考のURLにしたがって、 cd ~/temp git clone https://huggingface.co/CompVis/stable-diffusion-v-1-4-original cloneされた...