くまお、遊ぶ。

いい歳こいたおっさんの遊び。

くまお、遊ぶ。

ONEXPLAYER mini Pro Ryzen版、弄りすぎてとっ散らかってしまいリカバリー中

皆さん、AIしてますかーッ!

 

ゲーミングUMPCで生成AIを模索している、おっさん僕です!

 

先日は Stable Diffusion Web UI directMLを導入してiGPUを効かせた画像生成環境を作ることができました。

 

kumao130z.hatenablog.com

 

想像以上に生成時間が短くていい感じでしたが、これに味を占めて「もっと短く!」を模索しています。

 

zludaは使えないかとか、WLS2のUbuntuで Stable Diffusion Web UI を ROCm で動かせないかとか、あれやこれや試みているうちにドライバやらなんやらがゴチャゴチャになってしまいまして、画面を縦向きにしても自動回転表示をしてくれなくなってしまいました。

まあ結局、最初に成功したdirectML以外はどれもダメでしたヨ〜🤣

 

使っていて特に実害はないのですが、いじり倒して微妙に変な状態なままなのも何か気持ち悪いので、リカバリーしてまっさらからやり直してます。

 

ONEXPLAYER mini Pro Ryzen版 システムリカバリー中!

ONEXPLAYER mini Pro Ryzen版 システムリカバリー中!

 

お手軽に工場出荷状態に戻せるのがホントありがたいですね!

いくら失敗しても綺麗さっぱり元に戻せちゃうんですから、いろんなことを試し放題!

 

というわけで、おもちゃで遊んでいるつもりがおもちゃに遊ばれている状態の、おっさん僕なのでした🤣

 

 


スポンサーリンク

 


 

ONEXPLAYER mini Pro Ryzen版をゲットしStable Diffusion Web UI directMLを導入!そこそこ速い!

皆さん、AIしてますかーッ!

 

ストレス少なめな画像生成AIローカル環境が欲しまって物欲MAXになり、やっちまった、おっさん僕です!🤣

 

ガッツリやるならゴツいケース、ゴツい電源、ゴツいGPUカードが大正解なんでしょうけど、そこまでやる金はないし、置き場所もない。

ゲーミングノートPCにしても17インチはさすがにデカいし、やっぱり高い。

とりあえず画像1枚を1分程度で生成してくれれば御の字。

 

要するに

安くてそこそこ速くて嵩張らないやつが欲しい!

ってことです🤣

 

で、これがまた都合よく近所の中古ショップで見つけちゃったんですヨ〜!

 

ONEXPLAYER mini Pro Ryzen版 と言うゲーミングUMPCです!🤩

www.onexplayer.online

(ミスってintel版のリンクを貼ってしまってました。。。リンク修正しました。)

 

これの最上位モデルでメモリ32GB、SSD2TB。

別売りのドックと持ち運び用のケースが付属していました。

これより少しスペックが落ちるメモリ16GB、SSD1TBのタイプの中古相場よりもかなり安かったので、清水の舞台から飛び降りましたヨ〜!

CPUはAMD Ryzen 7 6800U で、iGPUがRADEON 680M。

画面は7インチの 1920 x 1200。

ネットで調べた感じではメインメモリからVRAMに6GBを割り当てているような書き込みを見かけました。

買っちまった!ONEXPLAYER mini Pro Ryzen版フルスペック!

買っちまった!ONEXPLAYER mini Pro Ryzen版フルスペック!

↑キーボードはもともと持っているBluetoothキーボードです。小さすぎて打ちづらいw

 

MacBook Pro 15インチ、13インチと比べるとこんなにちっちゃい。

MacBook Pro 15インチに乗っけてみた。

MacBook Pro 15インチに乗っけてみた。

MacBook Pro 13インチに乗っけてみた。

MacBook Pro 13インチに乗っけてみた。

 

このUMPCで生成AIを使っているようなネット情報はほとんど見当たりませんでしたが、Ryzen 搭載PCでiGPUを効かせたAI画像生成ができるという情報はありましたので、若干「賭け」ではありますが、チャレンジ精神に火がついて購入を決意。

 

そそくさと持ち帰り、リカバリーして出荷時状態に戻してから作業開始。

以下のサイトを参考に、Stable Diffusion Web UI directML を入れてみました。

singula2045.hatenablog.com

 

上記サイトに加え、あれこれ検索しまくってあちこちのサイトを参考にしまくって、なんとか成功しました!👍

 

ONEXPLAYER mini Pro Ryzen版へのStable Diffusion Web UI 導入メモ

以下のような感じで導入しました。一通りやってからメモにまとめたので、かなり大雑把かつところどころ間違っているかもしれませんがご容赦を。

 

事前準備

Visual Studio Build Tools

 https://visualstudio.microsoft.com/ja/visual-cpp-build-tools/
  ダウンロードしてインストール
  C++によるデスクトップ環境を選択
  ATL、CLIC++MFCにチェック

 

Python

 https://www.python.org/downloads/windows/
  3.10.8をダウンロードしてインストール

Git

 https://gitforwindows.org/
  ダウンロードしてインストール

 

諸々インストール

Stable Diffusions Web UI directML

 適当なところにディレクトリを作る Documents¥Repositories¥ とか
 作ったフォルダで右クリック→Open Git Bash here を選んでbash立ち上げる
 リポジトリをクローンする
  git clone https://github.com/lshqqytiger/stable-diffusion-webui-directml && cd stable-diffusion-webui-directml && git submodule init && git submodule update
  ※確か上記コマンドを打ったはずだが、違う可能性あり。コピペ元のページはブラウザから閉じてしまったので、このコマンドラインだったか判断できず怪しいかもです。
  ※GitHubのstable-diffusion-webui-amdgpuのページに、directML対応しているよー「--use-directml」をオプション指定してねー的な記載があったのは記憶にありますが。。。

 

必要なパッケージをインストール

 コマンドプロンプトPowerShellを起動し、gitでクローンしたリポジトリディレクトリに入る
  cd stable-diffusion-webui-directml
 pythonの仮想環境をアクティベートする
  python -m venv dlc
  .\dlc\Scripts\Activate.ps1 → .\dlc\Scripts\activate.bat
 以下の3つのコマンドでパッケージをインストールする
  pip install diffusers==0.3.0
  pip install transformers
  pip install onnxruntime

 

モデルファイルを入手して所定のディレクトリに格納する

 stable-diffusion-webui-directml¥models¥Stable-diffusion¥

 に入れる。

 

webui-user.batにコマンドライン指定するパラメータを書き足す

  set COMMANDLINE_ARGS=
  ↓
  set COMMANDLINE_ARGS=--use-directml

 

2024/9/10追記:

以下の環境変数を設定しないと一部のベースモデルがうまく動かない&動いても生成が異常に遅くなる模様。どうやら一部のベースモデルを使おうとすると外部サイト(実行時のエラー出力を見るとhugging faceにアクセスしようとしている?)を見に行こうとする、ようだ。

  set TRANSFORMERS_OFFLINE=1

 

webui-user.batを実行

 エクスプローラーからダブルクリックで良い。

 しばらく待つとUI(ブラウザ)が自動で開く。

 

Stable Diffusion Web UI directML で画像生成した結果

立ち上がったStable Diffusion Web UIのpromptに「cat」と入力して生成した結果はこんな感じ。

あれッ?MacBook Proで生成するよりも綺麗かも!?

ONEXPLAYER mini Pro Ryzen版に入れたStable Diffusion Web UI directML で画像生成した結果

ONEXPLAYER mini Pro Ryzen版に入れたStable Diffusion Web UI directML で画像生成した結果

生成にかかった時間は1分ほど。

写真は残せていませんが、iGPUがフル稼働しているのをタスクマネージャから確認できました。

生成にかかった時間は1分ほど。いい感じ。

生成にかかった時間は1分ほど。いい感じ。

生成にかかった時間は1分ほど。いい感じ。

生成にかかった時間は1分ほど。いい感じ。

生成にかかった時間は1分ほど。いい感じ。

生成にかかった時間は1分ほど。いい感じ。

 

3つほど作ってみましたが、大体1枚1分前後。

 

たったの1分ですよ、1分!

 

2024/9/1追記:

ONEXPLAYER mini Pro Ryzen版はTDPを変更してCPUのパワーを好きに設定できるようなので、最大の28W設定で生成時間を見てみました。

ONEXPLAYER miin Pro のデフォルトのTDP設定は15W

ONEXPLAYER miin Pro のデフォルトのTDP設定は15W

TDPを最大の28Wに変更

TDPを最大の28Wに変更

TDP=28Wで画像生成したら44秒まで短縮された!

TDP=28Wで画像生成したら44秒まで短縮された!

 

TDP=28Wだと生成時間が44秒!15秒以上短縮されました!

 

フルパワーだと1分を余裕で切るんですよ!すげーッ!

 

古いとは言えdGPUを搭載しているMacBook Pro 15インチ 2015 が1枚生成している間に、ONEXPLAYER mini Pro Ryzen版は7〜10枚は生成できる、ってことですヨ〜!ゴイゴイスーッ!

 

いやあ〜これは捗りますわー!

 

ただ、あまりにちっちゃいので画面の文字も画像も小さくてみづらいのと、物理キーボードが別立てになってしまうので本体だけでプロンプトをガシガシ入力して画像をガンガン生成するような使い方は難しそう。

ドック経由でマウス、キーボード、ディスプレイを繋いで作業するのが良さげ。

(実際、本日やった各種インストールや生成テストはそんな環境でした。)

 

というわけで、結局物欲に勝てない、おっさん僕なのでした🙃

 

 


スポンサーリンク

 


 

MacOS用の良さげな生成AIツール「DiffusionBee」というものを発見

皆さん、AIしてますかーッ!

 

ここ一週間、生成AIにどっぷりハマっている、おっさん僕です!😁

 

手持ちのMacBookたちに Steble DIffusion Web UI AUTOMATIC111 を導入してみたもののパワー不足?で生成時間が長く、少しでも時間短縮できないかとあれこれ試していますがなかなかうまくいきません。

パワーのあるPCを導入するのが最も手っ取り早い解決策だと分かってはいますが、それは長い目で見ていずれ導入できればいいなあ、といった感じ。お金も掛かりますしね。

 

で、Stable Diffusion Web UI の生成時間短縮の取り組みは一旦脇に置いて、視点を変えてMac用の別の生成AIツールがあるんじゃないかと思ってちょっと調べてみたところ、良さそうなものを見つけました。

 

「DiffusionBee」というアプリで、Intel Macにも対応しています。

diffusionbee.com

 

こちらのページで紹介されているのを見つけて導入してみた次第です。

https://www.kazukiyoko.com/post/mac用画像生成aiアプリ【diffusionbee】(ディフュージョン・ビー)徹底攻略-完全利用マニュアル

 

MacOS 12.0 Monterey以上に対応していると記載ありましたので 我が MacBook Pro 15インチ 2015 でも使えるんじゃないかと期待してdmgファイルをダウンロード、いざインストールしようとしたところアプリアイコンが🚫状態になっていまして、どうやら Monterey には非対応な感じ。

少なくとも過去には対応していたであろうと考えて探してみたらGitHubにあったので、対応している中で最も新しい2.2.1(Beta)を導入しました。

ついでなので MacBook Pro 13インチ 2017 用に最新版の2.5.3もダウンロードしておきました。

 

導入していざ画像生成したところ Stable Diffusion Web UI AUTOMATIC1111 よりも速く、体感で3〜4割ほど時間短縮された感じ。

MacBook Pro 13インチ 2015 の方も同様に、速くなったと体感できました。

もしかするとdGPU/iGPUをうまく使って生成しているんじゃないかと思いアクティビティモニタで監視してみたところ、まさにその通りでした。

 

15インチの方はdGPUフル稼働に加えiGPUも少し使っている気配がありました。

13インチの方はiGPUフル稼働していていました。CPUはそれなりに使ってますがStable Diffusion Web UIのCPUのみよりは負荷が少ない感じ。

Stable Diffusion Web UI AUTOMATIC1111では17インチの方はdGPUのみ使用でiGPUは使っておらず、15インチの方はそもそもGPUを使った生成ができずCPUを指定していたので、この差が生成時間に現れていると思います。

MacBook Pro 13インチ 2017 で生成した画像はこんな感じでした。

モデルはDiffusionBee標準を使っています。

DiffusionBeeで生成した画像

DiffusionBeeで生成した画像

DiffusionBeeで生成した画像

DiffusionBeeで生成した画像

結構いい感じです!👍

 

Stable Diffusion Web UI はコマンドラインから実行させる必要がありますが、DiffusionBeeはアプリケーションアイコンをクリックすれば動かせるのも、手間がなくて嬉しいですね。

 

ただ、機能面では少し制約があるみたいです。

・2.2.1(Beta)はLoRAに非対応。SDXL、FLUX.1に非対応。

・2.5.1(2024/8/28時点で公式ページからダウンロードできるもの)はLoRA対応だが、SDXLとFLUX.1には非対応。

・2.5.3はLoRA対応、SDXLとFLUX.1に対応してそう(modelの導入画面上は)だが、手持ちのモデルを入れようとしても反映されない。

まさに絶賛開発進行中、といったところでしょうかね。

 

ともあれ、StableDiffusion Web UI と比べてパフォーマスが良く手持ちのMacBookたちでもギリギリ実用になりそう(とはいえ数分は待つ必要ありますが)なので、ローカル環境ではしばらくDiffusionBeeで遊ぶことができそうです。

 

ちなみに、超非力な MacBook 12インチ 2017 (core m3 1.2GHz、SSD256GB、メモリ8GB)でもDiffusionBee以外のアプリを動かさない状態であれば時間が掛かるものの、画像生成ができました。(13インチ、15インチはいずれもメモリ16GB)

DiffusionBeeで生成した画像

DiffusionBeeで生成した画像

 

というわけで、まずは金を掛けずにローカルな生成AI環境構築を模索している、おっさん僕なのでした!

 

 


スポンサーリンク