こんにちは、DOPPELGENGERです。
最後まで読めば一応Radeonでの構築方法書いてあるよ。正しいかは知りません。
各自ChatGPTとかで聞くとよいでしょう。

一旦構築までの段取りという事で前編にします。
気が向いたら後編を書きます。

さて今回はいきなり時代が飛んで2025年大AI時代です。
既にAIで色々と絵を書いています。
ローカルで個人で楽しむぶんには問題は特にないでしょう。色々と。
売り出すとか金銭絡んでくると話は別で、このあたりの継続性については怪しいと思っています。

AMD環境で染めてる自分の環境、AI絵については2023年頃はだいぶ厳しかったようです。
当然その時代に手出してません。が、今は2025年状況が変わりました。
RDNA1環境なのでレガシーですが生成出来ています。

めっちゃかわいい。Checkpointは非公開です。各自自分で合うやつ探してね。
なおこれをダウンロードしてもメタ情報にプロンプト情報は刻まれていません。
Livedoorブログにアップした時点で加工されてるのでどうあがいても消えます。合唱。
00011-3121602726


00258-714975209

CPUは何でもいいです、メインメモリは多いと安定です。

静止画生成中のCPUメモリ消費状況
1


静止画生成中のGPU動作状況(強烈に消費電力制限入れ)
2


静止画生成してるプロンプトの類
3


4



・作り方
環境構築方法は0から100までChatGPTに聞いた。
OSとCPUとメインメモリ量とGPUがRadeonである事を伝え、どうやって構築したらいい?とか質問すればよいです。ページの最後にちゃんと例文書いてあるのでみてください。


・作るまでに必要な工程
根気と気合→大事。叡智な画像作りたいんだろ?お前ならきっとできる。
Stable Diffusion→インストールそのものは難しくない。ROCm?使っていません。DirectMLです。
Checkpoint→所謂画像作る上での絵の癖・モデル。色んなところに存在している。seaart.aiとか適当な所で探してダウンロードすればいいんじゃないかな。
Lora→指向性をもたせる情報、これがないと東方のキャラとか版権ものは再現不可能。一般的なモノしか作れないが著作権的な意味では使わないほうが安全。
起動プロンプトだけは指定しておこう。

ちなみにポジティブプロンプトとネガティブプロンプトだけは指定方法を調べておいたほうがいい。
特に指や足が分裂抑制はネガティブプロンプトが必須。

指定は英語じゃないと全部無視されます。
lowres,worst aesthetic,bad quality,worst quality,bad anatomy,sketch,jpeg artifacts,scan artifacts,lossy-lossless,ugly,poorly drawn,signature,watermark,Abnormal number of fingers, deformed hands,Six fingers,


翻訳するとこう。
5


あとは最低でもメモリ8GBのRAMとAMD GPU向け起動オプション。
メモリ8GBだと ---lowvram を指定しないと全く動きません。
解像度も良いところ768x1024です。アップスケール設定いれるとブチ壊れます。

それと演算もRadeonはセンシティブです。RX9070XTなら問題ないのかもしれんけど。
FP16で起動すると動作は早いのですがInpaintなど部分書き換えがまともに動きません。

とりあえずchatgptに永遠と聞いても解決しなかったのでググったら普通に解決しました。
なのでレガシーなRadeonでメモリ8GBな人は下記設定にしておくといいでしょう。

webui-user.bat
@echo off
set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS=--skip-torch-cuda-test --use-directml --lowvram --opt-split-attention --no-half --precision full --no-half-vae
call webui.bat




ChatGPTに聞いた構築の再現チャット

質問
あなた:
Windows11-64bit メモリ64GB Ryzen9-3900X RadeonRX5700XT でStable Diffusionによる静止画作成をローカルで行いたい。起動までの段取りを教えてほしい。URLやローカルパスは変に省略せずフルパスで書くこと。ただしユーザ名前依存の場合はXXXXXとかでよい。

回答

ChatGPT:
承知しました。ご指定の環境で Stable Diffusion をローカル実行して静止画生成するまでの流れを、段階ごとにフルパス込みでまとめます。ユーザ名に依存する箇所は XXXXX として記載します。
1. Python と Git の導入

Stable Diffusion WebUI(AUTOMATIC1111版など)は Python と Git を必須とします。

Python 3.10.6 (推奨)
ダウンロード:
https://www.python.org/ftp/python/3.10.6/python-3.10.6-amd64.exe
インストール先例:

C:\Python310\

Git for Windows
ダウンロード:
https://github.com/git-for-windows/git/releases/download/v2.45.2.windows.1/Git-2.45.2-64-bit.exe
インストール先例:

C:\Program Files\Git\

※インストール時に「環境変数 PATH に追加」へチェックを入れてください。
2. Stable Diffusion WebUI の取得

作業用ディレクトリを作成して Git Clone します。

例:

C:\AI\StableDiffusion\

コマンドプロンプトを開き、以下を実行:

cd C:\
mkdir AI
cd C:\AI
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

git clone https://github.com/lshqqytiger/stable-diffusion-webui-amdgpu.git
cd stable-diffusion-webui-amdgpu
git submodule update --init --recursive


結果として以下に配置されます:

C:\AI\stable-diffusion-webui\

3. モデルファイル (Checkpoint) の配置

Stable Diffusion 本体の学習済みモデル(例:v1-5-pruned-emaonly.safetensors)を取得し、指定ディレクトリへ置きます。

ダウンロード例 (HuggingFace から):
https://huggingface.co/runwayml/stable-diffusion-v1-5/blob/main/v1-5-pruned-emaonly.safetensors

保存先:

C:\AI\stable-diffusion-webui\models\Stable-diffusion\v1-5-pruned-emaonly.safetensors

4. 初回起動

webui-user.bat を実行します。

フルパス:

C:\AI\stable-diffusion-webui\webui-user.bat

初回起動では自動的に依存ライブラリがダウンロード・インストールされます(10分以上かかる場合あり)。
5. WebUI アクセス

インストール完了後、コマンドプロンプトに以下が表示されます:

Running on local URL: http://127.0.0.1:7860/

ブラウザで開くと WebUI が使用可能です。
6. 実用ポイント

GPU は Radeon RX5700XT なので、CUDA ではなく DirectML バックエンドで動作します。
自動的にインストールされますが、必要に応じて手動で --use-directml を webui-user.bat に追記します。

例:

set COMMANDLINE_ARGS=--use-directml

ファイル編集先:

C:\AI\stable-diffusion-webui\webui-user.bat

まとめ

Python 3.10.6 & Git をインストール

C:\AI\stable-diffusion-webui\ に Git Clone

モデルを C:\AI\stable-diffusion-webui\models\Stable-diffusion\ へ配置

webui-user.bat 実行

ブラウザで http://127.0.0.1:7860/ にアクセス


これで出来ないなら、ここでコメントに質問するよりは都度ChatGPTに聞いたほうが早いです。
あくまでこう質問するとよい、こう回答が返ってくるの例です。