【初心者向け】Stable Diffusion web UIの拡張機能ControlNetで重要な9の技術を実践で学ぼう
What you'll learn
- StableDiffusionでのControlNetの使い方
- 高度な画像生成スキル
- 入力した画像の一部だけ修正する方法
- 画質を上げる、アップスケーリングの方法
- 入力画像の奥行きを震度マップに変換し、それをベースに画像を生成する方法
- 入力画像から棒人間を検出して、それをベースに画像を生成する方法など
Requirements
- Stable Diffusionを導入済み
Description
この講座は「ジェネレーティブAI(画像生成AI)入門【Stable Diffusion】-プロンプトでハイクオリティな画像制作が可能」の補足教材です。
補講とお考えください。
そのため、上記講座をすでに受講済みの方が対象です。
よくご確認の上、受講お願いします。
<講座内容>
ControlNetは、lllyasvielによって開発されたStableDiffusion web UIの拡張機能です。これは、ノイズから高品質の画像を生成する生成的敵対ネットワーク(GAN)の一種であるStable Diffusion Modelに基づいています。
この技術はStable Diffusion web UI「AUTOMATIC1111」にたった二週間程度で搭載されました。
現在では一般的に「ControlNet」というと、このAUTOMATIC1111の拡張機能としての「ControlNet」を指して使います。
ControlNetは、「画像生成AIにおける二度目の革命」と言われるほど非常に高いポテンシャルと画期的な機能を搭載しており、さまざまな機能によって、例えばtxt2imgにおけるガチャ要素を極限まで排除できます。
リアルなポートレート、3Dキャラクター、ファンタジー風景、ドット絵、抽象的な芸術など、さまざまなスタイルの画像を作成するために使用されています。
ControlNetに搭載されている機能の中から9つを厳選して学習します。
SoftEdge:入力画像から大まかな線画を作成し、それをベースに新たに画像を生成(cannyとの違いはアルゴリズム)
mlsd:直線を検出しそれをベースに新たに画像を生成(主にインテリアや建物に使用)
Openpose:入力画像からキーポイントを検出(棒人間)、それをベースに新たに画像を生成
Scribble:手書きのラフ画をベースに新たに画像を生成
Inpaint:入力した画像の一部だけ修正できる
Instruct Pix2Pix:「Instruct Pix2Pix」で画像を指示通り書き換える
Lineart:入力画像を線画に変換し、それをベースに新たに画像を生成
Tile:画質を上げる、アップスケーリング機能
reference_only:顔を固定して別の構図の画像を生成
しかし、実際に使ってみると、どのようなときにどのようなモデルを使えばいいのかわかりにくいのも事実です。
ですから、この講座では、Controlnetの15程度ある機能の中から、9の主要な使い方を70分で解説していきます。
この講座を完全に受講し終わると、あなたの画像生成技術は強固たるものになるでしょう!!
Who this course is for:
- Stable Diffusionで高度な画像生成をしたい方
Instructor
2022年後半から急速に注目を浴びている生成系AIのひとつである、画像生成AIが得意分野です。
画像や動画の生成分野でジェネレーティブAIが急速に進化しており、従来の技術では実現不可能だったことが実現可能になってきており、ジェネレーティブAIの分野が注目を浴びています。
ジェネレーティブAIの基本となる画像生成AIの仕組みについてもっと詳しく知りたい方は、僕のコースで基本を学んで見てください。
ちなみ本業は全く別のことをしています↓↓
営業力を向上させる独自のノウハウと思考術を発信中。
コミュ障なのに飛び込み営業→全国2位→訪問営業会社を設立。法人5期目。
のべ20万人以上に訪問営業を経験。
サブ事業でトランクルームを2店舗と延べ1万人以上が受講したUdemyで営業スキルなどを教えるオンライン講師をしています。
対面営業の専門家、GoogleビジネスプロフィールやShopifyの専門家としてビジネスにおける情報コンテンツを発信しております。
自らも実店舗を営んでおり、オンラインとシームレスに連携する方法やマップ集客の仕組み化で売上を継続的に伸ばすメソッドも教えています。