最近『誰でもプロ級のイラストが描ける』、『Midjourneyより凄い』など、話題の絶えない『Stable Diffusion』。以下の作例にもある通り、建築やインテリア、絵画からキャラクター生成まで、無限の可能性を感じます。
今回の記事ではそんな『Stable Diffusion(公式サイト)』の始め方から使い方のコツ、更には、独自で作成した作例のPrompt(AIへの命令文)まで公開して徹底解説していきます。
Stable Diffusionで作成した建築
Stable Diffusionで作成されたキャラクター
今回Stable Diffusionで作成したイラストのプロンプトを無料配布しています
このページの目次
Stable Diffusionはドイツのミュンヘン大学の研究チームが開発した「Text-to-Image(文字列から画像)」モデルで、要するに流行りの「画像生成AI」です。
コードが一般公開されており、料金も無料で使うことができます。
ただ、使用には8GB以上のメモリを持つPCが推奨されているため、現段階ではStable Diffusionを組み込んだアプリなどは別にしてスマホやタブレットで使用するのは難しいでしょう。
主な出資元となる『StabilityAI』
但し、Stable Diffusionは学習データにweb上で公開されている膨大な量の画像を使用しており、当然その中には著作権で保護されているものもあるため、研究チームに出資したStability AIには複数の訴訟がされています。
しかし、現状ではStable Diffusionで生成された画像には権利は発生しないとし、用途はユーザーの自由となっています。
また、Stable Diffusionで画像を生成するための命令文(プロンプト)を生成するための『プロンプトエンジニアリング』という概念が登場するほど『どうすれば良い絵を描かせることができるか?』は重要なテーマとなりつつあります。
なので、もしかしたら今後、『生成した絵には権利が発生しないが、絵を生成するためのプロンプトには著作権が発生する』といった事態になることもありえるかもしれませんね。
この記事では、記事を執筆する上で実際に生成した画像のPromptを無料配布しているので、是非みなさんもこのPromptを元に自分なりのアレンジを加えてみてください。
今回Stable Diffusionで作成したイラストのプロンプトを無料配布しています
結論から言うと「何でも」です。
しかし、現在人気の高いトピックとなっているのは、異世界風の風景や建築、オリジナルのアニメキャラなどです。
Stable Diffusionリリース当初話題となった『乗馬する宇宙飛行士』
あり得ないはずの構図がStable Diffusionでは写真のようなリアルさとともに実現されています。
今回Stable Diffusionで作成したイラストのプロンプトを無料配布しています
AIの進化は、デジタルアートやグラフィックデザインに革命をもたらしています。特にStable DiffusionやMidjourney、最近ではDALL‐Eのような先進的な画像生成AIは、ユーザーが指定したテキストから高品質な画像を生成できるため、広告、出版、製品デザインなど多岐にわたる商業分野でも注目されています。
しかし、これらの技術を商用目的で利用する場合は著作権、肖像権、および倫理的な問題を念頭に置く必要があります。
AIによって生成された画像は、従来のアート作品とは異なる著作権の問題を抱えています。
AIが生成した画像は、そのアルゴリズムや学習データに基づいているため、著作権の帰属は複雑になります。
多くの場合、AIを提供する企業が生成された画像の使用権を持っていますが、これはサービスの利用規約に依存します。したがって、商用目的でAI生成画像を使用する前に、これらの利用規約を注意深く確認することが重要です。
では、Stable Diffusionの利用規約ではどうなっているのか?起業LOG編集部で実際に確認し、まとめてみました。
Stable Diffusionで生成された画像は、一般的に商用目的での使用が可能です。
ただし、これは法律に違反しない、個人への害を含まないコンテンツに限定されます。ライセンスでは、法律違反、個人への害、不正な個人情報の使用、偽情報の拡散などが禁止されています。
使用するStable Diffusionのモデルによっては、商用利用が認められていないものもあります。各モデルの商用利用の可否は、事前に確認する必要があり、CIVITAIなどのプラットフォームでライセンスの詳細を確認できます。
img2img機能を使用する際、参照元の画像に著作権が存在する場合、その画像を基にした新しい画像の生成は著作権侵害になる可能性があります。したがって、img2img機能を使用する際には、参照元画像の著作権を確認し、適切に使用する必要があります。
AIによって生成された画像が実在する人物を含む場合、肖像権の問題が生じる可能性があります。また、文化的、社会的感受性を尊重し、不適切または攻撃的な内容を避けることも重要です。商用利用においては、これらの倫理的考慮を重視する必要があります。
AI画像生成ツールの利用者は、商用利用のためのガイドラインを提供する企業の指示に従う必要があります。例えば、OpenAIのDALL-Eは特定の使用条件を設けています。これには、第三者の権利を侵害しない、人種的または性的差別を助長しない、暴力的または不快なコンテンツを避けるなどの規則が含まれています。
Stable Diffusionはオープンソースとなっているため、基本的には誰でも無料で使うことができます。Stable Diffusionではシステムに搭載された潜在拡散モデルというアルゴリズムによって画像を生成します。
一見複雑ですが、我々ユーザーはただ出力したい画像のイメージをできる限り言語化して、単語ごとにカンマで区切って入力するだけです。その入力したテキストのことをプロンプトと呼びます。
その他細かいパラメーターをいじったりなどすることはできますが、どのような画像が生成されるかは大部分がプロンプトに依存しています。また、プロンプトは英語で単語ごとに区切って入力する必要があるため、英語が苦手な方はChatGPTなどを利用してみると良いかもしれません。
先述の通り、Stable Diffusionはオープンソースとなっているため、Stable Diffusionを搭載したサービスなどを使ってWEB上で動作させる方法と、自前のPCに環境を構築してローカル環境で利用する方法の2通りがあります。
この記事を読んでいる方は、とりあえず試しにStable Diffusionを使ってみたいという方が多いと思いますので、今回はStable Diffusionを気軽に使うことができるWEBサービスをご紹介致します。
Stable DiffusionをWEB上で利用できるサービス一覧
Mage.spaceの起動画面
まずは無料かつアカウント不要で最も気軽に使えるMage(https://www.mage.space/)から。
使い方はまさにシンプルで画面中央の入力ボックスにプロンプトを入力するのみです。
入力ボックスの左下に「Select Model」とあるように、Mageには136ものモデルを使うことができますが、無料版では1つしか使えない点には注意が必要です。
しかし、無料版でも有料版でも枚数に制限がないのは嬉しいですね。
Dream Studioの起動画面
次にDream Studio(dreamstudio.ai)について解説します。
上述のMageとUIと料金体系に違いがあるものの、基本的には似たようなサービスとなっているためこちらもおすすめです。
Mageが月額課金制なのに対してDream Studioではクレジット制を採用しており、最低課金料金の10ドルで1000クレジットが付与される他、新規アカウント登録でも無料でクレジットがもらえます。
Hugging Faceの起動画面
Hugging Face(huggingface.co)は上記2つのサービスとは少し毛色が違い、AI開発用のプラットフォームとしての側面がメインのサービスになります。
料金は月額9ドルで、画像生成の他にも主に開発向けになりますが多様なツールが利用可能です。
これはStable Diffusionで使う学習済みのデータのことですが、細かいところは気にしなくてOKです。今回は一番メジャーなChilloutmixを使っていきます。
緑色のCodeからDownloadZipをクリックします。
ダウンロードしたフォルダを解凍したら『Chilloutmix.ipynp』というファイルがることを確認してください。但し、まだ開かなくて大丈夫です。
Github:Chilloutmix
Download:Chilloutmix
Google Colaboratoryは、Pythonなどのコードをweb上で実行できる無料サービスです。
Colaboratory へようこそ - Colaboratory - Google
先程解凍したフォルダから見つけた『Chilloutmix.ipynb』をGoogle Colaboratoryの『アップロード』にドラッグ&ドロップします。
Google Colaboratoryの左側にある▶ボタンをクリックしてプログラムを実行します。
PCのスペックにもよりますが処理の終了まで数十秒〜数分かかることがほとんどです。
上記の処理が完了すると最下部に青文字でURLが表示されます。これの『Running on Public URL』という方をクリックするとStable Diffusionが起動されて準備完了です。
処理が完了するまで数分かかることがほとんどです。
Stable Diffusion WebUI
今回Stable Diffusion の解説記事を書く上で実際にStable Diffusionを使っていて思ったことがあります。それは『習うより、慣れろ』です。Stable Diffusionに関しては色々とネットで情報を集めるよりもまずは自分でプロンプトを書いてみるのが一番の近道だと思います。
今回は編集部が実際にSlackのチャットボットのプロフィール画像をStable Diffusionを使って生成していきたいと思います。
Slackbotのデフォルト画像を変更してみましょう
今回はSlackのbot用の写真なのでオフィスやPCなどのキーワードを入れます。
せっかくなのでアニメ風のキャラクターを生成します。アニメといったらジブリかな?と思いStudio ghibli anime styleを入れました。
【Prompt】studio_ghibli_anime_style style 1girl, sitting,desk, working
さぁ、先程のPromptでできた絵がこちらです。
うーん。超ひどいかと言われるとそうではないものの、まだなにか足りないようです。
ここで、更にクオリティを上げるためにNegative Promptを活用していきます。実際に加えたプロンプトは以下の通りです。
(painting by bad-artist-anime:0.9), (painting by bad-artist:0.9), watermark, text, error, blurry, jpeg artifacts, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, artist name, (worst quality, low quality:1.4), bad anatomy
ここでネガティブプロンプトのコツをネットで調べてみると、いくつか『呪文』と呼ばれる鉄板キーワードがあったのでそちらを追加してみました。
特にpainting by bad-artist-anime:0.9)あたりは知らないと絶対に出て来ないと思うのでここで抑えておきましょう。
このプロンプトで作成すると以下のような画像が出力されました...!
かなりクオリティが上がったように感じます!
先程生成した画像の構図がかなりいい感じなのでここで『seed』を固定します。記事の後半で解説していますがSeedとは簡単にいうと変数みたなものです。今回は途中で何度かプロンプトをいじりながら合計で30枚ほど作成したのでいくつか掲載しておきます。
SlackのプロフィールがStable Diffusion生成のカスタマーサポートに進化しました
結論から言うといくつか存在します。
そもそも上記で紹介した方法は繊細な微調整などを加えてホンモノのプロが描いたイラスト並の画像を出力したい方向けといっても良いでしょう。
以下のツールはStable Diffusion WEB UIのように細かい調整やプロンプトの深掘りといった技は使えないものの、手軽に『Text-to-Image』を体験することができます。
お絵かきばりぐっとくんは九州大学の学生が開発したツールでStable DiffusionのAPIを使ってプロンプトをLINEで入力できるようになっているため気軽に画像生成を楽しめます。
しかし、入力できるのがプロンプトのみなのであまり高度な制作には向かないといえるでしょう。
Stable Diffusion Onlineも同じくStable DiffusionのAPIを利用して作られたサイトで本家ほどの入力はできないものの、お絵かきばりぐっとくんよりは細かい画像を出力できるイメージです。
本家の始め方を見て『ちょっとハードルが高いかも...』と感じたかたはこうした簡易版を使ってみて『もっと高度な画像を出力したい』と思ったらStable Diffusion WEB UIを始めるといった流れでもいいかもしれませんね。
この章ではStable Diffusionを使って画像を生成していく上で抑えておきたい専門用語を解説します。
ここにないものありますが、とりあえずはここにある単語の意味さえ理解しておけば困ることはないでしょう。
Stable Diffusion専門用語解説
Stable Diffusionに絵を描いてもらう上で最も基本となる命令文のことです。最初は漠然とした単語でもいいので描かせたい絵をできるだけ細かく言語化しましょう。
今回の記事ではStable Diffusionを使った上級イラストのプロンプトを公開しているので是非コピペして、一気に飛び級して神絵師の仲間入りしちゃいましょう。
逆に、『こういうのはNG』と先に言える場所です。例えば写実的で写真のような画像を出力してほしい場合はここに『Painting』と書いておけば絵画風の画像が出力されることは避けられます。
簡単に言うと、入力されたPromptに対してどのようなアプローチを取るかの型のようですが、具体的にどのサンプリングメソッドがどういった構図に強いなどの方法論はまだわかっていません。
画像生成を実行する上でのフィードバック回数のことで、増やせば増やすほど精密な画像になっていきますが、その分時間がかかります。また、精密になるものの自分の描かせたかったイラストに近くなるわけではないので注意。デフォルトは20。
stable Diffusionでは、画像に対してバッチという単位を使います。バッチカウントはそのプロンプトで何回画像を生成するか、バッチサイズは何枚作るかです。同じプロンプトで一気に何枚も画像を作りたい方はバッチサイズを増やすことで何枚も作れます。
生成する画像のサイズです。デフォルトの512×512が最もいい画像が生成できると言われています。
入力されたプロンプトに対してどれくらい忠実に画像を生成するかの数値です。デフォルトの7.0前後が推奨されています。
シード値のことで、-1に設定すると毎回ランダムに画像が生成されます。生成がうまくいったときはそのシード値を固定することで同じような構図を再現できます。
この章ではStable Diffusionを使って生成された作例を紹介します。
各作品にはPromptとNegativePromptが見れるようになっているので、似たような画像を生成したいと思った方は是非コピペして使ってみてください。
とはいえ、同じPromptを用いてもその他の条件によって全く同じ画像が生成できるわけではないため、ある程度自力での試行錯誤は必要です。
今回は流行りの『Stable Diffusion』の使い方と実際のプロンプトについて解説していきました。
Stable Diffusionではプロンプトを固定すればある程度に似たような画像が生成できるので、誰でもプロ級のイラストを一瞬で生成できてしまいます。
しかし、Seedやその他の要素によって微妙にニュアンスが違うなどある程度のガチャ要素もあるのでハマる人はハマっているようです。
是非、みなさんもStable Diffusionを使って自分だけの上級イラストを作成してみてくださいね。