皆さん、AIしてますかーッ!
生成AIが面白すぎて動画まで作ってしまった、おっさん僕です!
いやあしかし、技術の進歩ってスゴいですね!
生成AIに対し「プロンプト」と呼ばれる「何を出力したいか」を指定する言葉を与えてやると、何やらいい感じの画像が得られるんですヨー!🤩
近未来的な画像、サイボーグもお手のもの!
画像生成AI
ガチな人たちは自前のPCに潤沢なメモリと高性能なGPUを載せて、自前の生成AI環境を駆使していろんな画像を作っているそうです!
おっさん僕は高性能PCを持っていないので、生成AIサイトを使って画像作りを始めてみました。(後で触れますが、Stable Diffusion Web UI AUTOMATIC1111 という生成AIツールを自前PCに入れて試してはいます。)
生成AIサイトはいくつもあってそれぞれ特徴が異なるので、まず最初に迷うのは「どれを使えば良いか」でした。
無料で使える期間や生成数などの制約が設定されているものの、だいたいどのサイトもお試しすることができました。
その中で、KREAという生成AIサイトがとても使い勝手が良く制約も少ないもので、気に入って使い始めました。
この生成AIサイトは画像出力が非常に速く、呪文を書き換えるとリアルタイムに画像に反映される優れたサイトです。
また、呪文だけでなく図形の配置と組み合わせることで、画像が次々と変化するのでとても面白い!
図形は丸・三角・四角・フリーハンドで配置でき、色、サイズ、向きも自由に変えられます。
この図形の形や配置する位置、順番(前面、背面)を変えると、画像が次々と変化していきます。
先日作った「少佐的な何か」「攻殻機動隊的な何か」な画像もこのサイトで作ったものです。
それともう1つ、1日あたりの生成数に制限があるものの高画質な画像が得られる以下の生成AIサイトも良い感じです。
動画生成AI
画像が作れたら、次は動画を作ってみたくなるのが人情ってもの(なのか?)🤣
なので、動画生成AIについても手を出し始めました!🤩
まずはRunwayという動画生成サイトを使ってみました。
プロンプトの書き方が画像向けとかなり違うところがあるので、サンプルにあるものをそのまま使うところまでしかやっていませんが、ベースとなる画像とセットで与えてやるだけで動画が出力されました。
ベースとなる画像は画像生成AIサイトKREA で作った以下のものを使いました。
動画生成AIサイトはこの画像とサンプルのプロンプトから、こんな動画を作ってくれました。
画像生成AIサイトで作った兵士画像を動画生成AIサイトに食わせてサンプルの呪文で生成した動画。AIだけで映画が作れるんじゃないかってくらい、スゴい!#生成AI #AI画像 pic.twitter.com/gJx1VlFi10
— 戸田ンザルプくまお (@todansalp) August 27, 2024
す...凄い...凄すぎる...ッッッ...!!!
映画のワンシーン的な動画になってるじゃないですか!
いやあ恐れ入りました!
ほとんど手間なくここまでやれてしまう生成AI、これはもう間違いなく「沼」。
おっさん僕の新たな趣味で決定ですヨー!!!
自前の生成AI環境「Stable Diffusion Web AI」
冒頭で少し触れた、自前の生成AI環境についてです。
検索して特によく目にしたのが「Stable Diffusion」 という生成AIです。
この生成ツール、単体だとおそらくコマンドラインで色々指定してやらないといけなさそうな感じがしますが、これをブラウザ上で操作できるようにした「Stable Diffusion Web UI」というものがあり、簡単に使うことができそうでした。
面白そうなので、試しに我が家にあるMacBook Pro 15インチ 2015とMacBook Pro 13インチ 2017に入れてみました。
そもそもこの手の生成AIはNVIDIAの高性能でメモリがたくさん載っているGPUが必要らしいのですが、我が家のMacBook Pro 15インチ 2015はdGPU搭載しているもののAMD RADEONでメモリは2GB、MacBook Pro 13インチ 2017 はデュアルコア Intel Core i5 2.3GHzのiGPU ntel Iris Plus Graphics 640 と、必要条件を満たしていません。
が、色々調べていると必要条件を満たしていなくても動かす方法はあるようでした。
動きそうなものとして「Stable Diffusion Web UI AUTOMATIC1111」というものがありましたので、これを採用。
これはM1/M2 Macで動作実績があるとのことでした。
以下のサイト(とかその他いろんなサイト)を参考に導入。
吊るしの状態ではちゃんと動かないので、設定ファイルの内容を色々書き換えることで動作するところまでは行けました。
が、
15インチの方はdGPUがギリギリまで画像生成を進めてくれるようですが、最後のところでメモリ不足エラーを出して出力ができない。
MacOSでStable Diffusionによる画像生成はMPS(Metal Perfomance Shaders)を使って行う設定で、15インチはこの処理でdGPUを使うもののメモリが足りず(Stable Diffusionは4GB以下だとメモリ不足エラーになりやすいらしい)落ちている、と思われます。
設定ファイルを弄ってdGPUではなくCPUで生成するように変更したら出力はできるようになったものの、結構時間が掛かる。
プロンプトに「cat」の単語1つだけ指定した生成で4〜5分くらいかかる感じです。
M1/M2 Mac ではMetalがGPUのメモリをうまく割り当てる仕組みがある?みたいで(設定ファイルで負荷を下げるような調整をやってやる必要はあるっぽいですが)、ちゃんと動作するらしいです。出力にかかる時間も恐らく我が家の古いIntel Macより断然速そう。
追記:
設定ファイル「webui-macos-env.sh」にVRAMが少ないことを示す「--lowvram」パラメータを追加したところ、メモリ不足にならずに画像出力ができるようになりました。ただ、時々メモリ不足を起こすことがあって、若干不安定です。
プロンプトにそこそこ長い呪文を入れて試してみたところメモリ不足にはならず10分程度で画像が得られましたので、GPUが効いているっぽいです。
13インチの方はiGPUしか持たないのでCPUで生成するように設定ファイルの変更が必須で、その状態でプロンプト「cat」の生成に約8分かかる有様。
ちなみに、こんな画像を出力してくれました。
あら、割といい感じじゃないのー👍
うまく出力できるのは良かったですが、プロンプトの指定が長く多くなるほど生成にかかる時間も長くなりそうで実用とは程遠い、でしょうねえ...。
下手すりゃ生成に時間単位掛かることを想像すると、手持ちの自前環境で遊ぶのは厳しいなあ...。
もうちょっと速く生成できる環境が欲しくなりますね。
秒で出力しろ!というつもりはありませんし、そもそも軍資金もありませんので、せめて1枚30秒〜1分くらいで出してくれるお手頃な環境を探し求めることになりそうですw
追記:
Stable Diffusion Web UI をオンラインで手軽に使えるサイトがありました!
手元PCにインストールしたものよりシンプル(設定項目がほとんどなく、モデルの使い分けも出来なさそう)ですが、どのようなものなのかのお試しに良さそうですね。
プロンプト「future city, night, lighting cars, flying gunship」を使って生成したら、こんな感じでした。
プロンプト「future city, night, lighting cars」だとこんな感じ。
と言うわけで、生成AIという新たな「沼」に足を突っ込み始めた、おっさん僕なのでした!
スポンサーリンク