実録:AIで描く漫画の実際 ~体験して見えた、その実力と課題!!
生成AIを漫画制作の補助に使ってみたいが覚える時間を取りにくい方へ。生成AIはどの程度使えるものなの? という疑問に答え、「AIの現在」を知りたい人向けの漫画実験企画をお届けします。 【もっと写真を見る】
この企画は、生成AIを漫画制作の補助に使ってみたいが覚える時間を取りにくい方、「すごい!」と称賛するだけで使ってる例をあまり見ないケースも多い生成AIはどの程度使えるものなの? という疑問に答え、「AIの現在」を知りたい人向けの漫画実験企画です。 こんにちは、はじめまして。漫画界の生き恥こと野火城と申します。 今回はアスキーさんで「画像AI使ってみた/AI漫画実験企画」をやらせていただける事になりました。なんと連載です。しばらくお邪魔しますのでよろしくお願いいたします。 その成り立ちから様々な議論を呼んでいる画像生成AIですが、少なくとも2024年3月現在日本の法律では使用が許可されており、存在を完全に無視する事はできません。かといって全てを肯定して受け入れるのも難しい。 だからこそ、必要以上に恐れず、実際にどのような事が出来るのか、具体的に検証する――それが画像AIとの誠実な向き合い方なのではないでしょうか。 「画像AIの技術がすごいという賞賛記事はよく見るが、それは本当に創作活動で実戦的に使えるものなのか? 『AIに仕事を奪われる』と『今のAIは実戦では使い物にならない』という真逆の意見を多数見るが、この二つは両立しないのでは? 実際はどっちなんだ?」「画像AIを試してみたいけど難しそうだし、使い方を覚えるような余裕もない」「使用した時のリスクがよくわからなくて怖い」などなど、巷に溢れる画像AIの様々な評価への疑念を明らかにするべく、筆者が体を張って挑戦した実録レポートです。同じ疑念を持つ皆様への参考になるよう頑張ります。 まず自分の基本スペックをお話します。 仕事・趣味合わせて今までの人生でアナログ・デジタル合わせて1万枚くらいは漫画を描いてきました。なので、漫画を描く事については一般の方よりは詳しいはずです。 ですが、ITやプログラミング等、デジタル技術についてはからっきしです。 なんとパワポすら使った事がありません。 自信を持って「使える」と言えるソフトはクリップスタジオのみ! 果たしてこんな漫画フリークのデジタル音痴が、最先端テクノロジーの画像AIを使いこなし、AI絵のみで漫画を作り上げられるのでしょうか。 今回の実験はあくまで一漫画描きの挑戦であり、技術系に明るくない人が使うとこうなるよ、という具体例にもなっています。技術者の方にも、デジタル音痴はこういう壁にぶち当たるよ、という参考になるかもしれません。 そのようなデジタル音痴が紆余曲折を経た結果、2024年3月現在のAI漫画実験の結果はこうなっています。 今回は第1回なので、世に流通する一般的な漫画と比較しやすいよう「カラー+白黒」でAI漫画を制作してみました。 (次ページ:AI生成で制作した漫画「浦AI(あい)太郎」) 「浦AI(あい)太郎」 作:野火城(with Generative AI) ※本作品の制作には生成AIを使用しています。 それではこのAI漫画を元に、制作過程を説明していきます。 (次ページ:生成AI漫画の制作過程を解説) 1/クリスタでネームを描く 下準備として、漫画のシナリオ、ネームを考えます。使用するソフトは、イラスト・漫画制作ソフト「CLIP STUDIO PAINT」(通称:クリスタ)です。 画像AIの実験のためとは言え、出来た漫画がつまらなくては「いくら絵が綺麗でも実用には耐えない」という安易な結論になってしまいがちなので、ネームは手描きと変わらない100%人力、全力で「AIを使用した漫画」という内容に徹しました。上手くいっているかはわかりませんが、少しでも楽しんでいただければ幸いです。 ネームが完成したら、満を持してAIの登場です。 2/AIで生成しやすいキャラクターの外見を考えてプロンプトを作り、 表情やポージングのバリエーションを生成 今回主に使用したのは以下の画像AIモデルです。 ・ChatGPT4/DALL・E 3(※DALL・E 3はbingのimage createでも使用できますが、そちらは個人的、非商用目的に限定されており、商用活動には使用できませんのでお気を付けください) ・Adobe Ps/生成拡張 ・商用可の特定個人作家を集中学習していないSDXLモデル+自分絵LoRA まずは主人公のキャラクターを、DALL・E 3を使ってデザインします。 今回はキャラLoRAなどを作らず「AIがプロンプトのみで安定して生成できるキャラクター」というコンセプトでデザインを作っていきます。紆余曲折あった後、安定して出せるこのデザイン(プロンプト)に決定しました。 SDXLではこのデザイン(主に髪型)が上手く出なそうなので全部DALL・E 3で行こう! と今回はDALL・E 3で制作したのですが、漫画を作り終わった後にDALL・E 3の日本語プロンプトをそのまま英語にしてSDXLモデルで生成してみたら全く問題なく同じデザインが出せました。かなり強いプロンプトですね。次からはSDXLを主力にしても作れそうです。プロンプトを掲載しますので、画像AIを使っている方は試してみてください。 白黒もカラーのイメージそのままでDALL・E 3で白黒化できました。漫画に使うには色々な表情やポーズがいりますが、表情を1つずつ生成していると手間ですしDALL・E 3(chatGPT4)にはゆるいですが生成上限があるので、プロンプトに「キャラクターシート」と入れ、下のように同じ顔のバリエーションを1枚にいっぱい入るよう生成するのが便利でした。 こうすればキャラデザのブレも減ります。 次は亀です。亀はエンジニアなので会社員ぽくネクタイさせよう、うさんくささを醸すためネクタイの色はピンクにしよう、とだけ決めていました。そしてDALL・E 3で生成したものがこちら。 ネクタイさせると白襟がついてくる率が高かったので、白襟も入れる事にしました。ただ「亀」だと色んな種類の亀が出てしまうので、追加で「ウミガメ」指定を入れました。これでDALL・E 3での亀の生成が安定しました。 SDXLでも出せない事はないのですが、亀はDALL・E 3の方が上手いですね。SDXLだと↓こんな感じの謎の生成が半分以上を締めました。 最終的に今回は、DALL・E 3で浦AIの画像は約200枚、亀の画像は約150枚ほど生成しました。 (次ページ:AI漫画を完成させよう) 3/希望の絵に近い生成結果をコマに当てはめる 顔などは作り置きで生成しましたが、最初からガッチリ構図などを決めてしまうと逆にその構図が出るまでAIガチャを頑張ってしまうため、ネームの段階で構図はあまり細かく決めず、AI生成物の中から構図が合うものを採用していきました。そのため前のコマからの流れが不自然にならないよう順番に生成する必要があったので、効率はあまり良くなかったです。この辺りは次回以降改善方法を検証します。DALL・E 3で生成した画像を当てはめただけの状態はこんな感じです。 4/加筆SDXLモデルでi2i加筆し、背景を入れて加工して完成 3の状態まで出来たら加筆して、色を統一したり、3コマ目の左部分を描き足したりします。この場合は主にAdobePsの生成拡張を使いますが、この程度の余白なら普通に加筆したりクリスタの歪みツールで端まで伸ばしたりした方が早いです。 そして加筆後に、SDXLモデルでi2iして画風を統一します。(詳しい方にしか伝わらない説明になりますが、i2iの際のDenoising strength数値は0.2~0.4くらいでやりました。コントロールネットなどは使用しておりません) 見ての通りi2iしてもこの数値だと構図や絵柄はほぼ変わらず「油絵風」の画風のみ反映されるので、全体の統一感を出し馴染ませるのに便利です。1コマ目の亀は結構変わってますが、これは自分が部分的に他の生成物をツギハギ+加筆したためです。あとは背景を入れて加工・加筆で調整して完成。 全11Pの製作時間 最初のキャラデザで難航し、途中まで作ってからキャラ外見を変えたりしたので、試行錯誤も含めるとかなり時間がかかっています。ネームを含めない、AIでの原稿製作作業に入ってからはトータルで3~5日くらいでしょうか。特に後半は白黒なのを考えると、個人的には手で描くよりもスピードが遅いです。 ただ今回はどのAIを使用するかなど、フォーマット決めに時間がかかったのが大きいですね。今回でフォーマットは完成したので、次回はどのくらい時短ができるかに挑戦したいです。次回は次回で新キャラが出る予定なので、また時間がかかりそうな気もしますが。 雑誌とウェブ両方の媒体で掲載する想定で作ったので、いつもより丁寧に仕上げをしたというのも一因でしょう。 AI漫画は手を抜いても作れますが、手を抜いて適当な生成物をベタ張りするだけだとまさに「誰でも作れるもの」、面白みがあるとは言えないものが出来ます。AIだからこそ、ネームでも絵作りでも強いメッセージ性でも性癖でも何でも、どこかしらに拘りを持って自分の味を生かすと、AIで作ったものでも一味違う、個性のある面白いものに仕上がりそうです。 工夫した事 ・絵は白黒二値化する 主線がグレーでぼやっとしてるといかにもAIな絵に見えがちです。AIで手描きっぽい白黒漫画を作りたいのであれば、線画は2値化した方が綺麗です。 このDALL・E 3で生成した画像をSDXLでi2iして微妙に画風を調整し、グレー部分をクリスタでトーン化してみましょう。トーン化に一番簡単な方法は以下だと思います。 クリスタの「イラスト調」フィルタで、一番下の「色の階調数」を3~4くらいにしてグレーをフラット化します。このままでもいけますが、トーンを分離したい場合はレイヤーを「LT変換」し「トーンワーク」で階調化しましょう。 本当に少しの差に見えるかもしれませんが、こういう細かい処理が結構大事で、全体の印象を左右します。 ・線画の太さを出来るだけ統一する 生成画像を拡大縮小すると線画の太さがコマごとに変わります。これも個人的に気になるので、クリスタで線画を2値化してからプラグイン「加筆」で太さを調整した上で情報量を削りました。 ・白黒化ゴミ取りツールで絵の情報量を減らす 使用モデルの絵がそこそこ緻密だったのもあり、拡大縮小すると細部の細かさの差が目立ちました。手動で線の太さや密度を全て修正するのは面倒ですので、白黒化した後にゴミ取りツールで適当に囲って線の量を減らしてます。 (次ページ:漫画へのAI使用で便利だと思った事) 漫画へのAI使用で便利だと思った事 ・カラーが速い 自分がカラーが遅いのもありますが、カラー漫画を作りたいのであれば圧倒的にAIの方が速いです。カラーで生成されるので、当たり前と言えば当たり前ですね。特に全面カラーのWEBTOONなどと相性が良さそうです。 ・i2i(image to image) 前まであまり恩恵を感じなかったのですが、DALL・E 3生成SDXLの低デノイズ変換は大変便利でした。DALL・E 3はプロンプトの通りはいいのですが少し絵柄が古いため「ちょっとだけ今風の画風」に寄せるのにSDXLモデルが大活躍。カラーもですが、モデルを選べば白黒も中々上手く「ちょっとだけ今風のグレスケ」に変換してくれます。 この使い方ならば基本の絵は元画像から変わらないので、色々と応用ができそうです。コントロールネットでも同じ事はできると思いますが、時短+手軽さで言えばi2iでしょう。 ・背景が一瞬で終わる 画像生成AIが出てからずっと、漫画補助に使うならこれが一番の利点だろうと思っています。時代物や現代ものなどは破綻が目立つためそのまま生かせるかはジャンルによりますが、自然物や遠景、あまり大きくない小さなコマの背景などはほぼAIでいけるでしょう。背景を描いてもらうだけなら難しいプロンプト構築もそこまで要りません。初心者でもすぐにできます。 ただAIの背景は必要以上に細かい事が多い。細かくならないよう簡素化するLoRAなどもありますが、大体そういうものは「全部が簡素」になってしまう。もっと細かい所と簡素な所のバランス、つまり情報量の整理が上手く、かつ破綻の無い背景を描けるようになって欲しいです。 ・白黒自分絵LoRA 自分の白黒絵でSDXLのLoRAを作ったんですが、自分絵に寄せると言うより白黒線画化に便利でした。全て0.3くらいで軽めにかけてます。 強めにかけると破綻も増えますが自分の絵の特徴や癖などが出てくるので、自分の絵が他人からどう見えるのかの客観視点が得られ、勉強になります。 漫画へのAI使用で向かないと思った事 ・白黒漫画 前は白黒の方が加筆が楽だし簡単だろうと思っていましたが、カラー漫画と白黒漫画両方作ってみたところ、最近のモデルだとカラーの方がキャラクターの整合性が取りやすいとわかりました。「緑の着物」ならそこまで色がブレないのですが「グレーの着物」だとかなり色調がブレます。 まずAIはあまり白黒絵が得意ではありません。出来ない事はないのですが、実用に耐えるものにするにはそこそこ加工が必要になるためそこまで時短にならないです。プロンプトだけでは漫画に必要な細かい演技指定もできませんし、描ける方ならキャラは手で描いた方が速いでしょう。 今のところ、少なくとも自分はAI実験以外で白黒漫画のキャラをAIに描かせたいとは思いません。単純に効率が悪いからです。まだAIより3D素体をLT変換で線画化して加筆した方が速いし正確です。白黒キャラ生成で有用なのは細かい演技指定を必要としないモブでしょう。ようは、やはり背景です。 ・コントロールネット 下絵を用意して入れ込んだり、その時々で適切な数値を試さねばならないなど、設定に手間がかかるのと、SDXLのコントロールネットを使用すると生成の質が落ちがちだからです。最近は生成速度を上げる方法も色々ありますし、よっぽど特殊なポーズでもない限り、コントロールネットを設定する時間でプロンプトでガンガン生成した方が希望の絵が出たりします。 描ける人であれば、プロンプトでポン出しを加工した方がいいでしょう。今回はそういうシーンがありませんでしたが、複数人の絡みのポーズを入れたい場合などには有効かもしれません。 ※あくまで漫画への活用の話なので、イラストだとまた話は違ってくると思います。 自分がなぜAI実験をしているか 始めにお話した通り生成AIには様々な意見がありますが、一度技術として確立した以上、今後生成AIが完全に消える事はないと考えています。ならば、これがどういうものなのか、良い所も悪い所も、実際に自分で使って知りたいと思いました。良い部分は活用したいし、悪い部分は正しく怖がり、どのように対策したらいいのか考えたいからです。 とりあえず自分は以下を守って使うよう心がけています。 ・日本の法律で違法になる事はしない ・手描きでやって駄目な事はAIでやるのも駄目 画像生成AIは万能ではありませんが、その進化速度は目を見張るものがあります。そして実際自分で触って使用してみないと、どのように有用でどのように危険なのか「感覚」が掴めません。ただ知識を得るだけではわからない事が多々あります。 生成AIで著作権問題が表出するかは、現在の法律では学習でなく生成結果で判断されます。もちろんディープフェイクが簡単に作れてしまう、著作権問題とは異なるSD1.5系へのNAIリークモデルの混入など、今の画像AIは様々なリスクや問題があり、使う側のモラルを高める必要性を強く感じます。 自分は、万が一今後Stable Diffusionなどの画像生成AIの使用が日本の法で全面禁止されたら使用をやめます。自分が生成AIを使っているのは、あくまで日本の法律で許可されているからです。 今後も出来る限り最新のAI情報をチェックし、その時々で使用するか否か判断していくつもりです。 野火城 アナログ時代から漫画を描いてきたクリエイター。漫画の補助としてAIをどう使えるか実験中。X(Twitter)で生成AIを使用した漫画「AIずきん」を公開し、3万件を超える「いいね」が集まる。 「AI昔ばなし」Kindle版発売中! 文● 野火城 編集●ASCII