Adobeが画像編集アプリ「Photoshop」にジェネレーティブAI「Firefly」を統合し、AI機能「ジェネレーティブ塗りつぶし」を追加することを発表しました。「ジェネレーティブ塗りつぶし」では「画像の続きを生成」「画像の一部をAIで生成した画像に置き換え」といった操作を実現可能です。 アドビ | Adobe https://www.adobe.com/jp/ Photoshopに搭載されるAI機能「ジェネレーティブ塗りつぶし」はこんな感じ - YouTube 「ジェネレーティブ塗りつぶし」の実例こんな感じ。まず、画像の一部を選択状態にします。 続いて「Generative Fill(ジェネレーティブ塗りつぶし)」をクリック。 すると、道路上のタイヤ痕が消えました。 続いて道路の中央部分を選択。 「yellow road lines(黄色い車線)」と入力して「Generate」をクリ
こんにちは。 mimic(ミミック)というサービスがリリースされ、インターネットを騒がせています。 このサービスはアップロードされたイラストを学習して、類似されたイラストを生成できるというものです。 illustmimic.com 誰がこの文章を書いているか ShodoというAI文章校正サービスを作って運営しているものです。@hirokikyといいます。 Shodoは皆さんがメールや記事を書くときに、変な日本語になっていないかや、二重敬語を使っていないかなどをチェックしてくれるサービスです。 この記事はざっくりAIエンジニアが書いていると思ってください。 「AIと著作権」というかなりセンシティブな問題について当事者でもありますので、今回の件をサービスの設計などを含めてざっくり話します。 私自身も勉強中の身ですので、ぜひ文章に改善点があれば教えてくれると嬉しいです。 そして実際に困ったことが
画像生成AI・Stable Diffusionを導入するにはNVIDIA製GPUを搭載したPCのほかにPythonやAnacondaなどの知識が必要で、ローカル環境に導入するには少し敷居が高いところがありました。しかし、2022年8月に一般公開されて以降、多くの開発者によって誰でも簡単にStable Diffusionをローカル環境に導入可能でかつGUIで操作できるツールが次々と開発されています。「Stable Diffusion web UI(AUTOMATIC1111版)」はその中でも他のUIには搭載されていない機能も盛り込まれた決定版とも言えるツールで、その中でも特に画像生成にお役立ちな機能である「Prompt matrix」と「X/Y plot」を実際に使ってみました。 GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Di
Stable Diffusionがオープンソースで公開されてちょうど1ヶ月が立ちました。OpenAIがDall-E2をリリースしたのが4月。こういう異次元なリソースを使ってモデルを作れるのはごく限られたプレーヤーだけと思い込んでいたものが、若干十数人のチームがMidjourneyをリリースしたのが7月。一連の騒ぎがここ半年程度の出来事で、1ヶ月前に深津さんも予見していた「世界変革」が目の前で怒涛の勢いで進行しています。 このブログも書いた瞬間に古くなるだと思うけど、この文化的特異点とも言える1ヶ月に起こったことを振り返ってみたいと思います。それにしても手書き文字の生成に感動していた2015年から比べるとずいぶん遠いところまで来ましたね。DataRobotでも「AIの民主化」を掲げて様々な企業のAI活用を推進していたけれど、今起こっている変化を見ているとそのスピード感に愕然とします。 少し宣
画像生成AI「Stable Diffusion」は、指示した通りの画像を生成してくれるAIとして大きな注目を集めています。Stable Diffusionを実際に使うにはPythonのインストールといったPCの知識が求められる作業が必要なのですが、有志が開発した「NMKD Stable Diffusion GUI」なら誰でも簡単にStable Diffusionを使う環境を整えられます。そんなNMKD Stable Diffusion GUIではStable Diffusionに備わった各種機能を簡単操作で実行可能なので、NMKD Stable Diffusion GUIの各種設定項目や自分好みの画像を生成するまでの手順を徹底的にまとめてみました。 My easy-to-install Windows GUI for Stable Diffusion is ready for a beta
It is our pleasure to announce the public release of stable diffusion following our release for researchers [https://stability.ai/stablediffusion] Over the last few weeks, we all have been overwhelmed by the response and have been working hard to ensure a safe and ethical release, incorporating data from our beta model tests and community for the developers to act on. In cooperation with the tirel
画像生成AI「Stable Diffusion」は入力したキーワードに沿って画像を出力してくれるAIで、簡単なお絵かきとキーワードを合わせて意図した画像を生成したり、「この画像っぽい○○」といった指示でイメージを形にできたりと、さまざまな機能や手法が生み出されています。そんなStable Diffusionについて、「画像を学習するAIは、ウェブ上のどのような画像を学習しているのか?」という疑問を解明するために、23億枚のデータセットから1200万枚を抜粋して集計した調査結果を、技術者・ブロガーのアンディ・バイオ氏が公開しています。 Exploring 12 Million of the 2.3 Billion Images Used to Train Stable Diffusion's Image Generator - Waxy.org https://waxy.org/2022/0
このサービスの有償プランに申し込んで使って、少しプロンプトのコツが掴めたので、お伝えしたいと思います。 ただ、自分が使った目的は映画などの映像制作ではなく、あくまでも静止画、それも人物を動かすことなのでご注意を。より具体的には、11年前に他界した妻の動く姿を見ることです。 ■フィルムカメラの写真を動かすまずやってみたのは、実際に撮った写真をDream Machineで動かすことです。 使った写真は、1978年から1987年にかけてフィルムカメラで撮影したもの。子供が生まれてビデオカメラ(ビデオ8mm)を買ったのが1987年なので、それまでは動いている映像がほとんどなかったのです。 例外として、学園祭の劇で主役を演じたものと、特捜最前線でエキストラをやったときのものは残っていますが。 多くの人にとって、1980年代以前の、動きのある映像は残っていないと思います(8mmフィルム愛好家がいる家庭
NovelAI @novelaiofficial @NilaierMusic Since we are training on Danbooru, it also learns character names and their visuals. You can prompt for "masterpiece portrait of smiling rem, re zero, caustics, textile shading, high resolution illustration" and get this: pic.twitter.com/2wqDmAxCJa 2022-09-25 10:20:30
1 画像生成AIを含む生成系AIとビジネス ビジネス領域において、画像生成AIを含む生成系AI技術が利用される場面は大きく分けると2つあるように思います。 1つはユーザー側で利用する場面、つまり「生成系AIを利用して生成したコンテンツを自社プロダクトで用いる場合」、もう1つはベンダ側で提供する場面、つまり「生成系AIのモデルそのものや当該モデルをベースとするアプリケーションを開発・提供する場合」の2つです。 もちろん、企業によっては「自社で生成系AIツールを開発し、当該ツールを用いて生成したコンテンツを自社プロダクトで用いる」ということもあるでしょう。その場合は2つの領域双方にまたがった検討が必要です。 (1) 生成系AIのモデルそのものや当該モデルをベースとするアプリケーションを開発・提供する場合 生成系AIのモデルそのものや、当該モデルをベースとするアプリケーションをベンダ・サービサー
Checkpointとはあとひと月ほどすると、前回ご紹介した次世代Stable Diffusion、SDXLの波が来そう(来るかも?)と言うこともあり、今回は一番の基本となるCheckpointと、筆者の興味の対象となっているリアル系モデルの遷移にふれておきたい。 まずStable Diffusionのバージョンは1.4、1.5、2.0、2.1などがあり、現在最もポピュラーなのは1.5 (SDXLは0.9、1.0)。基本、対応したバージョンでないとモデルは作動しない。 一言でモデルと言っても、Stable Diffusionが必要、もしくはオプションとして扱えるモデルは、Checkpoint、LoRA、LyCORIS、Embedding、 Hypernetwork…など、さまざまな種類がある。絵を作る上において最も重要(=絵の元になる)のがCheckpointで、他は無くても最低限これだけ
NovelAIを用いて出力した画像の枚数が気がつくと2万枚を超えていたので、振り返りがてら画像を見返していた。 黒に輝く#NovelAI #NovelAIDiffusion pic.twitter.com/TrB3FBYjXV — sabakichi|Domain ✍︎ (@knshtyk) October 19, 2022 自分でも驚いたのだが、サービスを触りはじめた10/4から10/24現在に至るまで、わずか20日間のうちに2万枚にもおよぶ「一定の表現能力を持った個別の画像」(これをイラストレーションと呼ぶべきか否かはさておき)が、たった一人の人間によって生成されたというのは脅威的なことだろう。人類の歴史を振り返っても類似の現象は見当たらないのではないか。 近い感性としては、やはり歴史的には写真技術とGenerative Art、デザインや設計に用いられているComputational
これは 画像生成AI Advent Calendar 2022 16日目の記事です。 2022年7月末頃、AIによるテキストからの画像生成が一気に広がって以降、あまりに急速な変化が日々続いています。こうした激動の中でも、日本ではアニメ調のイラスト生成への注目が強すぎて、AIの可能性や破壊力、未来などの話題が少なく感じています。 そこでAIがもたらしうる未来や応用などを考え、特に身近な人々へ向けて、わかりやすく紹介することにしました。AIの専門的な研究者ではなくSFのような未来予想ですがご容赦ください。 なおこの記事は、挿絵も含め全体をCC0 1.0で公開します。最大限自由な利用が可能で、転載や加工や販売も自由に行なえます。CC0として利用しやすいよう、引用や転載も含んでいません。 また挿絵は、解説用もお飾り用もすべて、素のStable Diffusionのみで生成しています。キャプションと
「AIいらすとや」など、権利クリアな画像生成AIを開発してきたAI Picasso社は、アニメ・マンガ風のイラストを生成できる画像生成AI「Emi」(Ethereal master of illustration)を9月25日に無償公開した。 Stable Diffusionベース。追加学習で無断転載画像を学習させておらず、権利がクリアな点が特徴。商用利用も可能だ。 Stable Diffusion XL 1.0と NVIDIAのGPU「H100」に、同社のノウハウを組み合わせて開発。最近の画風になるよう調整した。 追加学習に「Danbooru」などの無断転載サイトを使っていない。クリエイターの意見を聞きながら開発したという。 同社の従来のモデルと異なり商用利用可能にした。画像生成AI普及に伴い、創作業界に悪影響を及ぼさないようマナーを守る人が増えてきたことや、他の画像生成AIが商用可能な
#stablediffusion 完全に理解した pic.twitter.com/IR5yjnL07Y— すぎゃーん💯 (@sugyan) August 31, 2022 ということで少し触って遊んでみたのでメモ。 Stable Diffusion をザックリ理解 先月公開された Stable Diffusion。 stability.ai 高精度で美しい画像を出力できる高性能なモデルながら、Google Colab などでも手軽に動かせるし、 Apple silicon でもそれなりに動かせる、というのが魅力だ。 中身については 以下の記事の "How does Stable Diffusion work?" 以降のところが分かりやすい。 huggingface.co 図をそのまま引用させていただくと という仕組みになっていて、受け取る入力は "User Prompt" と "Late
2022年8月に一般公開された画像生成AI「Stable Diffusion」を簡単にWindowsローカル環境に導入でき、コマンドラインではなくブラウザ上に表示されるユーザーインターフェース(UI)から操作可能にするツールがAUTOMATIC1111版Stable Diffusion web UIです。AUTOMATIC1111版Stable Diffusion web UIはただ画像を生成するだけではなく、画像生成時に入力する文字列(プロンプト)について複数の組み合わせを一気にチェックしたり、画像生成の条件を複数設定して一度に画像を生成したりするなど、Stable DiffusionのUIとしては決定版といってもいいほど機能が充実しています。そんなAUTOMATIC1111版Stable Diffusion web UIでは、AIで生成した画像を解析してプロンプトを表示する「CLIP
文章を入力するだけで好みの画像を生成できるAI「Stable Diffusion」には、画像の続きを描画する「アウトペインティング」や、画像の一部を生成画像で置き換える「インペインティング」などの機能も搭載されています。そんなアウトペインティングやインペインティングを直感的に利用できるようにしたUI「Hua」が公開されていたので、実際にHuaを用いて画像を生成する手順をまとめてみました。 GitHub - BlinkDL/Hua: Hua is an AI image editor with Stable Diffusion (and more). https://github.com/BlinkDL/Hua Huaは、Stable Diffusionの高機能UI「Stable Diffusion web UI(AUTOMATIC1111版)」と連携させて使えるUIです。Stable Di
近年、画像生成AIの技術が飛躍的に進歩し、テキストを入力するだけで高品質なイラストを数秒で描ける時代が到来しました。 2022年頃から登場したStable DiffusionやMidjourneyといったツールは瞬く間に普及し、ゲーム業界などでは大手企業もコスト削減のため積極的に導入を進めています。 便利な半面、この急速なAIの台頭により、「イラストの仕事がAIに奪われるのではないか」という不安がクリエイターの間で大きな話題となりました。 実際、SNS上では「創造性が必要な仕事さえもAIの得意分野になってきている気がする。正直、心が折れそうです…」と将来に悩む声も早くから上がっていました。 本コラムでは、統計調査で示された数字と 現役イラストレーターの証言の両面から、生成AIが絵師の雇用に及ぼしている実態を探ります。 Generative AI and Jobs: A global ana
これらの漫画をつくりました。 手法として、コマごとに画作りが基本で全体を一気には出力していません。 また、事前に登場キャラクターをたくさん生成しストックしておきはめ込むのが一番簡単です。ControlNetを使うのも良いですが、一部に利用するにとどめて基本はストック画像からパッチワークをするのが一番効率がいいです。 背景と人物は一気に生成しなくてよいです。ただし、画風があまりはなれすぎないように工夫する必要があります。 AI漫画は既存の漫画を作るのと一部逆走する手法でいろんな物を構成する必要があります。 例えばキャラデザです。 あまり出力が安定しない特殊なキャラデザは、画風は避けたほうが無難です。ですが、ある程度の「特徴」は必要なので難しいところです。 出力安定しやすいポイントとしては ・短髪の女の子 を1人は登場させたほうがいいです。明るい髪色だとなお良いです。 長髪や髪の毛を結ぶキャラ
写真でも絵画でも3Dでも、人物を表現するモチーフとして圧倒的に人気なのは「若い女性」です。テクノエッジにも西川和久氏の「生成AIグラビアをグラビアカメラマンが作るとどうなる?」という大人気連載があります。やはり人物の見目の良さを象徴するのは女性的な美であり、信仰など特別な要因が無い限り、時代を問わず普遍的な価値なのでしょう。 一方でこの記事が対象とする「おじさん」は、不人気なモチーフの代表です。かっこいいとか強いとか、男性性に付加されやすい魅力を添えればともかく、漠然とありふれたおじさんを表現したいと思う人は少ないようです。 私はゲームとWebのエンジニアで、2022年8月頃立て続けに画像生成AIが公開されてからずっと、ゲーム開発に応用できないか色々試してきました。同時に子育てやもっと個人的なことにも画像の生成を試していて、そのひとつが「ありふれたおじさん」です。 少し前には生成したおじさ
BOOTH事務局です。 BOOTHをご利用いただきありがとうございます。 現在、AI生成作品の取り扱いに関して様々なお声をいただいております。 BOOTHにおける現状と今後の対応についてお知らせいたします。 はじめに BOOTHは多様な創作物と出会えるマーケットでありたいと思っています。 しかし短期間に大量の画像を生成できるAI技術の普及と、それを利用する一部ユーザーによる過剰な出品によって、その他の多くの創作物の販売機会が脅かされております。 BOOTHにおけるAI生成作品の出品傾向とその影響 現時点におけるBOOTHでのAI生成作品の出品傾向や影響は以下となります。 成果物の独自性が薄く、かつ、同じものばかりが並ぶ傾向を加速させやすく、検索画面での閲覧体験を阻害することがある 低い生成コストで作品が大量生成・出品され、また利用規約やガイドラインに違反する例が多々見られるため、規約に則し
本日2本目のAI記事。ControlNet、WebUI Forge、Fooocusなど、画像生成AIソフトに多大な貢献をしてきたlllyasvielさんが、動画生成AIの新しいオープンソースソフト「FramePack」を公開しました。NVIDIA GPU専用ですが、WindowsとLinuxですぐに使えます。6GB VRAMでも動作するとしています。 筆者は、AI仮想環境のPinokioを使い、RTX 4090を搭載したCore i 7マシンに1クリックインストールしましたが、非常に軽快に動きます。 Image to Videoで動かした場合、1秒当たり1分ちょっとの生成時間。これは爆速と言っていいでしょう。 デフォルトの設定で、Image to Video生成してみましたが、高速な上に、破綻は感じ取れません。 複数のフレームがまず画面右上に高速に表示されていきます。これが1秒分溜まると、
2022年8月、Stability AIがテキストから画像を生成するAIモデル「Stable Diffusion 1.0」を公開。これまでテキスト中心だったAI分野に大きな衝撃を与えた。高性能なサーバーを使わずとも、個人のPC上で高品質な画像を生成できるという事実は、多くのクリエイターに強いインパクトを残した。 ただし当時は、要求されるマシンスペックが高く、環境構築にも技術的な知識が必要だった。そのため「面白そうだが難しそう」と感じて、実際に導入するまでには至らなかった人も少なくない。 しかし、その状況は次第に改善していく。2023年7月にStability AIが公開した「Stable Diffusion XL(SDXL)1.0」によって、1024×1024ドットの高解像度画像生成が実現。12GBのVRAMを搭載したGPU(RTX 4070クラスなど)があれば、安定して実用的に利用できる
画像生成AI「Stable Diffusion」はあらかじめ学習したデータセットを基にして、プロンプトあるいは呪文と呼ばれる入力文字列に沿った画像を自動で生成します。そのStable DiffusionのAIモデルに画像を追加で学習させる「Dream Booth」という手法があるのですが、コマンド入力による操作が必要で、演算処理に何十GBものVRAMを必要としました。しかし、Dream BoothをGUIで、しかもNVIDIA製グラボであれば10GB程度の環境でも使える「Dreambooth Gui」がリリースされたので、実際に使ってみました。 GitHub - smy20011/dreambooth-gui https://github.com/smy20011/dreambooth-gui Dreambooth Guiを使うためにはDockerとWSL2のインストールが必要となります。
画像生成AI関連の著名な開発者、lllyasviel(イリヤスフィール)氏が5月7日、生成AI画像の照明を自在に操作できるツール「IC-Light(Imposing Consistent Light)」を公開した。 2種類のモデルを公開 IC-Lightは画像の照明を操作するプロジェクト。前景画像(人物やオブジェクトなど)を入力し、プロンプトにテキストや背景画像を指定するだけで、まるで別の環境で撮影したかのような画像を得ることができるという。 現在、「テキスト条件付きリライティングモデル(text-conditioned relighting model)」と「背景条件付きモデル(background-conditioned model)」の2種類がGitHubで公開されており自由に試すことができる。 なお、作者のlllyasviel氏は「Stable Diffusion」のWebUIであ
【画像生成AI】Stable Diffusion webUI と ComfyUI どちらを使う? 登場から比較してみよう! はじめにこんにちは、きまま / Easygoing です。 今回は、いろいろな画像生成 AI ツールをその登場から比較してみます。 Stable Diffusion webUI と ComfyUI今日の 画像生成 AI ツールで普及しているのは、Stable Diffusion webUI と ComfyUI です。 ComfyUI と Stable Diffusion webUI の検索数 | Google Trendsローカルで画像生成をはじめるとき、どのツールを使うのか迷いますが、それぞれのツールが 登場した時期 とその 背景 を見ながら、分かりやすく比較してみます。 画像生成 AI ツールの歴史まずは、主な 画像生成 AI ツールの登場時期を見てみます。 上の
クリエイターは生成AIとどう向き合うべきか?(unsplash) 生成AIに関する話題は、連日のようにSNS上で“推進派”と“規制派”が激しい論争を繰り広げている。なかでも、イラストなどのクリエイティブな分野では、特に議論が紛糾している状態にある。SNSで目にするのは生成AIを規制したほうがいいとする意見であるが、推進したほうがいいという意見も多い。現在進行形で進化している生成AIの扱いをどのようにすべきか、結論が出るには至っていないのが現状だ。 そんななか、生成AIに自身の絵柄を学習され、無断で絵柄LoRA(注:生成AIの絵柄学習モデル)を作成された漫画家がいる。『疫神のカルテ』などの作品がある樋口紀信である。樋口は生成AIを悪用され、実際に被害を受けた経験から、積極的にSNSで発信を行っている。いったいその被害の実態はどのようなものなのか。そして、生成AIと我々はどう向き合うべきなのか
2022年8月に一般公開されたStable Diffusionは、入力した言葉に従って画像を自動で生成してくれるAIです。そんなStable Diffusionを画像生成AIだけではなく強力な非可逆画像圧縮コーデックとして使う方法について、ソフトウェアエンジニアのマシュー・ビュールマン氏が解説しています。 Stable Diffusion based Image Compression | by Matthias Bühlmann | Sep, 2022 | Medium https://matthias-buehlmann.medium.com/stable-diffusion-based-image-compresssion-6f1f0a399202 実際に以下の画像はすべて512×512ピクセルに圧縮した画像で、サンフランシスコ市街を撮影したもの。1枚目がJPEG形式、2枚目がWeb
せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。 だから流出したモデルを使ってローカルでNAIの環境を構築する。 ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。 もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。 もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。 英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。 https://rentry.org/nai-speedrun 推奨環境VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。 GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。 IntelのオンボードGPUで
この画像生成機能は最近、スタジオジブリ風のアニメスタイルの画像を生成する使い方で話題になっている。利用の殺到を受け、Altman氏はXに「GPUが溶けている」と投稿した。 筆者もこの機能を試し、この記事のトップ画像を作成した。ChatGPTのアプリは接続切れを起こすなど少し手間取ったが、最終的には5分足らずでChatGPTのロゴがニューヨーク上空を飛んでいる画像を生成した。 AI開発競争が激化 OpenAIが画像生成機能を使ってChatGPTのさらなる普及を狙う動きは、AI開発企業の間で激化している競争の新たな展開にすぎない。米国や中国などの国における多くのスタートアップに加え、Apple、Anthropic、Microsoft、そして1週間前に最新のAIモデル「Gemini 2.5」を発表したGoogleなどが競い合っている。ChatGPTは約5億人の週間ユーザーを有するとみられるが、他
文章(プロンプト)を入力するだけで画像を生成してくれるAI「Stable Diffusion」は、2022年8月に一般公開されて以降、有志によって簡単に動かせるUIや各種拡張機能が続々と生み出されています。そんなStable Diffusionについて、Appleが機械学習フレームワーク「Core ML」への最適化を発表しました。同時にMacBookやiPhoneなどのAppleシリコン搭載デバイス向けのコードもオープンソースで公開されています。 Stable Diffusion with Core ML on Apple Silicon - Apple Machine Learning Research https://machinelearning.apple.com/research/stable-diffusion-coreml-apple-silicon GitHub - app
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く