Otama's Playground

AIで遊んだ結果などをつらつら載せていきます。

コンテンツ生成

ComfyUIとImpact Packで画像から人物を簡単抽出!マスク生成からInpaintまで

ComfyUIとImpact Packを用いて自動でマスク処理を行う方法、そしてinpaintを行ってみた結果まで紹介します。使用するモデルを変えれば、人物の抽出以外にも使える方法のため、そういったタスクに興味がある方はぜひ読んでいってください。

StableDiffusionのimage2image手法を比較:Latent Image vs ControlNet vs IPAdapter

StableDiffusionでのimage2image生成における「Latent Image」「ControlNet」「IPAdapter」の違いを比較します。各手法の概要と生成結果、メリットデメリットを載せているので、判断の参考にしていただけると幸いです。

ComfyUIでFlux.1モデルにLoRAを適用する方法|手順と生成結果の紹介

この記事ではComfyUIでFlux.1モデルのLoRAを使用する手順を紹介します。

新モデル「Flux.1」の実力をComfyUIで検証:導入手順と実際の生成結果を紹介

この記事ではオープンソース画像生成モデルFlux.1の概要とComfyUIで画像生成を試す方法を解説しています。Flux.1がどんなモデルか知りたい方、ローカルで試してみたい方はぜひ読んでみてください。

Stable Diffusionの高速化:Turbo、Lightning、LCM、HyperのLoRA使用ガイド

Stable Diffusionの推論高速化を目的とした4つの手法、Turbo、Lightning、LCM、Hyperについて、それぞれのLoRAモデルの使い方と生成結果をまとめ、最適な使用方法を探ってみます。

【Stable Diffusion】ComfyUIを使って動画生成AIで遊んでみよう【RIFE編】

ComfyUIでRIFEを使って動画のフレームレートを上げる手順を紹介。具体的な設定方法と実際の生成結果を通して、使い方を簡単に解説しています。

【Stable Diffusion】ComfyUIを使って画像生成AIで遊んでみよう【Face Detailer編】

画像生成時に顔部分が崩れる問題を解決できるFace Detailerを、ComfyUIで簡単に導入・使用する方法を紹介します。

【Stable Diffusion】ComfyUIを使って画像生成AIで遊んでみよう【InstantID編】

この記事では、顔画像を入力することで出力される人物の顔を固定するInstantIDの設定と使用方法を紹介します。ComfyUIを導入から、必要なライブラリやモデルをインストールして、実際に顔画像生成するまでのプロセスを解説します。

Kolors:文章理解力が強化されたStableDiffusion派生モデルをComfyUIで試す方法

KolorsはStableDiffusionの文章理解能力を強化した派生モデルです。この記事ではKolorsをComfyUIで試す手順と実際に画像を生成した結果を紹介します。

Blender x ComfyUI:ComfyUI-BlenderAI-nodeの導入方法

ComfyUI-BlenderAI-nodeの導入手順を簡単に解説します。

KritaのStableDiffusion拡張を使用して落書きから画像生成する方法

KritaのStableDiffusion拡張を使用して、落書きから画像をリアルタイム生成する手順を説明します。

ComfyUIを使って落書きからリアルタイムで画像生成してみる

akuma.aiのような落書きから画像生成する機能をローカル環境で再現できるかをComfyUIで試してみました。手順や必要な拡張機能、モデルの設定方法を詳しく解説し、生成結果も公開しています。

ComfyUIで動画から動画を生成する【AnimateDiff+ControlNet+FaceID】

ComfyUIでVid2Vidが簡単にできたので、ワークフローと使用方法、そして生成結果ををシェアします。

ComfyUIを使って画像生成AIで遊んでみよう【Stable Diffusion 3編】

この記事では、ComfyUIを使ってStable Diffusion 3で画像を生成する方法をステップバイステップで解説します。ComfyUIの導入、必要なモデルのダウンロードと配置、ワークフローのインポート方法を詳しく説明し、実際に生成した画像の評価とともに全体的な使…

Stable Diffusion 3論文読み:ついにUNetを卒業したようです

Stable Diffusion 3は、CLIPとT5を組み合わせた新しいText Encoderや、DiTアーキテクチャの導入で大幅に進化しました。新しいノイズスケジューラーにより、生成性能が向上し、txt2imgで最先端モデルを超える性能を実現。簡単に論文の内容を説明します。

Stable Audioのモデルが無償公開!ローカルでデモを実行する簡単手順

Stable Audio Openが無償公開され、ローカル環境で実行できるようになりました。この記事では、公式デモを実行するために必要な準備から具体的な実行方法までを解説します。

Stream Diffusion: リアルタイムな動画生成を可能にする新技術

Stream Diffusionはリアルタイムで高品質な画像生成を可能にする技術です。この記事ではStream Diffusionがどのようにリアルタイムの画像生成を可能にしているのかを簡単に説明します。

【Stable Diffusion】ComfyUIを使って画像生成AIで遊んでみよう【ESRGAN編】

この記事では、ComfyUIを使用し、ESRGANで画像をアップスケールする具体的な手順と生成結果を紹介します。

【Stable Diffusion】ComfyUIを使って画像生成AIで遊んでみよう【Outpaint編】

この記事では、ComfyUIを使って、Stable DiffusionのOutpaintを行う手順を紹介します。Outpaintを使用することで、自分で描かずとも、画像の外側に新しい内容を追加することができます。

【Stable Diffusion】ComfyUIを使って画像生成AIで遊んでみよう【Inpaint編】

ComfyUIを使ったStableDiffusionによるInpaint技術の手順を詳しく解説。画像の特定部分をマスクし、新たな要素を追加する方法をステップバイステップで説明します。生成結果も掲載しています。

IPAdapterの簡単解説:画像をプロンプトとして使用できる!?【Stable Diffusion】

IPAdapterは、既存のStable Diffusionモデルに画像プロンプト機能を追加し、計算コストを抑えながらも画像のスタイルを維持した画像生成を実現します。この記事では、そのアーキテクチャやメリット、評価結果について簡潔に解説します。

【Stable Diffusion】ComfyUIを使って画像生成AIで遊んでみよう【IPAdapter編】

Stable DiffusionのIPAdapterで画像プロンプトを活用し、アートスタイルや構図を自由にコントロール。ComfyUIでの設定と使用方法を紹介します。

AnimateDiff: Stable Diffusionを拡張した軽量動画生成モデルの仕組み

AnimateDiffは、Stable Diffusionモデルを拡張して動画生成を可能にする新技術です。その特徴であるDomain AdapterやMotion Moduleについて、そして高品質なアニメーション生成の仕組みを簡単に解説します。

LoRAとは?低コストで大規模モデルを最適化する手法

LoRAは、大規模なモデルに小さな層を追加し、計算コストを削減しながら高いパフォーマンスを実現します。その手法とメリットを簡単に紹介します。

Stable Diffusionモデルで姿勢を学習・制御するControlNetの基礎

ControlNetはStable Diffusionモデルを強化し、姿勢を学習・制御できるようにします。この記事では、初心者向けにその基本概念を紹介します。

Textual Inversionのわかりやすい解説:Stable Diffusionの制御手法

Textual Inversionは、プロンプトの言語ベクトルを通じてStable Diffusionの出力を制御する手法です。LoRAとの違いを比較しながら、初心者にも理解しやすい形でその仕組みと応用方法を紹介します。

【Stable Diffusion】画像生成モデルの仕組みを理解する

この記事では、Stable Diffusionの画像生成モデルの仕組みを解説します。拡散モデルの基本概念からLatent Diffusion Models(LDM)の詳細まで、理論的背景と具体的なプロセスを説明。なんとなくで使ってるその技術、どうやって動いてるか知りたくないですか?

【Stable Diffusion】ComfyUIを使って画像生成AIで遊んでみよう【Textual Inversion編】

ComfyUIを使ってStable Diffusionでembeddingを使用する方法を紹介します。好きなembeddingを使用した実例とその効果の違いを画像で比較し、より良い生成結果を得るためのポイントも解説します。

【Stable Diffusion】ComfyUIを使って画像生成AIで遊んでみよう【ControlNet編】

この記事では、Stable Diffusionモデルを拡張し、人物の姿勢を指定して画像生成を行う手法「ControlNet」について解説します。ControlNetの仕組みやアーキテクチャの詳細を説明し、実際にComfyUIを使ってポーズ指定した画像を生成する手順を紹介します。初心…

【AnimateDiff】ComfyUIを使って動画生成AIで遊んでみよう【Stable Diffusion】

この記事では、Stable Diffusionを拡張したAnimateDiffを用いて動画を生成する方法を解説します。モデルの概要、学習手法、各種モジュールの役割について詳述。さらに、ComfyUIの導入と具体的なワークフローの設定手順を紹介し、実際に動画を生成するまでの…