Stable Diffusionなどの事前学習済みモデルに対して、輪郭線や深度、画像の領域区分(セグメンテーション)情報などを追加して出力をサポートする技術が「ControlNet」です。このControlNetを使うことで、別途に読み込ませた画像に写っている線画や人の姿勢などを ...
技術的には既存の動画AI「HunyuanVideo」を改良し、独自に「次の場面を予測する」技術を取り入れたもの。従来の動画生成AIは長い動画を作るほどメモリ消費が増え続けたが、FramePackは過去の映像情報をうまく圧縮することで、1分でも10分でも同じくらいのメモリ量で処理できるようになっている。これにより、普通のゲーミングPCでも実用的な速度で長い動画が作れるようになったのだという。
中国のAI研究者Isle of Chaos氏は、絵の生成AI「Stable Diffusion」を使い、QRコードを学習させた「ControlNet for QR Code」を開発、実際に機能するQRコードを絵の中に埋め込んだ画像の生成に成功したという。 同氏は大学時代に、普段とは一風異なった ...
画像生成AI「Stable Diffusion」の登場以来、コミュニティの有志たちによって多くのAIツールが開発されています。コミュニティ製ツールの1つである「Redream」は「PCの画面内の一部を常にキャプチャし、キャプチャした画像をimg2imgに流し込んで画像を生成し ...
AIでのイラスト生成時、キャラクターに自由なポーズを取らせることができる──そんな新技術が話題だ。その名は「ControlNet」。2月10日に論文が投稿されると、数日後にはStable Diffusion用WebUI向けの拡張機能がGitHubに登場。15日には、AIイラストに注目する ...
不動産投資TOKYOリスタイル<https://restyle.tokyo/>を運営するストレイトライド株式会社<https://straight.biz/>(本社:東京都 ...
インプレス(東京都千代田区)は3月25日、画像生成技術を解説した書籍「Pythonで学ぶ画像生成 機械学習実践シリーズ」を発売した。画像生成の基礎から応用まで、Pythonでの実装を示しながら解説する。価格は3850円。 「Pythonで学ぶ画像生成 機械学習実践 ...
最近は猫も杓子もAIということで、本連載でも扱うことになった。まず最初に扱うのがStable Diffusionというのは、おおむね適切な選択であろう。 Stable Diffusionはさまざまな実行環境があり、今回はStable Diffusion web UIを使用する。これも適切な選択であろう。
Ondřej Sakala(sakalond)氏は10月26日(日)、今年5月にリリースしたオープンソース(GPL-3.0)のBlenderアドオン「StableGen」を使ったキャラクターの自動テクスチャリングデモを公開した。SDXL(Stable Diffusion XL)とControlNetを用いて、Blender内で直接3Dモデルに対して ...
米NVIDIAは10月31日、サポートページ内にあるナレッジベースに掲載する形で、「Stable Diffusion」に関する動作の仕様について情報を公開した。生成AIを手軽に楽しめる「Stable Diffusion」におけるTipsがまとまっている。 Stable Diffusionは、利用にあたって大容量のGPU ...
現在アクセス不可の可能性がある結果が表示されています。
アクセス不可の結果を非表示にする