坂東市のお役立ち情報が満載!


  ホーム >> ヘッドライン >> PC修理のわたなべ

  メイン  |  簡易ヘッドライン  

ǿ
link PC修理のわたなべ


icon PC修理のわたなべ (2024-11-22 0:12:07)


現在データベースには 448 件のデータが登録されています。

dtab d-01k タブレット バッテリー交換 (2023-11-21 15:55:55)
feed

はじめに

dtab d-01k タブレットのバッテリー交換を依頼された

dtab d-01k

バッテリー交換

新しいバッテリーの用意
MediaPad M3 Lite 10 Battery

画面を外す

ピックやマイナスドライバなどで、少しずつ?がしていく。

両面テープで密着しているため、ドライヤーなどで温めながら、ゆっくりと剥がしていった。

モニターの分離

バッテリーケーブルを外す

モニターケーブルを外す

バッテリーを外す

両面テープにて強力に付着しています。

はじめは、ゆっくりと着実に剥がしていく。

ある程度剥がせて来たら、指で剥がせるようになった。

バッテリー交換終了

新しいバッテリーに交換し、ケーブルを付け直した。


AnimateDiff AI動画 (yayoiMix使用) (2023-10-31 15:36:05)
feed

はじめに

yayoiMixの生成画像を試してみると、日本人の人物を綺麗に表現できた。

今回は、yayoiMixにて、sd-webui-AnimateDiff AI動画にチャレンジしてみました。

→  CIVIT AI (yayoi_Mix) ?から、ダウンロード可能

AnimateDiff (txt2img)

設定内容

※今回は、かわいらしい小さい女の子を表現できたらと思います

モデル:yayoiMix

プロンプト:

  1loli, ((10yo)), face, hair flower, grin, realistic, 
0: close_eyes, from side
16: open_eyes, from front 

※AnimateDiffでは、呪文の単語数が少ないほうが、動きのある動画を表現できるように感じます。

大きさ:600×800

yayoiMix使用

FPS8フレーム、総数32フレーム(4秒)

生成された32枚の画像

各画像をより綺麗に(img2img)

img2imgを利用し、生成された画像をより綺麗にしてみる。

  • ピクチャフォルダに「test_input」フォルダを作成
  • output用に「test_output」フォルダを作成

「test_input」フォルダに先ほど生成した32枚の画像をコピーする

Batch 」タブを選択し、以下のような設定にした。

img2img > Batch
Resize to

※画像の大きさを作成した画像の大きさに合わせる(600×800)

Resize by

※大きさを1.25倍に拡大(750×1000)

ControlNetを以下のように設定し、各画像の相関性を合わせるようにした

OpenPose

SoftEdge

IP-Adapter

生成すると「test_output」フォルダに32枚の画像が生成される

動画生成(FILM使用)

生成した「test_output」フォルダの32枚の画像を FILMで綺麗な動画に変換 しました。

FILMの詳細は、以下をご確認ください。

動画の再生速度を変更(ffmpeg使用)

   動画を2倍速 
 ffmpeg -i input.mp4 -vf setpts=PTS/2 -af atempo=2 output_fast.mp4 
「-vf setpts=PTS/2 -af atempo=2」の箇所で、動画のテンポを変更
「-vf setpts=PTS/2」で動画の速度が2倍
「-af atempo=2」で音声の速度が2倍 

※今回は、生成した動画(input.mp4)を12倍速に変更(cmd使用)

   ffmpeg -i input.mp4 -vf setpts=PTS/12 -af atempo=12 output_fast.mp4  

編集動画(BGM付き)

VideoProc Vlogger  編集画面】

考察

いろいろなモデルが登場してきました。

日本人モデルも以前に比べると多様な人物を表現できるようになりました。

くわえて、思い通りの動きができるようになれば、短編ムービーも可能になっていけると思います。

以前と比べると、LoRAを使用しなくても、かわいらしい女の子を表現できたのも画期的に感じます。


Frame Interpolation for Large Motion【FILM】 (2023-10-21 17:52:21)
sound ポッドキャスト : video/mp4

feed

はじめに

AnimateDiffにある FILM の項目に興味をもった。

※FILM(Frame Interpolation for Large Motion)

2枚の画像を入力するだけで、その間の動きを補間して、動かすという技術だそうです。

参考サイト

画像をぬるぬる動かすFrame Interpolation for Large Motion【FILM】

画像をぬるぬる動かすFrame Interpolation for Large Motion【FILM】
ディープラーニングの使いどころはたくさんあると思います。今までいろいろなモデルをいじってきた私が考える、ディープラーニングの使い方の真骨頂は「補間」です。今回、試してみるのは"THE補間"ともいえる技術のFrame In
farml1.com

FILMインストール

Windows インストール手順

https://github.com/google-research/frame-interpolation/blob/main/WINDOWS_INSTALLATION.md
github.com

github

GitHub - google-research/frame-interpolation: FILM: Frame Interpolation for Large Motion, In ECCV 2022.
FILM: Frame Interpolation for Large Motion, In ECCV 2022. - GitHub - google-research/frame-interpolation: FILM: Frame Interpolation for Large Motion, In ECCV 20...
github.com

Anaconda

  • Anacondaをインストール
  • CMD.exe PromptのLaunchから起動
  pip install --ignore-installed --upgrade tensorflow==2.6.0
python -c "import tensorflow as tf;print(tf.reduce_sum(tf.random.normal([1000, 1000])))" 

frame-interpolation> に「 pretrained_models 」フォルダを作成し、以下のデータをインストールする

pretrained_models - Google ドライブ
drive.google.com
  git clone https://github.com/google-research/frame-interpolation
cd frame-interpolation
pip install -r requirements.txt
conda install -c conda-forge ffmpeg
 

FILM実行

中間フレーム補間

  python -m eval.interpolator_test --frame1 photos\one.png --frame2 photos\two.png --model_path <pretrained_models>
\film_net\Style\saved_model --output_frame photos\output_middle.png
 

多数のフレーム間補間

AI画像を生成

同様な画像を少しずつ変化を加えて5枚生成し、4枚を逆順に加える。

AI画像を5枚生成

画像01.png?09.pngを「 photos 」フォルダ以下に配置

  python -m eval.interpolator_cli --pattern "photos" --model_path <pretrained_models> \film_net\Style\saved_model
--times_to_interpolate 6 --output_video
 

完成動画


AnimateDiff AI動画 (最新BRA V7使用) (2023-10-21 0:31:38)
sound ポッドキャスト : video/mp4

feed

はじめに

最新のBRAV7がリリースされました。

最新BRAV7にて、sd-webui-AnimateDiff AI動画にチャレンジしてみました。

 →  CIVIT AI (BRAV7) から、ダウンロード可能

BRAV7

Beautiful Realistic Asiansの新モデルは、以下のサイトを参考にしました。

待望のBRAV7がリリース!Beautiful Realistic Asiansの新モデル・プロンプトなど

待望のBRAV7がリリース!Beautiful Realistic Asiansの新モデル・プロンプトなど
Stable Diffusion等の画像生成AIで大人気のモデルBeautiful Realistic Asians(BRA)から、新モデルV7がリリースされました。V5、V6との比較や、おすすめのプロンプトなどをご紹介。
ai-freak.com

roop用顔画像 (BRAV7使用)

Beautiful Realistic Asians( BRA )から、待望の新モデル V7 がリリースされました。

早速、生成してみました。

プロンプト:1girl, japanese, cute, smile, realistic, best quality, 8k, pink dress, perfect brightness,

生成画像

顔画像 (BRAV7使用)

画質も一段と綺麗になりました。

参考サイト(AnimateDiff)

AIでアニメーション制作!AnimateDiffの基本的な使い方【Automatic1111】

AIでアニメーション制作!AnimateDiffの基本的な使い方【Automatic1111】 | SoreNuts
Stable Diffusion Web UI(Automatic1111)の拡張機能「AnimateDiff」の使い方です。MotionLoRAの併用方法、MP4の書き出しエラーの対処法などを掲載しています。一貫性のある短いアニメーションならこの拡張機能がおすすめです。
sorenuts.jp

AnimateDiff (txt2img)

設定方法などは、以下をご覧ください。

モデル:beautifulRealistic_v7

プロンプト:

  1girl, japanese, cute, smile, realistic, best quality, 8k, pink dress, perfect brightness,
0: standing
10: close_eyes
16: walking
20: open_eyes
<lora:sweet_dress_style2_v1:0.8> , 

設定内容

FPS8フレーム、総数32フレーム(4秒)

生成された32枚の画像

各画像をより綺麗に(img2img)

img2imgを利用し、生成された画像をより綺麗にしてみる。

  • ピクチャフォルダに「 sample 」フォルダを作成
  • output用に「 sample_output 」フォルダを作成

sample 」フォルダに先ほど生成した 32枚の画像をコピー する

「Batch」タブを選択し、以下のような設定にした。

より綺麗な画像に変換したいので、画像サイズを1.5倍に上げた

ControlNetを以下のように設定し、各画像の相関性を合わせるようにした

OpenPose

IP-Adapter

SoftEdge

BRAV7で生成したAI画像をroop 用いた

roop(AI顔画像を使用)

連続画像を動画に変換

連続画像を動画に変換する

  • Flowframes を使用

詳細は、以下を参考にしてください

編集などの設定は、以下の通りです。

完成動画

sample_output-2x-RIFE-RIFE3.8-16fps.mp4

YouTube用 編集動画

YouTube用に編集した。

VideoProc Vlogger を使用し、BGMやモーション設定などを追加した。

音源

フリーBGM「センチメンタル・リバー (instrumen…」

フリーBGM素材『センチメンタル・リバー (instrumental)』試聴ページ|フリーBGM DOVA-SYNDROME
無料・著作権フリーのBGM素材「センチメンタル・リバー (instrumental)(作:ioni)」の試聴ページです。
dova-s.jp

VideoProc Vlogger  編集画面】

完成動画(YouTube用)

※高画質に変更してから ご確認ください

↓(高画質) 1080p60HD で確認するとより綺麗な動画になります↓


AnimateDiff+OpenPose AI動画 (txt2img) (2023-10-14 19:41:00)
sound ポッドキャスト : video/mp4

feed

はじめに

前回、sd-webui-AnimateDiff AI動画 (img2img)で動画を生成した。

しかし、AnimateDiffのみを使用した際の滑らかな(ヌルヌルした)動画を作成することができなかった。

そこで、animatediff+openposeで何かできないかと検索していたところ、以下のようなサイトを見つけた

【AIアニメ】ComfyUIとControlNetでAnimateDiffを楽しむ|Baku
「AnimateDiff」では簡単にショートアニメをつくれますが、プロンプトだけで思い通りの構図を再現するのはやはり難しいです。 そこで、画像生成でおなじみの「ControlNet」を併用することで、意図したアニメーションを再現しやすくなります。 必要な準備 ComfyUIでAnimateDiffとCo...
note.com

ComfyUIにて作成していたため、sd-webuiで生成できるように考案した。

準備

Openpose画像(openpose_samples.zip)を以下のサイトから、ダウンロードする
※下記サイト様より、Openpose画像をお借りしました

【AIアニメ】ComfyUIとControlNetでAnimateDiffを楽しむ

【AIアニメ】ComfyUIとControlNetでAnimateDiffを楽しむ|Baku
「AnimateDiff」では簡単にショートアニメをつくれますが、プロンプトだけで思い通りの構図を再現するのはやはり難しいです。 そこで、画像生成でおなじみの「ControlNet」を併用することで、意図したアニメーションを再現しやすくなります。 必要な準備 ComfyUIでAnimateDiffとCo...
note.com

 【こちらからもダウンロード可能( openpose_samples.zip )】

連続画像を動画に変換する

Openpose画像を動画にするため、Flowframesを使用した

Flowframes - Fast Video Interpolation for any GPU by N00MKRAD
Video interpolation for everyone. Up to 100x faster than DAIN, compatible with all recent AMD/Nvidia/Intel GPUs.
nmkd.itch.io

編集などの設定は、以下の通りです。

Openpose画像を動画にした
※ゆっくりバージョン

openpose_samples-4x-RIFE-RIFE3.8-16fps.mp4

動画生成

画像準備

モデル: BracingEvoMix_v1.safetensors

プロンプト:

  1girl, grin, smile,standing,hair fluttering, tilting head,wave hand,perfect light,
pink dress, on stage,realistic, best quality, <lora:sweet_dress_style2_v1:0.8> , 

Sampling method: DPM++ 2M Karras

Hires. fix:1.2 

Number of frames:48 (6秒)

ControlNetにて、「OpenPose」を使用

動画元が、 OpenPose 動画のため、Preprocessorを none」 に変更 (←※重要)

roopで顔を固定する  (Upscaler scale は R-ESRGAN 4x+ 選択)

完成動画

VideoProc Vlogger使用(BGM追加など)

考察動画

今回作成したAI動画と元のOpenPose動画の比較

考察

連番画像を動画に変更することにより、動作をある程度固定した状態で、綺麗な動画(ヌルヌルした動画)を生成することができた。

なおかつ、Flowframesソフトを活用することにより、OpenPoseを動画にすることも簡単に作成できた。


sd-webui-AnimateDiff AI動画 (img2img) (2023-10-13 2:09:03)
feed

はじめに

前回、sd-webui-AnimateDiff AI動画を生成できた。

img2imgを用いても生成できることが分かった。

画像を2枚用意することによって、最初と最後のポーズを決められる。

これにより、連番のような画像を用意することにより、継続する動画を作成することができるようになると思われる。

参考サイト

sd-webui-AnimateDiffをイメージtoイメージで使う方法【AIアニメーション】

txt2img

連番画像の準備

連番画像生成(6枚)

txt2imgにて、似たような画像(連番画像)を6枚生成

ControlNet> IP-Adapter で衣装をある程度固定する

roopにて、顔画像をある程度固定する。

生成されたAI画像に連番を振る

img2img

先ほど作成した、「 001.png 」をimg2imgに貼り付ける (動画 最初の画像

他の設定などは、以下の通りです。

Latent power より下の場所に、「 002.png 」をimg2imgに貼り付ける(動画 最後の画像

roopにて、顔画像をある程度固定する。

生成途中の画像は、以下のようになる。

1つの動画生成を終了後、 最初の画像 最後の画像 を変更する

   最初の画像 を「001.png」から「 002.png
」にする
 最後の画像 を「002.png」から「 003.png 」にする 

これを連番ごとに変更することにより、動画の継続性が保たれる。

作成したい動画の最後のフレームを、最初の画像に戻すとループ状に動画が動く

  一番最後の動画生成の 最後の画像 を「 001.png
」にすることにより、全体の動画がループ状となる。
 最初の画像 を「 006.png 」にする
 最後の画像 を「 001.png 」にする 

動画編集

img2imgで生成した6つの動画を編集ソフトでまとめる

VideoProc Vlogger使用

これで、1つの動画を生成できた。

EBsynth生成(背景交換)

背景をEBsynthを用いて変更する

詳細は、以下をご覧ください。

動画編集 (BGM追加など)

VideoProc Vlogger 使用(BGM追加、フォーカスの動き、ダンスのスピード速度の変更など)

音源(フリー素材): また明日

フリージングル素材『また明日』試聴ページ|フリーBGM DOVA-SYNDROME
無料・著作権フリーのBGM素材「また明日(作:カピバラっ子)」の試聴ページです。
dova-s.jp

VideoProc Vlogger

完成動画


sd-webui-AnimateDiff AI動画 (2023-10-10 1:28:36)
sound ポッドキャスト : video/mp4

feed

はじめに

AIアニメーションがさらに向上した。

  • AnimateDiff
    PoseMy.Art 
    FFmpeg
    EBsynth
    VideoProc Vlogger

参考サイト

【必見】Control netやdeforumと連携したsd-webui-AnimateDiffのアップデートを確認しよう【AIアニメーション】

動画生成

AnimateDiff

AnimateDiffは、以下をご覧ください。

PoseMy.Art 

Opening video を作成する。

PoseMy.Artサイトより、ダンスムービーを作成。
Windows10の標準機能にて、画面録画できます。

Windows 10 の標準機能で画面録画の動画とキャプチャを撮る方法「スクリーンショット」
Windows10/11の標準機能のスクリーンショットが強化され、簡単にパソコンの画面を動画で録画するこができま...
www.pasoble.jp

作成したダンスムービーは以下の通りです。

Taggerの設定

ダンス衣装プロンプトをTaggerで生成

tagger:1girl, realistic, solo, smile, dress, pink dress, brown hair, hair ornament, shoes, looking at viewer, standing, long hair, microphone, hair flower, sneakers, flower, grin, full body, brown eyes

AnimateDiffの設定

ControlNetにて、「OpenPose」と「IP-Adapter」を使用しました。


Fooocus SDXL画像生成 (2023-10-9 15:18:31)
feed

はじめに

現在、Stable Diffusion でSDXL画像を生成している。
しかし、簡単にSDXL画像を生成するUIが発表されていた。

今回は、SDXLを手軽に扱える「 Fooocus 」を考察したい。

  • Fooocus

参考サイト

SDXLを手軽に扱える「Fooocus」のインストール方法・使い方まとめ!簡単操作でハイクオリティな画像を生成しよう

SDXLを手軽に扱える「Fooocus」のインストール方法・使い方まとめ!簡単操作でハイクオリティな画像を生成しよう
今回は新しく登場した画像生成ソフトに関する話題で Stable Diffusion XLを簡単に扱える「Fooocus」の導入方法と使い方 を丁寧にご紹介するという内容になっています。 Stable Diffusion XL(SDXL)が登
kurokumasoft.com

Fooocusのインストールから簡単な使い方を紹介【SDXLを手軽に高速に使える!低スペックでも安心です】Stable Diffusion WebUIのインストール方法

Fooocusのインストールから簡単な使い方を紹介【SDXLを手軽に高速に使える!低スペックでも安心です】Stable Diffusion WebUIのインストール方法
Fooocusのインストールから簡単な使い方を解説していきます。新しいStable Diffusion WebUIクライアントで動作の軽さや、設定が簡単な点が特徴となっています。Automatic1111でSDXLを動かせなかったPCでもFooocusを使用すれば動作させることが可能になるかもしれません。
itdtm.com

生成AIグラビアをグラビアカメラマンが作るとどうなる?第八回:シンプルで高機能なSDXL専用インターフェースFooocusとFooocus-MREの使いかた (西川和久)

生成AIグラビアをグラビアカメラマンが作るとどうなる?第八回:シンプルで高機能なSDXL専用インターフェースFooocusとFooocus-MREの使いかた (西川和久) | テクノエッジ TechnoEdge
Stable Diffusionを使う新たなインターフェース、Fooocusをご紹介したい。インストールはbat一発、起動/アップデートもbat一発、Modelも初期起動時に自動的にダウンロードと非常にシンプル。そしてなにより、出てくる絵が驚異的という優れたインターフェースなのだ。
www.techno-edge.net

Fooocusのインストール方法

圧縮ファイルをダウンロード

GitHub - lllyasviel/Fooocus: Focus on prompting and generating
Focus on prompting and generating. Contribute to lllyasviel/Fooocus development by creating an account on GitHub.
github.com

Click here to download から圧縮ファイルをダウンロード

ダウンロードしたファイルを適当な場所に展開してください
※Cドライブ直下がおすすめ

2つのモデルファイルを事前にダウンロード

  • sd_xl_base_1.0_0.9vae.safetensors
  • sd_xl_refiner_1.0_0.9vae.safetensors
stabilityai/stable-diffusion-xl-base-1.0 at main
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
huggingface.co
stabilityai/stable-diffusion-xl-refiner-1.0 at main
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
huggingface.co

  Fooocus>  models>  checkpoints へ配置 

最後に、Fooocus> run.bat を実行

AI画像生成

人物

プロンプト:

(((close up of face))), close up, analog documentary photo,face, looking at viewer,1girl, japanese, detailed eyes,
18yo,Pretty, loli_face, distant eyes, detailed face, round face, small chin, grin, smile,
high nose, round face, thin pink lips, ( tears in eyes ),(streaming tears),
realistic, blurry background, A bustling outdoor market,kosina,leogirl,
ultra high res,(realistic:1.4),deep shadow,(best quality, masterpiece),highly detailed, depth of field, film grain, crying,
(redness around the eyes), (masterpiece,best quality:1.5),jpn-girl,

Model:sdxl10ArienmixxlAsian_v30Pruned.safetensors

Lora:japanese_girl_v1.1.safetensors, 幼?美kosina.safetensors

プロンプト:1dog,realistic, blurry background,ultra high res,(realistic:1.4),deep shadow,(best quality, masterpiece),highly detailed, depth of field, film grain,

プロンプト:1cat,realistic, blurry background,ultra high res,(realistic:1.4),deep shadow,(best quality, masterpiece),highly detailed, depth of field, film grain,

アンドロイド

プロンプト:cyborg, realistic, blurry background,ultra high res,(realistic:1.4),deep shadow,(best quality, masterpiece),highly detailed, depth of field, film grain,

考察

Stable Diffusion でSDXL画像を生成していた。

しかし、Fooocusを用いることによって、SDXL画像をお手軽に生成できることが分かった。

今後、SDXLを用いて、Lora学習をしてみたい。

Fooocus(SDXL)を用いることにより、飛躍的に画像生成が綺麗になったことが理解できた。


アニメーション動画『Deforum』考察 (Stable Diffusion V1.6) (2023-10-5 21:26:16)
feed

はじめに

Stable Diffusion V1.6にバージョンアップしたため、AI動画を再確認している。

今回は、アニメーション動画『Deforum』を考察してみる

参考サイト

アニメーション動画『Deforum』考察 (Stable Diffusion)

Deforum』の構築方法などは、こちらを参考にしてください↑

AI動画生成

考察

Stable Diffusion V1.6にバージョンアップしたため、以前と比較すると格段に良くなっている。

画像1枚1枚も画質が向上しているし、何よりひとつ前の画像を継承してAI画像をそれぞれ生成しているように見える。


アニメーション生成 AnimateDiff (2023-10-4 23:52:04)
sound ポッドキャスト : video/mp4

feed

はじめに

現在、AI画像からAI動画へと発展してきている。

Stable DiffusionでAI動画にチャレンジしてみる。

参考サイト

Stable Diffusionで動画生成AnimateDiff

Stable Diffusionで動画生成AnimateDiff
本記事ではStable Diffusionで動画を生成する際に、最も有効な手法であるといっても過言ではないAnimateDiffの使い方について解説します。プロンプトから動画を生成する基本的な使い方からControlNetを使って実写動画か
kindanai.com

AnimateDiffインストール

Extensions> Load from> animatediffで検索

 → 「Install」をクリックしてインストール

※インストール後、再起動してください

AnimateDiffのモデル

  • mm_sd_v14.ckpt
    mm_sd_v15.ckpt
    mm_sd_v15_v2.ckpt
animatediff - Google ドライブ
drive.google.com

stable-diffusion-webui> extensions> sd-webui-animatediff> model に配置する

AI動画生成

設定例

  • AnimateDiffのメニューを開く
    Motion module:mm_sd_v15_v2.ckpt (おすすめ)
    Enable AnimateDiff:チェックを入れる

→Generate

生成結果

考察

Stable Diffusion V1.6 にアップデートし、モデルをmm_sd_v15_v2.ckptにしたことにより、かなり現実味のあるAI動画が完成した。

今回は2秒程度、AI動画を生成できた。

数分単位でAI動画ができるようになれば、ようやく実用性も出てくると思う。


« [1] 15 16 17 18 19 (20) 21 22 23 24 25 [45] » 

execution time : 0.075 sec
大好評 パソコン修理ホームページ制作
坂東市観光協会 坂東市商工会 岩崎電気サービス PC修理のわたなべ クリーニング オオヤマ 坂東青年会議所 野口農園 オートショップS.S なかつま動物病院
Bando! 坂東市タウンなび