二次元裏@ふたば

画像ファイル名:1769749984714.jpg-(5593 B)
5593 B26/01/30(金)14:13:04No.1397214650+ 16:53頃消えます
z-imageに今のlora資産移すために今のlora使った画像生成するべきなんだけどねむい
このスレは古いので、もうすぐ消えます。
126/01/30(金)14:14:10No.1397214869+
今のloraで使った画像使うだけじゃいかんの?
226/01/30(金)14:17:05No.1397215498+
実写専門「」か?
326/01/30(金)14:22:04No.1397216568+
stability matrixとcomfyuiを両方最新版にしたら起動しなくなった
426/01/30(金)14:29:17No.1397218057+
(誰か作るだろ…)
526/01/30(金)14:39:56No.1397220315+
>stability matrixとcomfyuiを両方最新版にしたら起動しなくなった
どっちが?
626/01/30(金)14:41:09No.1397220606そうだねx1
来週DLCが来るぞ!
726/01/30(金)14:43:29No.1397221104+
>>stability matrixとcomfyuiを両方最新版にしたら起動しなくなった
>どっちが?
comfyuiが
でも環境によると思う
826/01/30(金)14:54:41No.1397223304そうだねx2
Matrixは諸々が少し前のバージョンで固定されてたりするから最新技術追うのには向いてないよね
926/01/30(金)14:57:47No.1397223893+
絵柄って複数混ぜるとき合計が1になるようにとかなんかコツってあるんですか?
1026/01/30(金)15:00:06No.1397224301+
もしかして今easyreforgで環境つくると古い環境になる?
1126/01/30(金)15:10:03No.1397226074そうだねx1
fu6233114.jpeg
漢字も出してくれてありがたいねZイメージ
1226/01/30(金)15:11:08No.1397226275+
いまのlora資産を移すもなにも使ったデータは全部残しているから時間さえあればいくらでも再現可能だぜ
1326/01/30(金)15:12:12No.1397226460+
当たり前なんだろうけどzいもげだと素のモデルだけあって細かいところ若干不安定だから現状turboの方が使ってる
表現の幅的にはzいもげがいいけど
1426/01/30(金)15:13:11No.1397226638+
もっとZいもげを使った超絶えっち絵を見せて俺を揺るがせてくれ
1526/01/30(金)15:14:50No.1397226956+
ZいもげのImage to LoRAってどんなもんなのかね
調べたらqwenのI2Lはもうリリースされてるけど
1626/01/30(金)15:16:04No.1397227199+
newbieで大まかな構図出して既存のいらすとや系モデルでi2iしてる
newbie悪くないし結構そのままでも使えるけど好きな絵柄がプロンプトであんまり反映されないんだよな…
1726/01/30(金)15:16:53No.1397227371+
>comfyuiが
>でも環境によると思う
俺もなんかWanと相性よくないみたいでstability matrixの導入諦めたわ
1826/01/30(金)15:18:07No.1397227632そうだねx2
WAIの人がZ-imageベースのcheckpoint作ってるからもうバージョンアップないよ
みたいなことを言ってた覚えがあるので
それ出たらみんなそっち行くと思う
1926/01/30(金)15:18:41No.1397227746+
いよいよVRAM16GBが標準に時代になるか…
2026/01/30(金)15:19:55No.1397227988+
NOVA furry使ってるけどモデルとしてはどうなんこれ
2126/01/30(金)15:20:09No.1397228041+
色々出過ぎてよく分からない…
流れがはっきりするまで待つしかない…
2226/01/30(金)15:21:35No.1397228355+
ふぉrげねお入れたいけどRADEONだからまだ上手くいかねぇ…
自分でトラブルシューティングできるくらいの知能が欲しい
2326/01/30(金)15:21:36No.1397228356+
いもげそんないいの?
Ponyからリアスくらいの差あるの?
2426/01/30(金)15:22:07No.1397228447+
civitaiのSDXL系のLORA全てDLしてるからzいもげに移るに移れない
2526/01/30(金)15:22:29No.1397228514+
>いもげそんないいの?
>Ponyからリアスくらいの差あるの?
次世代モデルにしては軽いしプロンプトの反映力も既存のとは段違い
現状エロ待ち
2626/01/30(金)15:22:46No.1397228567+
Zいもげ動かすならwebui無理なんだっけ
2726/01/30(金)15:23:41No.1397228740そうだねx5
SD1.5からSDXLに移るときもponyや兄魔人出るまでそこまでみんな移行してなかったしまあ急がなくても良かろう
2826/01/30(金)15:24:18No.1397228859+
比較的軽量かつfluxくらい良いやつらしいけど
Comfyuiを使わないといけないみたいな話を聞いて一旦見に回った
2926/01/30(金)15:26:10No.1397229249+
動画やってるけど画像用のワークフローよく分からんので画像はreforgeのままだ
3026/01/30(金)15:26:16No.1397229264そうだねx1
12GBの身としてはなんらかの軽量化をキボンヌしている
3126/01/30(金)15:26:46No.1397229358+
漏れもComfyUIがわからんすぎてどうしようかと…
3226/01/30(金)15:27:32No.1397229515+
Zいもげベースは本当にベースだからまず選好チューニングしないとモノにならないと思う
金があれば!
3326/01/30(金)15:27:48No.1397229589+
まあそのうち有志が軽量化してくれるまでマターリしませう
3426/01/30(金)15:28:00No.1397229627そうだねx2
ちびたいのLoraがZいもげで埋め尽くされるくらいになったら入れるかな…
3526/01/30(金)15:28:21No.1397229702+
比較的ベーシックな実装だしWebUIくらいならClaudeとかに言ったら自動で作れそうだけどね
3626/01/30(金)15:29:33No.1397229946+
次世代系モデルはだいたい外部からllmを読み込まなきゃいけないからその辺a1111系だと面倒なんかな
3726/01/30(金)15:29:44No.1397229978+
comfyuiで変数使いまくったダイナミックプロンプトが同じように動くかわかんない
調べる気力が無いので移行が出来ない
3826/01/30(金)15:31:35No.1397230345+
>次世代系モデルはだいたい外部からllmを読み込まなきゃいけないからその辺a1111系だと面倒なんかな
CLIPも元々Transformersで読んできてるしどっちかって言うとA1111の建て増しクーロン城を誰もリノベーションしたくないんだと思う
3926/01/30(金)15:33:11No.1397230644+
普段t2iとCN使ってるんだけどi2iってなんのためにあるんだこれってなってる
4026/01/30(金)15:38:43No.1397231698+
Anytest使ってi2iイラネってなるのはわかる
色に引っ張らせたいかそうでないかで使い分け出来なくは無いんだろうけど
4126/01/30(金)15:39:11No.1397231793+
>普段t2iとCN使ってるんだけどi2iってなんのためにあるんだこれってなってる
強いて言うなら単にモデルの仕組みの都合上実装しやすいからかな…
SDEditって言う方が正しいんかもしれんけどアレ
4226/01/30(金)15:42:18No.1397232370+
WAI信者の俺はじっと待つのみ
4326/01/30(金)15:42:45No.1397232435+
すんごい今さらなんだけどComfyUIでLoRA使うときって
Check point→プロンプト→KサンプラーA→出力画像A
でLoRAを通さずに生成した画像を用意したあと
Check point→LoRA→プロンプトと出力画像A→KサンプラーB→完成画像
みたいなワークフローを組む感じ?
出力画像Aの段階でLoRAかませると同じようなやつしか出力されないんだよね
4426/01/30(金)15:44:16No.1397232716+
>出力画像Aの段階でLoRAかませると同じようなやつしか出力されないんだよね
それはLoRAが過学習してるんだろう
Eular Aとか使って確率的な成分を補強するかLoRAの適用強度を下げるかかな
4526/01/30(金)15:44:39No.1397232782+
リアスで充分かなと思っていたけどz-imageの時代がきちゃうか…
当時はPonyで充分だと思っていたけどリアスは凄かったし
リアスからZ-imageも比べ物にならないんだろうな
4626/01/30(金)15:45:04No.1397232847+
Zってエロいけるん?
4726/01/30(金)15:45:58No.1397232991+
まぁ推しキャラの完璧再現ならリアスでもまだ8割くらいなところはあるしなぁ
4826/01/30(金)15:47:06No.1397233163+
>普段t2iとCN使ってるんだけどi2iってなんのためにあるんだこれってなってる
オイラーさんにおまかせシコ画像をお願いするんじゃなくて
こういう構図のシコ画像を出したいってときに
ザックリ下絵を描いて参照させるとかじゃないかなあ
4926/01/30(金)15:47:10No.1397233173+
そういえばZ-imageが普及すればやっとv-predictionがデファクトになるんだな…長かった
5026/01/30(金)15:48:47No.1397233448+
>Zってエロいけるん?
石油王待ちらしい
5126/01/30(金)15:50:35No.1397233764+
PonyのLoraが一部リアスで使えたりしたけど
さすがにもうZいもげでは無理そうか
5226/01/30(金)15:51:26No.1397233911+
自然言語対応モデルでも版権キャラを追加学習させようとするとDanbooru型になってしまうんだろうか
5326/01/30(金)15:52:02No.1397234023+
>PonyのLoraが一部リアスで使えたりしたけど
>さすがにもうZいもげでは無理そうか
ネットワークの構成から違うのは流石に…
SD1のLoRAをSDXLに持って行くみたいな話だ
5426/01/30(金)15:53:02No.1397234205+
Zいもげって例えば複数キャラ指定が全然混じらなかったりするんです?
5526/01/30(金)15:53:14No.1397234227+
>自然言語対応モデルでも版権キャラを追加学習させようとするとDanbooru型になってしまうんだろうか
Danbooru語を画像を見て自然言語に翻訳するフェーズを挟めば行けるけどそれやるとかなりの金がかかるからね
NSFW行けるVLMあまり見たことないし
5626/01/30(金)15:56:24No.1397234699+
ZはDiTだしV-predだしDDPMじゃなくてRectified Flowだから数世代飛ばして近代化するなあ
5726/01/30(金)15:57:31No.1397234883+
ZいもげのLora学習ってローカルだとGPUどれくらい必要?
5826/01/30(金)16:00:13No.1397235358+
Zいもげは実写ならエロあるよ笑
5926/01/30(金)16:03:05No.1397235823+
>Zいもげって例えば複数キャラ指定が全然混じらなかったりするんです?
右側のキャラ:金髪碧眼絶壁
左側のキャラ:黒髪赤目デカパイ
みたいに書いていけばturboでもわりとちゃんと分かれる
細かい表情やポーズまでいくと混ざっちゃう
6026/01/30(金)16:03:46No.1397235948+
Zいもげが8GBで動いていらすとや相当のモデル来たら移行しよう…
6126/01/30(金)16:03:52No.1397235969そうだねx1
>Zいもげって例えば複数キャラ指定が全然混じらなかったりするんです?
やってみた
f300814.png
6226/01/30(金)16:03:57No.1397235983+
>右側のキャラ:金髪碧眼絶壁
>左側のキャラ:黒髪赤目デカパイ
>みたいに書いていけばturboでもわりとちゃんと分かれる
おお…
>細かい表情やポーズまでいくと混ざっちゃう
おおん…
6326/01/30(金)16:05:15No.1397236215そうだねx2
>f300814.png
指気持ち悪っ
6426/01/30(金)16:09:08No.1397236890+
別に今でシコる分には困ってないし次々世代まで見でいいかな…
6526/01/30(金)16:11:04No.1397237236そうだねx3
Zいもげになって絵のクオリティが上がるわけじゃなく簡単な指示で難しい構図を理解してもらいやすくなったりとかだからイラストだけじゃわかんないね
6626/01/30(金)16:12:16No.1397237443+
forge Neoで動くん?
6726/01/30(金)16:12:22No.1397237454+
出力したイラストの検品が凄い面倒だから手のクオリティチェックをして採点する検品システム作ったらかなり楽になった
6826/01/30(金)16:13:03No.1397237571+
>Zいもげになって絵のクオリティが上がるわけじゃなく簡単な指示で難しい構図を理解してもらいやすくなったりとかだからイラストだけじゃわかんないね
生成部分のネットワークがほぼ純粋なTransformerになったからSDXLのUnetとは絵柄的にも若干性質変わると思うよ
ゴリゴリにチューニングされたモデル出てこないと判断できないけど
6926/01/30(金)16:13:04No.1397237574そうだねx1
Zいもげっていわゆるベースモデルなの?
7026/01/30(金)16:13:18No.1397237612+
3人それぞれ服装とポーズ設定
Zイモゲ BASE
fu6233268.jpg
7126/01/30(金)16:13:49No.1397237706+
>Zいもげっていわゆるベースモデルなの?
左様
7226/01/30(金)16:14:22No.1397237806+
じゃあふたなり天使娘が悪魔娘をレイプしてるイラストとかもキャラが融合せずにポン出し出来るようになるの?
7326/01/30(金)16:14:26No.1397237820そうだねx1
今は動けない
7426/01/30(金)16:14:59No.1397237907+
いらすとやさんみたく無法な絵師タグ効いたりするの?
7526/01/30(金)16:15:23No.1397237969+
絵柄loraの影響を受けつつ複数のキャラloraが混ざらなくなったら教えて
7626/01/30(金)16:15:47No.1397238041+
>じゃあふたなり天使娘が悪魔娘をレイプしてるイラストとかもキャラが融合せずにポン出し出来るようになるの?
暇なドスケベ億万長者がいればできるようになるよ
7726/01/30(金)16:16:43No.1397238195そうだねx1
ComfyUIってわけわからんから使ってないなあ…
勉強すべきかなあ…
7826/01/30(金)16:16:47No.1397238207+
>3人それぞれ服装とポーズ設定
>Zイモゲ BASE
>fu6233268.jpg
細部が溶けてるのはかわんないか
7926/01/30(金)16:16:54No.1397238234+
SDとかSDXLの世に出てるモデルはデカいデータで学習してから最後に厳選して質の良いデータだけで学習することで生成品質底上げしたモデルだけどZベースはマジでベースだからそのままだと出力は良くない
8026/01/30(金)16:16:55No.1397238235+
学習がやりやすくなるってのはどのレベルなんだろう
8126/01/30(金)16:16:58No.1397238244そうだねx1
このスレにいる人間の大半が求めるものは少なくとも半年は待たないと出てこない
8226/01/30(金)16:17:49No.1397238392+
>いらすとやさんみたく無法な絵師タグ効いたりするの?
zいもげは現状そもそもdanbooruタグ学習してないから無理
そこでこのnoobチーム
8326/01/30(金)16:18:13No.1397238469+
AがBを後ろから抱きしめつつCがAに横から飛びつく
みたい絡みじゃないとエロで混ざるかどうかの指標にならんのでは…
8426/01/30(金)16:18:20No.1397238489+
>このスレにいる人間の大半が求めるものは少なくとも半年は待たないと出てこない
半年待ったら好きなキャラが声付きでおじさんとズコバコしてる動画がお出ししてくれるようになるなら待つけど…
8526/01/30(金)16:18:22No.1397238496そうだねx3
>ComfyUIってわけわからんから使ってないなあ…
>勉強すべきかなあ…
人間必要に迫られたら覚えられるもんなんだなあって我が身を振り返って思う
必要に迫られないと覚えられなかったなあとも思う
8626/01/30(金)16:18:51No.1397238583+
真ん中誰だよ
8726/01/30(金)16:19:19No.1397238660+
鬼滅の刃風とか鳥山明風とかそういう指定したら学習してるやつなら絵柄も変わるよ
8826/01/30(金)16:19:43No.1397238723+
動画もwan2.2あたりからなんか進捗あるかね
8926/01/30(金)16:20:01No.1397238765+
計算資源も高いけどAIちゃんと大規模学習させられるエンジニアはもっと高い
9026/01/30(金)16:20:14No.1397238802そうだねx1
>WAIの人がZ-imageベースのcheckpoint作ってるからもうバージョンアップないよ
>みたいなことを言ってた覚えがあるので
>それ出たらみんなそっち行くと思う
リアスのmergeモデル作者に過ぎない人に何ができんの
noob作ってたとこが追加学習やって第二のリアス作ってくれるとかならともかく
9126/01/30(金)16:20:38No.1397238880そうだねx1
シコるだけなら既存のwebUIでも事足りてしまう…
9226/01/30(金)16:21:37No.1397239041+
やっとBASEが出たばかりでここからチューニングだろうから使えるモデルはまだまだ先だろうな
9326/01/30(金)16:21:54No.1397239087+
なんにせよいらすとやさん登場から画像出力は停滞感があったから今年は進化を期待したい
9426/01/30(金)16:22:19No.1397239153+
>動画もwan2.2あたりからなんか進捗あるかね
ローカルって意味ならLTX2が最近出てきたくらいかな
9526/01/30(金)16:22:50No.1397239233そうだねx2
4070無印だから流れに乗れない
悲しい…
9626/01/30(金)16:23:12No.1397239290+
乗り換えたら凄いのはわかるけど今くらいスケベに都合が良くてかんたんに導入できたらいいなって…
9726/01/30(金)16:24:01No.1397239414+
オンラインサービスがどっこもエロに厳しくなるだろうしね…
9826/01/30(金)16:24:08No.1397239430+
俺は口を開けてずんたんを待つだけ
9926/01/30(金)16:24:42No.1397239523そうだねx2
>>ComfyUIってわけわからんから使ってないなあ…
>>勉強すべきかなあ…
>人間必要に迫られたら覚えられるもんなんだなあって我が身を振り返って思う
>必要に迫られないと覚えられなかったなあとも思う
いらすとやさんよりも目に見えて良い感じのが出せるって分かればおちんぽが学習モードONしてくれるはず
10026/01/30(金)16:25:50No.1397239701+
今はプログラム組むのが面白い層がcomfyやってて
絵が欲しい人はなんでこんなもんを…って感じだからね
10126/01/30(金)16:25:55No.1397239720そうだねx1
今我が家のGPUは音声関係に夢中
10226/01/30(金)16:27:00No.1397239876+
>今我が家のGPUは音声関係に夢中
今って音声だとどれがいいんだ
昔ちょっとやってガビガビになった奴が出力されて放置したけど
10326/01/30(金)16:27:09No.1397239901+
SDXLだって最初の頃はエロ出ないから見向きもされなかったけど今じゃ主流になってるしな
10426/01/30(金)16:27:11No.1397239903そうだねx2
zいもげもdanbooruでタグ学習させたすけべモデルは結局IQ下がってsdxl並になる気がする
上手いこといくと良いんだけど
10526/01/30(金)16:27:16No.1397239926+
>乗り換えたら凄いのはわかるけど今くらいスケベに都合が良くてかんたんに導入できたらいいなって…
現状凄いものになる可能性を秘めているという感じなのでここからだ
10626/01/30(金)16:28:21No.1397240099+
動画もだけど技術的に楽しめる人が最先端の辺りでやってるくらいの感覚だわ
10726/01/30(金)16:28:49No.1397240172そうだねx1
英語なんて分からないけどdanbooru語なら完璧だからな
10826/01/30(金)16:28:50No.1397240178+
>今我が家のGPUは音声関係に夢中
画像にマンネリ感じたからこっちやり始めたけど面白すぎるね
初めてエロ画像出した時の感動をまた味わえたわ
10926/01/30(金)16:28:57No.1397240197そうだねx1
もはやdanbooruタグの表現の幅が狭い
もっと細分化して欲しい
11026/01/30(金)16:29:15No.1397240242+
もう今の環境で極まっちゃったから新しい環境に変えるのもなぁ
11126/01/30(金)16:29:36No.1397240298+
音声はどんなソフトがあるの?
11226/01/30(金)16:29:37No.1397240304+
手元でナノバナナばりのリファレンス追従できたらなあ…
プロンプトの解釈までは欲張らないから、衣装やキャラデザのあたりを…
11326/01/30(金)16:30:07No.1397240393+
>もはやdanbooruタグの表現の幅が狭い
>もっと細分化して欲しい
最近オリキャラ作りに精を出してるから
凄い不自由さを感じる
11426/01/30(金)16:30:12No.1397240404+
danbooru語も全部通ったりする訳じゃないから英語も学んでるぞ俺
11526/01/30(金)16:30:32No.1397240468+
>もう今の環境で極まっちゃったから新しい環境に変えるのもなぁ
へへ…一年前に(俺的に)極まってた環境最近復帰してやるか!ってアップデートして壊れちゃったぜ
11626/01/30(金)16:30:54No.1397240518+
>今って音声だとどれがいいんだ
qwenかStep Audioじゃない?
11726/01/30(金)16:31:38No.1397240639+
>もはやdanbooruタグの表現の幅が狭い
>もっと細分化して欲しい
口横に広げたいとか黒目大きくしたいとかちょっとした部分でタグ無いのから出来ないのかよ!?ってなることが結構あるよね
ねがぴっぴで工夫する
11826/01/30(金)16:32:43No.1397240816+
音声関係は裏の裏がだいぶ無法な事になってるな
11926/01/30(金)16:33:15No.1397240896+
z-imageもpony出すって本当?
12026/01/30(金)16:34:32No.1397241114+
音声も触ってみたけどアクセント調整めんどくさすぎない?
12126/01/30(金)16:34:41No.1397241140+
>音声関係は裏の裏がだいぶ無法な事になってるな
別にヤバい事をやってる感を楽しみたいわけではないからその辺は見て見ぬ振りをしている
ただちょっとシコりたいだけだから…
12226/01/30(金)16:34:47No.1397241164そうだねx1
できればタグと自然言語どっちも対応してほしいんだよな
タグでざっくり出して細かい部分を自然言語で調整したい
12326/01/30(金)16:35:38No.1397241325+
>音声も触ってみたけどアクセント調整めんどくさすぎない?
数撃って良いやつを繋げる
12426/01/30(金)16:36:20No.1397241450そうだねx3
>z-imageもpony出すって本当?
それを言うならponyがZいもげで出すじゃねえかな…
12526/01/30(金)16:36:22No.1397241453+
音声はなんか手を出したらいよいよヤバい気がして…
12626/01/30(金)16:39:12No.1397241984+
>音声はなんか手を出したらいよいよヤバい気がして…
生成した絵を当時のGrokで動かして音声も後乗せで合成したらめちゃめちゃヤバかったよ
12726/01/30(金)16:39:23No.1397242029+
AI音声って喘ぎ声とか簡単に良い感じに出せるようになった?
12826/01/30(金)16:39:40No.1397242089+
>AI音声って喘ぎ声とか簡単に良い感じに出せるようになった?
なったけど死んだ
12926/01/30(金)16:40:07No.1397242181+
Zいもげはフォトリアルもいける?
13026/01/30(金)16:40:15No.1397242204+
技術の革新がえっちだから駄目で停滞させられるのおかしいと思いませんかあなた
13126/01/30(金)16:40:30No.1397242243+
音声は最近なんかすごいやつ出たんじゃなかったっけ
13226/01/30(金)16:40:34No.1397242255+
>AI音声って喘ぎ声とか簡単に良い感じに出せるようになった?
出せるのも結構ある
13326/01/30(金)16:40:54No.1397242326+
エロゲと音声作品をぶち込みまくったイラン人は処された
13426/01/30(金)16:40:54No.1397242328+
>AI音声って喘ぎ声とか簡単に良い感じに出せるようになった?
アンアンだけでもわりとバリエーション出るから正解を繋ぎ合わせれば使えるかなぁ
13526/01/30(金)16:41:29No.1397242442+
>qwenかStep Audioじゃない?
サンキュー調べてみる
13626/01/30(金)16:41:38No.1397242475+
>Zいもげはフォトリアルもいける?
むしろエロ目的なら今のところそっち
turboに比べたら絵柄の幅が増えた方だけど
13726/01/30(金)16:42:24No.1397242611+
AI音声というか最近は歌わせるのが流行ってるらしいな
13826/01/30(金)16:42:43No.1397242664+
>>AI音声って喘ぎ声とか簡単に良い感じに出せるようになった?
>アンアンだけでもわりとバリエーション出るから正解を繋ぎ合わせれば使えるかなぁ
ありがとう調べてみる
Liasaとかまでは使ってたけど参照元に喘ぎ声っぽいのないと上手くそのキャラの喘ぎ声になってくれなかったんだよね
13926/01/30(金)16:42:48No.1397242674そうだねx2
謎のイラン人はモデルを放流してから消えてくれればいうことなかったのに
14026/01/30(金)16:43:32No.1397242823+
声優名指定したら出てくるのは末法感ありすぎたよイラン人…
14126/01/30(金)16:43:48No.1397242874+
>もはやdanbooruタグの表現の幅が狭い
>もっと細分化して欲しい
これは偶に思う
14226/01/30(金)16:43:57No.1397242901+
>AI音声というか最近は歌わせるのが流行ってるらしいな
suno何歌わせても名曲になるんで満足感が高い
https://suno.com/s/Nb4q5HeCrTKQXN69
14326/01/30(金)16:44:08No.1397242936+
>もはやdanbooruタグの表現の幅が狭い
>もっと細分化して欲しい
e621も食わせるか…
14426/01/30(金)16:44:59No.1397243086+
イラン人のやつ知らないわ…そんなの出てたのか…
14526/01/30(金)16:45:21No.1397243154+
タグ付ける側に知識がないと細分化しようもないからなぁ…
現状ファッションとか色とかあまりにも雑過ぎるが仕方ないとも思う
14626/01/30(金)16:45:24No.1397243163+
>suno何歌わせても名曲になるんで満足感が高い
>https://suno.com/s/Nb4q5HeCrTKQXN69
さすがに五百曲くらい生成してたらマンネリ化したけど遊ぶにはいいおもちゃだよね
個人で遊ぶ分には替え歌とか声の参照とか無法もできるし
14726/01/30(金)16:46:36No.1397243394+
>イラン人のやつ知らないわ…そんなの出てたのか…
フクマルコイトで知らないライフハック喋らせる遊びが一瞬だけここで流行ったよ
すぐに消えた
14826/01/30(金)16:47:01No.1397243478+
>タグ付ける側に知識がないと細分化しようもないからなぁ…
>現状ファッションとか色とかあまりにも雑過ぎるが仕方ないとも思う
タグはあるのになんで効かねえんだと思ったら関係ない画像やたら登録されてるとかある
14926/01/30(金)16:47:32No.1397243569+
イラン人モデルは普通にSOTA級かつ
一般コミュニティには公開されてなさそうな
データセットからも学習してたからやべえよ
15026/01/30(金)16:48:19No.1397243726+
イラン人のアレは明らかに内部の犯行すぎた
15126/01/30(金)16:48:32No.1397243767+
>>comfyuiが
>>でも環境によると思う
>俺もなんかWanと相性よくないみたいでstability matrixの導入諦めたわ
もう見てないかもしれんが前に同じ現象になってフォーラム見たらPythonのバージョン下げるコマンドオプションで仕込むかグラボのドライバ更新しろってなってた
んで前者はmatrixのバージョン上がる度にやり直しなんでドライバ更新して安定したよ
15226/01/30(金)16:50:03No.1397244054+
自称イラン人のやつ凄かったけど発表してすぐにsora2来て話題かっさらわれたからな
15326/01/30(金)16:50:25No.1397244129+
Lora頼りだった人間だから学習ハードル次第ではついていけない可能性があるな…
15426/01/30(金)16:51:17No.1397244319+
規制なしのフルスペックsora2欲しいよお…
15526/01/30(金)16:51:25No.1397244350+
>タグ付ける側に知識がないと細分化しようもないからなぁ…
>現状ファッションとか色とかあまりにも雑過ぎるが仕方ないとも思う
もう服については長ったらしい自然言語で再現してくれるのを祈ってガチャするより画像参照させた方が早くなってきた
だからZいもげEditはやくだしてやくめでしょ


fu6233268.jpg 1769749984714.jpg fu6233114.jpeg