-
Notifications
You must be signed in to change notification settings - Fork 11
RU‐Wiki
Michael edited this page Sep 18, 2024
·
14 revisions
Интерфейс имеет сорок один подраздел (некоторые с собственными подразделами) в семи основных разделах (Текст, Изображение, Видео, 3D, Аудио, Дополнительно и Интерфейс): LLM, TTS-STT, MMS, SeamlessM4Tv2, LibreTranslate, StableDiffusion, Kandinsky, Flux, HunyuanDiT, Lumina-T2X, Kolors, AuraFlow, Würstchen, DeepFloydIF, PixArt, PlaygroundV2.5, Wav2Lip, LivePortrait, ModelScope, ZeroScope 2, CogVideoX, Latte, StableFast3D, Shap-E, SV34D, Zero123Plus, StableAudio, AudioCraft, AudioLDM 2, SunoBark, RVC, UVR, Demucs, Upscale (Real-ESRGAN), FaceSwap, MetaData-Info, Wiki, Gallery, ModelDownloader, Settings и System. Выберите нужный и следуйте инструкциям ниже
- Сначала загрузите ваши модели в папку: inputs/text/llm_models
- Выберите вашу модель из выпадающего списка
- Выберите тип модели (
transformers
илиllama
) - Настройте модель согласно нужным вам параметрам
- Напечатайте (или произнесите) ваш запрос
- Нажмите кнопку
Submit
, чтобы получить сгенерированный текстовый и аудио ответ
Дополнительно: вы можете включить режим TTS
, выбрать нужный голос
и язык
, чтобы получить аудио ответ. Вы можете включить multimodal
и загрузить изображение, чтобы получить его описание. Вы можете включить websearch
для доступа в Интернет. Вы можете включить libretranslate
для получения перевода. Вы можете включить OpenParse
для работы с pdf файлами. Также вы можете выбрать модель LORA
для улучшения генерации
- Введите текст для преобразования текста в речь
- Введите аудио для преобразования речи в текст
- Нажмите кнопку
Submit
, чтобы получить сгенерированный текстовый и аудио ответ
- Введите текст для преобразования текста в речь
- Введите аудио для преобразования речи в текст
- Нажмите кнопку
Submit
, чтобы получить сгенерированный текстовый или аудио ответ
- Напечатайте (или произнесите) ваш запрос
- Выберите исходный, целевой языки и язык набора данных
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить перевод
- Сначала вам нужно установить и запустить LibreTranslate
- Выберите исходный и целевой языки
- Нажмите кнопку
Submit
, чтобы получить перевод
- Сначала загрузите ваши модели в папку: inputs/image/sd_models
- Выберите вашу модель из выпадающего списка
- Выберите тип модели (
SD
,SD2
илиSDXL
) - Настройте модель согласно нужным вам параметрам
- Введите ваш запрос (+ и - для взвешивания промпта)
- Нажмите кнопку
Submit
, чтобы получить сгенерированное изображение
Дополнительно: Вы можете выбрать ваши модели vae
, embedding
и lora
, а также включить MagicPrompt
для улучшения метода генерации
- Сначала загрузите ваши модели в папку: inputs/image/sd_models
- Выберите вашу модель из выпадающего списка
- Выберите тип модели (
SD
,SD2
илиSDXL
) - Настройте модель согласно нужным вам параметрам
- Загрузите исходное изображение, с которым будет происходить генерация
- Введите ваш запрос (+ и - для взвешивания промпта)
- Нажмите кнопку
Submit
, чтобы получить сгенерированное изображение
Дополнительно: Вы можете выбрать ваши модели vae
, embedding
и lora
, а также включить MagicPrompt
для улучшения метода генерации
- Загрузите исходное изображение
- Настройте модель согласно нужным вам параметрам
- Введите ваш запрос (+ и - для взвешивания промпта)
- Нажмите кнопку
Submit
, чтобы получить сгенерированное изображение
- Загрузите исходное изображение
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированные изображения глубины
- Загрузите исходное изображение
- Настройте модель согласно нужным вам параметрам
- Введите ваш запрос (+ и - для взвешивания промпта)
- Нажмите кнопку
Submit
, чтобы получить сгенерированное изображение
- Сначала загрузите ваши модели stable diffusion в папку: inputs/image/sd_models
- Загрузите исходное изображение
- Выберите ваши модели stable diffusion и controlnet из выпадающих списков
- Настройте модели согласно нужным вам параметрам
- Введите ваш запрос (+ и - для взвешивания промпта)
- Нажмите кнопку
Submit
, чтобы получить сгенерированное изображение
- Загрузите исходное изображение
- Выберите вашу модель
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить увеличенное изображение
- Загрузите исходное изображение
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить увеличенное изображение
ВНИМАНИЕ: Вам нужно самостоятельно скачать модели с Google drive для модели SUPIR и HuggingFace для лучшей базовой модели и поместить их по пути: /ThirdPartyRepository/SUPIR/options
- Загрузите исходное изображение
- Нажмите кнопку
Submit
, чтобы получить улучшенное изображение
- Сначала загрузите ваши модели в папку: inputs/image/sd_models/inpaint
- Выберите вашу модель из выпадающего списка
- Выберите тип модели (
SD
,SD2
илиSDXL
) - Настройте модель согласно нужным вам параметрам
- Загрузите изображение, с которым будет происходить генерация, в
initial image
иmask image
- В
mask image
выберите кисть, затем палитру и измените цвет на#FFFFFF
- Нарисуйте место для генерации и введите ваш запрос (+ и - для взвешивания промпта)
- Нажмите кнопку
Submit
, чтобы получить изображение с внутренней заливкой
- Сначала загрузите ваши модели в папку: inputs/image/sd_models/inpaint
- Выберите вашу модель из выпадающего списка
- Выберите тип модели (
SD
,SD2
илиSDXL
) - Настройте модель согласно нужным вам параметрам
- Загрузите изображение, с которым будет происходить генерация, в
initial image
- Введите ваш запрос (+ и - для взвешивания промпта)
- Нажмите кнопку
Submit
, чтобы получить изображение с внешней заливкой
- Сначала загрузите ваши модели в папку: inputs/image/sd_models
- Выберите вашу модель из выпадающего списка
- Выберите тип модели (
SD
,SD2
илиSDXL
) - Настройте модель согласно нужным вам параметрам
- Введите ваш запрос для промпта (+ и - для взвешивания промпта) и фразы GLIGEN (в "" для бокса)
- Введите боксы GLIGEN (Например, [0.1387, 0.2051, 0.4277, 0.7090] для бокса)
- Нажмите кнопку
Submit
, чтобы получить сгенерированное изображение
- Введите ваш Исходный Промпт и Исходный Негативный Промпт для маскирования изображения
- Введите ваш Целевой Промпт и Целевой Негативный Промпт для дифф-редактирования изображения
- Загрузите исходное изображение
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированное изображение
- Введите ваш Промпт
- Загрузите исходное изображение
- Введите ваши Условия и Целевые Объекты
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированное изображение
- Сначала загрузите ваши модели в папку: inputs/image/sd_models
- Выберите вашу модель из выпадающего списка
- Настройте модель согласно нужным вам параметрам
- Введите ваш запрос (+ и - для взвешивания промпта)
- Нажмите кнопку
Submit
, чтобы получить сгенерированную анимацию изображения
- Введите ваш запрос
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированное GIF-изображение
- Загрузите исходное изображение
- Выберите вашу модель
- Введите ваш запрос (для IV2Gen-XL)
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить видео из изображения
- Введите ваш запрос
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированные изображения
- Введите ваш запрос
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированное изображение
- Введите ваш запрос
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированное изображение
- Загрузите исходное изображение
- Выберите нужные вам опции
- Нажмите кнопку
Submit
, чтобы получить модифицированное изображение
- Загрузите исходное изображение
- Выберите нужные вам опции
- Нажмите кнопку
Submit
, чтобы получить модифицированное изображение
- текст-в-изображение:
-
- Введите ваш запрос
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированное изображение
-
- изображение-в-аудио:
-
- Загрузите исходное изображение
- Выберите нужные вам опции
- Нажмите кнопку
Submit
, чтобы получить аудио из изображения
-
- аудио-в-изображение:
-
- Загрузите исходное аудио
- Выберите нужные вам опции
- Нажмите кнопку
Submit
, чтобы получить изображение из аудио
-
- Введите ваш промпт
- Выберите модель из выпадающего списка
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное изображение
- Введите ваш промпт
- Выберите вашу модель
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное изображение
Дополнительно: Вы можете выбрать ваши модели lora
для улучшения метода генерации. Вы также можете использовать квантованные модели, нажав на кнопку Enable quantize
, если у вас мало видеопамяти, но вам нужно самостоятельно скачать модель: FLUX.1-dev или FLUX.1-schnell, а также VAE, CLIP и T5XXL
- Введите ваш промпт
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное изображение
- Введите ваш промпт
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное изображение
- Введите ваш промпт
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное изображение
- Введите ваш промпт
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное изображение
- Введите ваш промпт
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное изображение
- Введите ваш промпт
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное изображение
- Введите ваш промпт
- Выберите вашу модель
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное изображение
- Введите ваш промпт
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное изображение
- Загрузите исходное изображение лица
- Загрузите исходное аудио голоса
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить синхронизацию губ
- Загрузите исходное изображение лица
- Загрузите исходное видео движения лица
- Нажмите кнопку
Submit
, чтобы получить анимированное изображение лица
- Введите ваш промпт
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное видео
- Введите ваш промпт
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное видео
- Введите ваш промпт
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное видео
- Введите ваш промпт
- Настройте модель согласно нужным вам параметрам
- Нажмите
Submit
, чтобы получить сгенерированное видео
- Загрузите исходное изображение
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированный 3D объект
- Введите ваш запрос или загрузите исходное изображение
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированный 3D объект
- Загрузите исходное изображение (для 3D) или видео (для 4D)
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированное 3D видео
- Загрузите исходное изображение
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированное 3D вращение изображения
- Настройте модель согласно нужным вам параметрам
- Введите ваш запрос
- Нажмите кнопку
Submit
, чтобы получить сгенерированное аудио
- Выберите модель из выпадающего списка
- Выберите тип модели (
musicgen
,audiogen
илиmagnet
) - Настройте модель согласно нужным вам параметрам
- Введите ваш запрос
- (Дополнительно) загрузите исходное аудио, если вы используете модель
melody
- Нажмите кнопку
Submit
, чтобы получить сгенерированное аудио
- Выберите модель из выпадающего списка
- Настройте модель согласно нужным вам параметрам
- Введите ваш запрос
- Нажмите кнопку
Submit
, чтобы получить сгенерированное аудио
- Введите ваш запрос
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированный аудио ответ
- Сначала загрузите ваши модели в папку: inputs/audio/rvc_models
- Загрузите исходное аудио
- Выберите вашу модель из выпадающего списка
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить сгенерированное клонирование голоса
- Загрузите исходное аудио для разделения
- Нажмите кнопку
Submit
, чтобы получить разделенное аудио
- Загрузите исходное аудио для разделения
- Нажмите кнопку
Submit
, чтобы получить разделенное аудио
- Загрузите исходный файл
- Выберите нужные вам опции
- Нажмите кнопку
Submit
, чтобы получить модифицированный файл
- Загрузите исходное изображение
- Выберите вашу модель
- Настройте модель согласно нужным вам параметрам
- Нажмите кнопку
Submit
, чтобы получить увеличенное изображение
- Загрузите исходное изображение лица
- Загрузите целевое изображение или видео лица
- Выберите нужные вам опции
- Нажмите кнопку
Submit
, чтобы получить изображение с замененным лицом
Дополнительно: вы можете включить FaceRestore для увеличения масштаба и восстановления вашего изображения/видео лица
- Загрузите сгенерированный файл
- Нажмите кнопку
Submit
, чтобы получить информацию о метаданных файла
- Здесь вы можете просмотреть онлайн или офлайн вики проекта
- Здесь вы можете просмотреть файлы из директории outputs
- Здесь вы можете скачать модели
LLM
иStableDiffusion
. Просто выберите модель из выпадающего списка и нажмите кнопкуSubmit
- Здесь вы можете изменить настройки приложения
- Здесь вы можете увидеть показатели датчиков вашего компьютера
- Все генерации сохраняются в папке outputs. Вы можете открыть папку outputs с помощью кнопки
Outputs
- Вы можете выключить приложение с помощью кнопки
Close terminal
- Модели LLM можно взять с HuggingFace или из ModelDownloader внутри интерфейса
- Модели StableDiffusion, vae, inpaint, embedding и lora можно взять с CivitAI или из ModelDownloader внутри интерфейса
- Модели RVC можно взять с VoiceModels
- Модели StableAudio, AudioCraft, AudioLDM 2, TTS, Whisper, MMS, SeamlessM4Tv2, Wav2Lip, LivePortrait, SunoBark, MoonDream2, Upscalers (Latent и Real-ESRGAN), Refiner, GLIGEN, DiffEdit, BLIP-Diffusion, Depth, Marigold, Pix2Pix, Controlnet, AnimateDiff, HotShot-XL, Videos, LDM3D, SD3, Cascade, T2I-IP-ADAPTER, IP-Adapter-FaceID, Riffusion, Rembg, Roop, CodeFormer, DDColor, PixelOE, Real-ESRGAN, StableFast3D, Shap-E, SV34D, Zero123Plus, UVR, Demucs, Kandinsky, Flux, HunyuanDiT, Lumina-T2X, Kolors, AuraFlow, AuraSR, Würstchen, DeepFloydIF, PixArt, PlaygroundV2.5, ModelScope, ZeroScope 2, CogVideoX, MagicPrompt, Latte и Multiband diffusion загружаются автоматически в папку inputs при их использовании
- Голоса вы можете взять где угодно. Запишите свой или возьмите запись из Интернета. Или просто используйте те, которые уже есть в проекте. Главное, чтобы они были предварительно обработаны!
- Параметр SeamlessM4T
both generations
не работает с аудио - Параметры FLUX
Enable quantized
иQuantized models
не работают вообще - RVC, Supir и SV34D не работают вообще
- FLUX: Сделать подвкладки img2img, inpainting, controlnet-union с соответствующим функционалом