Fortgeschrittene KI: ComfyUI

OpenShot kann eine Verbindung zu einem lokalen ComfyUI-Server herstellen und KI-Workflows über die Kontextmenüs „Projektdateien“ und „Zeitleiste“ ausführen. Auf dieser Seite wird erläutert, was diese Tools sind, welche Hardware sie benötigen und wo sich die integrierten Workflow-Vorlagen befinden.

Warnung

KI-Funktionen in OpenShot sind experimentell und erfordern eine High-End-Workstation.

  • Diese Werkzeuge werden für Laptops, Mittelklasse-Desktops oder Budget-Systeme nicht empfohlen.

  • Sie müssen einen lokalen ComfyUI Server betreiben.

  • Sie sollten mit Modell-Downloads, Einrichtung und Fehlerbehebung bei Workflows rechnen.

Installation und Einrichtung

Verwenden Sie diesen Schnell-Einrichtungsweg, bevor Sie einen KI-Workflow in OpenShot ausprobieren:

  1. Installieren Sie ComfyUI und bestätigen Sie, dass es korrekt startet.

  2. Installieren Sie die erforderlichen benutzerdefinierten Knoten (unten aufgeführt).

  3. Laden Sie die erforderlichen Modell-Dateien (unten aufgeführt) in die entsprechenden Modellordner herunter.

  4. Starten Sie ComfyUI, öffnen Sie dann Edit->Preferences->Advanced und legen Sie ComfyUI URL fest.

  5. Klicken Sie auf Überprüfen, um zu bestätigen, dass OpenShot den Server erreichen kann.

Für vollständige Installationsdetails von ComfyUI siehe das offizielle Repository: ComfyUI auf GitHub.

Erforderliche benutzerdefinierte Knoten

Erforderliche Modelle / Dateien

  • ComfyUI/custom_nodes/ComfyUI-Frame-Interpolation/ckpts/rife/rife47.pth

  • ComfyUI/models/checkpoints/sd_xl_base_1.0.safetensors

  • ComfyUI/models/checkpoints/sd_xl_refiner_1.0.safetensors

  • ComfyUI/models/checkpoints/stable-audio-open-1.0.safetensors

  • ComfyUI/models/clip_vision/clip_vision_g.safetensors

  • ComfyUI/models/diffusion_models/wan2.2_ti2v_5B_fp16.safetensors

  • ComfyUI/models/grounding-dino/groundingdino_swint_ogc.pth

  • ComfyUI/models/sam2/sam2.1_hiera_base_plus.pt

  • ComfyUI/models/sam2/sam2.1_hiera_small-fp16.safetensors

  • ComfyUI/models/sam2/sam2.1_hiera_small.pt

  • ComfyUI/models/sam2/sam2.1_hiera_tiny-fp16.safetensors

  • ComfyUI/models/sam2/sam2.1_hiera_tiny.pt

  • ComfyUI/models/sam2/sam2_hiera_small.pt

  • ComfyUI/models/stt/whisper/large-v3.pt

  • ComfyUI/models/stt/whisper/medium.pt

  • ComfyUI/models/text_encoders/t5-base.safetensors

  • ComfyUI/models/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors

  • ComfyUI/models/TTS/Ace-Step1.5/acestep-v15-turbo/silence_latent.pt

  • ComfyUI/models/upscale_models/RealESRGAN_x4plus.safetensors

  • ComfyUI/models/vae/split_files/vae/wan_2.1_vae.safetensors

  • ComfyUI/models/vae/wan_2.1_vae.safetensors

  • ComfyUI/models/vae/wan2.2_vae.safetensors

  • ComfyUI/models/VLM/transnetv2-pytorch-weights/transnetv2-pytorch-weights.pth

Was Benutzer in OpenShot sehen

Wenn ComfyUI verfügbar ist, zeigt OpenShot KI-Werkzeuge in Kontextmenüs an:

  • Mit KI erstellen zum Erstellen neuer Assets

    ../_images/create-with-ai.jpg
  • Mit KI verbessern (Bilder) zur Verarbeitung von Bild-Assets

    ../_images/enhance-with-ai-image.jpg
  • Mit KI verbessern (Videos) zur Verarbeitung von Video-Assets

    ../_images/enhance-with-ai-video.jpg

Generierte Dateien werden mit Fortschrittstext und Warteschlangenabzeichen zu Projektdateien hinzugefügt. Ausgaben werden unter .openshot_qt/comfyui-output/ gespeichert.

Das Starten eines neuen Projekts oder das Öffnen eines bestehenden Projekts löscht die temporären .openshot_qt AI-Arbeitsordner, sodass Sie mit einer sauberen Basis beginnen. Ihre gespeicherten Projekte bleiben unberührt, und alle zuvor in einen PROJECTNAME_Assets-Ordner kopierten Assets bleiben im Verzeichnis dieses Projekts.

Wenn ComfyUI nicht verfügbar ist, deaktiviert OpenShot die AI-Menüs. Konfigurieren Sie die Server-URL in Edit->Preferences->Advanced und verwenden Sie dann die Schaltfläche Check, um die Konnektivität zu testen.

Arbeitsablaufvorlagen

OpenShot liest integrierte Vorlagen von comfyui/. Außerdem werden benutzerdefinierte Benutzervorlagen von ~/.openshot_qt/comfyui/ geladen.

So fügen Sie Ihren eigenen Arbeitsablauf hinzu:

  1. Öffnen Sie in ComfyUI die Arbeitsablauf-Registerkarte, die Sie verwenden möchten.

  2. Wählen Sie Exportieren (API), um den Arbeitsablauf als *.json-Datei zu speichern.

  3. Kopieren Sie diese JSON-Datei in ~/.openshot_qt/comfyui/.

  4. Starten Sie OpenShot neu oder öffnen Sie das Projekt bei Bedarf erneut.

OpenShot lädt den Arbeitsablauf automatisch und zeigt ihn im entsprechenden AI-Menü an. Wenn Sie ihn in OpenShot auslösen, wird die ausgewählte Quelldatei in den Arbeitsablauf übergeben, und die Ausgabe des letzten Ausgabeknotens des Arbeitsablaufs wird zurück in Projektdateien importiert.

OpenShot schreibt außerdem eine .openshot_qt/comfyui/debug.json-Datei für fortgeschrittene Benutzer, die die genaue an ComfyUI gesendete Anfrage überprüfen möchten.

AI-Aktionsdialog

Sowohl Mit AI erstellen als auch Mit AI verbessern öffnen denselben Generierungsdialog.

../_images/comfyui-prompt-dialog.jpg

Warum dieser Dialog wichtig ist:

  • Er hält alle AI-Eingaben an einem Ort.

  • Er überprüft erforderliche Felder, bevor der Auftrag in die Warteschlange gestellt wird.

  • Er ermöglicht es Ihnen, Tracking-Aufforderungen vor aufwändigen Durchläufen einzurichten.

Was Sie im Dialog tun können:

  • Wählen Sie den Arbeitsablauf/die Aktion.

  • Geben Sie den Eingabetext ein.

  • Vorschau der ausgewählten Quelldatei (für Verbesserungs-Arbeitsabläufe).

  • Legen Sie den Ausgabename für generierte Medien fest.

  • Geben Sie Tracking-Punkte/-Rechtecke für Tracking-Arbeitsabläufe an.

  • Starten Sie den Auftrag mit Generieren oder schließen Sie mit Abbrechen.

Tracking (Maske, Weichzeichnen, Hervorheben)

Tracking-Arbeitsabläufe (Weichzeichnen…, Hervorheben…, Maske…) verwenden einen Bereichsbildschirm, auf dem Sie markieren, was einbezogen und was ignoriert werden soll.

../_images/comfyui-tracking-dialog-blue-red-dots.jpg

Warum das wichtig ist

Tracking hilft dabei, dass Ihr Effekt über die Zeit an einem sich bewegenden Objekt haftet. Zum Beispiel können Sie ein Gesicht weichzeichnen, einen Spieler hervorheben oder eine saubere Maske erzeugen, die dasselbe Objekt über viele Frames verfolgt.

Tracking-Symbole

Symbol / Marker

Bedeutung

Blauer Punkt

Positive Tracking-Koordinate (Vordergrund/Subjekt-Stützpunkt).

Roter Punkt

Negative Tracking-Koordinate (Hintergrund/Ausschluss-Stützpunkt).

Blaues Rechteck

Positiver Bereichsstützpunkt (breiter Subjekt-Hinweis).

Rotes Rechteck

Negativer Bereichsstützpunkt (breiter Ausschluss-Hinweis).

Symbol löschen

Alle aktuellen Tracking-Stützpunkte (Punkte/Rechtecke) löschen und neu beginnen.

Wie Tracking funktioniert

OpenShot sendet Ihre positiven und negativen Marker als Stützpunktkoordinaten an das Tracking-Modell, das eine Maske für das Subjekt erstellt und diese dann über die Zeit verfolgt. Bessere Stützpunkte erzeugen in der Regel sauberere Masken und weniger Drift. [sam2]

Wie man es benutzt

  1. Wählen Sie einen Frame, in dem das Subjekt klar sichtbar ist.

  2. Beginnen Sie mit einem blauen Punkt auf dem Subjekt.

  3. Fügen Sie rote Punkte nur bei Bedarf auf dem nahegelegenen Hintergrund hinzu.

  4. Fügen Sie Rechtecke hinzu, wenn Sie eine schnellere breite Auswahl benötigen.

  5. Wiederholen Sie dies bei weiteren Frames, wenn sich Bewegung/Form ändert.

Anpassung über die Zeit (Frame-Schieberegler):

  • Bewegen Sie den Frame-Schieberegler zu verschiedenen Zeitpunkten im Clip.

  • Fügen Sie Punkte/Rechtecke hinzu oder passen Sie sie an Frames an, bei denen das Tracking zu driften beginnt.

  • Verwenden Sie zusätzliche Stützpunkte nur dort, wo sie benötigt werden, insbesondere bei Verdeckungen, schneller Bewegung oder großen Formänderungen.

Masken-Vorschau-Ausgabe (aus diesem Tracking-Prozess):

../_images/comfyui-mask-example-preview.jpg

Beste Vorgehensweisen

  • Verwenden Sie zuerst einen kurzen Testclip.

  • Beginnen Sie einfach: Ein einzelner blauer Punkt ist oft ausreichend.

  • Fügen Sie nur dort weitere Punkte hinzu, wo das Tracking versagt.

  • Fügen Sie bei Bedarf eine differenziertere Menge positiver/negativer Punkte und Rechtecke hinzu.

  • Halten Sie positive und negative Punkte klar getrennt.

  • Wenn das Tracking unübersichtlich wird, verwenden Sie das Löschsymbol und starten Sie mit saubereren Startpunkten neu.

[sam2]

SAM2 (Segment Anything Model 2) Projekt: facebookresearch/sam2

Auftragswarteschlange, Fortschritt und Abbrechen

Nachdem Sie auf Generieren klicken, wird die Anfrage in die Warteschlange gestellt und in OpenShots KI-Auftragswarteschlange ausgeführt.

  • Der Fortschritt wird in Projektdateien (Abzeichen und Statusanzeige) angezeigt.

  • Abgeschlossene Ausgaben werden zurück in Projektdateien importiert.

  • Aktive Jobs können abgebrochen werden, indem Sie mit der rechten Maustaste auf die generierte Projektdatei mit dem Fortschrittsbalken klicken und Cancel Job auswählen.

  • Ausgaben werden unter .openshot_qt/comfyui-output/ gespeichert.

Eingebaute JSON-Arbeitsabläufe

Die folgenden Abschnitte sind direkt den integrierten JSON-Vorlagen in comfyui/ zugeordnet. In jedem Unterabschnitt wird beschrieben, warum Sie es verwenden können, wie es ausgeführt wird und welche wichtigen Details es gibt.

Mit KI erstellen

Bild… (txt2img-basic)

  • Warum: Erzeugen Sie Standbilder aus einem Textprompt.

  • Wie: Wählen Sie Mit KI erstellen -> Bild…, geben Sie einen Prompt ein und generieren Sie dann.

  • Details: Verwendet comfyui/txt2img-basic.json mit sd_xl_base_1.0.safetensors.

Video… (txt2video-svd)

  • Warum: Erzeugen Sie kurze Videoclips aus Text.

  • Wie: Wählen Sie Mit KI erstellen -> Video…, geben Sie einen Prompt ein und generieren Sie dann.

  • Details: Verwendet comfyui/txt2video-svd.json mit WAN-Videogenerierungsmodellen.

Ton… (txt2audio-stable-open)

  • Warum: Erzeugen Sie nicht-musikalische Audiodateien aus Textprompts.

  • Wie: Wählen Sie Mit KI erstellen -> Ton…, geben Sie einen Prompt ein und generieren Sie dann.

  • Details: Verwendet comfyui/txt2audio-stable-open.json mit Stable Audio Open-Modellen.

Musik… (txt2music-ace-step)

  • Warum: Erzeugen Sie Musik aus Stil/Tags (und optionalen Texten).

  • Wie: Wählen Sie Mit KI erstellen -> Musik…, geben Sie einen Prompttext ein und generieren Sie dann.

  • Details: Verwendet comfyui/txt2music-ace-step.json mit einem Ace-Step 1.5-Prüfpunkt.

Mit KI verbessern

Bildstil ändern… (img2img-basic)

  • Warum: Ändern Sie den Stil eines vorhandenen Bildes, während die ursprüngliche Komposition erhalten bleibt.

  • Wie: Wählen Sie Mit KI verbessern bei einem Bild, geben Sie einen Stil-Prompt ein und generieren Sie dann.

  • Details: Verwendet comfyui/img2img-basic.json mit sd_xl_base_1.0.safetensors.

Bild zu Video… (img2video-svd)

  • Warum: Verwandeln Sie ein Standbild in eine generierte Videoaufnahme.

  • Wie: Wählen Sie Mit KI verbessern bei einem Bild, geben Sie eine Prompt-Anleitung ein und generieren Sie dann.

  • Details: Verwendet comfyui/img2video-svd.json mit WAN-Bild-zu-Video-Modellen.

Videostil ändern… (video2video-basic)

  • Warum: Wenden Sie einen neuen visuellen Stil auf ein Quellvideo an.

  • Wie: Wählen Sie Mit KI verbessern bei einem Video, geben Sie einen Stil-Prompt ein und generieren Sie dann.

  • Details: Verwendet comfyui/video2video-basic.json mit sd_xl_base_1.0.safetensors.

Auflösung erhöhen (Bild) (upscale-realesrgan-x4)

  • Warum: Skalieren Sie Bilder mit niedriger Auflösung hoch.

  • Wie: Wählen Sie Mit KI verbessern bei einem Bild, wählen Sie Auflösung erhöhen und generieren Sie dann.

  • Details: Verwendet comfyui/upscale-realesrgan-x4.json mit RealESRGAN_x4plus.safetensors.

Auflösung erhöhen (Video) (video-upscale-gan)

  • Warum: Skalieren Sie Videobilder hoch für mehr sichtbare Details.

  • Wie: Wählen Sie Mit KI verbessern bei einem Video, wählen Sie Auflösung erhöhen und generieren Sie dann.

  • Details: Verwendet comfyui/video-upscale-gan.json mit RealESRGAN_x4plus.safetensors.

Sanfte Bewegung (2x Bildrate) (video-frame-interpolation-rife2x)

  • Warum: Erhöhen Sie die Bildrate für eine flüssigere wahrgenommene Bewegung.

  • Wie: Wählen Sie Mit KI verbessern bei einem Video, wählen Sie sanfte Bewegung und generieren Sie dann.

  • Details: Verwendet comfyui/video-frame-interpolation-rife2x.json mit rife47.pth.

In Szenen aufteilen (video-segment-scenes-transnet)

  • Warum: Erkennen Sie automatisch Szenenwechsel und teilen Sie lange Clips in Segmente auf.

  • Wie: Wählen Sie Mit KI verbessern bei einem Video, wählen Sie Szenentrennung und generieren Sie dann.

  • Details: Verwendet comfyui/video-segment-scenes-transnet.json mit TransNetV2.

Untertitel aus Sprache hinzufügen (video-whisper-srt)

  • Warum: Sprache in Untertitel-/Caption-Dateien transkribieren.

  • Wie: Wählen Sie bei einem Video Mit KI verbessern, dann Untertitel auswählen und generieren.

  • Details: Verwendet comfyui/video-whisper-srt.json und erstellt eine SRT-Ausgabe.

Tracking-Workflows (SAM2)

Diese Workflows verwenden denselben Bereichs-/Tracking-Eingabefluss und sind im Tracking-Kontextmenü gruppiert.

Weichzeichnen… (Bild) (image-blur-anything-sam2)

  • Warum: Ausgewählte Motivbereiche in einem Standbild weichzeichnen.

  • Wie: Punkte/Rechtecke für das Motiv auswählen, dann generieren.

  • Details: Verwendet comfyui/image-blur-anything-sam2.json mit SAM2-Bildsegmentierung.

Hervorheben… (Bild) (image-highlight-anything-sam2)

  • Warum: Ausgewählte Motivbereiche in einem Standbild hervorheben.

  • Wie: Punkte/Rechtecke für das Motiv auswählen, dann generieren.

  • Details: Verwendet comfyui/image-highlight-anything-sam2.json mit SAM2-Bildsegmentierung.

Maske… (Bild) (image-mask-anything-sam2)

  • Warum: Eine Bildmaske für ausgewählte Motivbereiche erzeugen.

  • Wie: Punkte/Rechtecke für das Motiv auswählen, dann generieren.

  • Details: Verwendet comfyui/image-mask-anything-sam2.json mit SAM2-Bildsegmentierung.

Weichzeichnen… (Video) (video-blur-anything-sam2)

  • Warum: Ein sich bewegendes Motiv im Video verfolgen und weichzeichnen.

  • Wie: Motiv/Hintergrund im Bereichsbildschirm markieren, dann generieren.

  • Details: Verwendet comfyui/video-blur-anything-sam2.json mit SAM2-Videoverfolgung.

Hervorheben… (Video) (video-highlight-anything-sam2)

  • Warum: Ein sich bewegendes Motiv im Video verfolgen und hervorheben.

  • Wie: Motiv/Hintergrund im Bereichsbildschirm markieren, dann generieren.

  • Details: Verwendet comfyui/video-highlight-anything-sam2.json mit SAM2-Videoverfolgung.

Maske… (Video) (video-mask-anything-sam2)

  • Warum: Eine animierte Maske erzeugen, die einem sich bewegenden Motiv folgt.

  • Wie: Motiv/Hintergrund im Bereichsbildschirm markieren, dann generieren.

  • Details: Verwendet comfyui/video-mask-anything-sam2.json mit SAM2-Videoverfolgung.

Einstiegspunkte für neue Benutzer

Wenn Sie neu bei diesen Werkzeugen sind, beginnen Sie mit:

  1. Mit KI erstellen -> Bild

  2. Mit KI verbessern -> Auflösung erhöhen

  3. Mit KI verbessern -> Bewegung glätten

  4. Mit KI verbessern -> In Szenen aufteilen

  5. Mit KI verbessern -> Untertitel hinzufügen

Fehlerbehebung

Wenn KI-Menüs nicht erscheinen oder Aufgaben sofort fehlschlagen:

  1. Überprüfen Sie, ob ComfyUI läuft und unter der konfigurierten URL erreichbar ist.

  2. Bestätigen Sie, dass die erforderlichen Modelle in Ihrer ComfyUI-Umgebung vorhanden sind.

  3. Bestätigen Sie, dass benutzerdefinierte Node-Pakete für den ausgewählten Workflow installiert sind.

  4. Verringern Sie die Batch-/Chunk-Größen für lange Clips.

  5. Testen Sie zuerst mit einem kurzen Clip oder einem Standbild erneut.

Für allgemeine Leistungs- und Cache-Optimierung siehe Einstellungen und Wiedergabe.