In diesem Artikel werden die wichtigsten Informationen über das "One Shot Talking Face"-Projekt zusammengefasst, das es ermöglicht, ein Bild eines Gesichts mit einer Audiodatei zu kombinieren und ein sprechendes animiertes Gesicht zu erzeugen.
Beim AusfĂĽhren des Programms kann eine Fehlermeldung auftreten, die auf eine mutable Default-Wert fĂĽr ein Feld namens "common" hinweist. Dieser Fehler kann durch die Verwendung eines Default-Wert-Factories behoben werden.
Das Repository besteht aus verschiedenen Ordnern und Dateien, darunter:
config_file
: Enthält die Konfigurationsdateien für das Projekt.models
: Enthält die Trainingsmodelle für die Gesichtsanimation.samples
: Enthält Beispieldaten für die Gesichtsanimation.sync_batchnorm
: Enthält Tools für die Synchronisation von Batch-Normalisierung.tools
: Enthält verschiedene Tools für die Gesichtsanimation.README.md
: Enthält eine Übersicht über das Projekt und die Anforderungen.config.py
: Enthält die Konfigurationsparameter für das Projekt.image_preprocess.py
: Enthält Funktionen für die Bildvorverarbeitung.phindex.json
: Enthält die Phonem-Index-Datei für die Gesichtsanimation.Das Projekt erfordert Python >= 3.6, PyTorch >= 1.8 und FFmpeg. Darüber hinaus muss das OpenFace-Tool installiert sein, um die initiale Pose des Referenzbildes zu extrahieren.
Um das Projekt auszuführen, müssen Sie zunächst die vorbereiteten Checkpoints herunterladen und entpacken. Anschließend können Sie die Phoneme für die Audiodatei extrahieren und die Gesichtsanimation mit dem test_script.py
-Skript generieren.
Das Projekt ist unter der Lizenz des Original-Papers veröffentlicht. Wenn Sie das Projekt verwenden, sollten Sie den Original-Autoren zitieren.
Das Projekt basiert auf dem First Order Motion Model und imaginaire. Die Autoren möchten sich bei den Entwicklern dieser Projekte bedanken.
Weitere Informationen ĂĽber das Projekt finden Sie in der README-Datei und den anderen Dokumenten im Repository.
* KI-Zusammenfassungen können Fehler enthalten. Alle Angaben ohne Gewähr.