Jetzt registrieren

Anmeldung

Passwort verloren

Passwort vergessen? Geben Sie bitte Ihre Email-Adresse ein. Sie erhalten einen Link und ein neues Passwort per E-Mail erstellen.

Eintrag

Sie müssen sich anmelden Beitrag hinzufügen .

In Frage

Sie müssen sich anmelden, um eine Frage zu stellen.

Anmeldung

Jetzt registrieren

Willkommen bei Scholarsark.com! Ihre Anmeldung wird gewährt Ihnen Zugriff auf mehr Funktionen dieser Plattform. Sie können Fragen stellen, beitragspflichtig oder geben Antworten, Ansicht Profile anderer Nutzer und vieles mehr. Jetzt registrieren!

Computer Vision: Python-Gesichtstausch & Schneller Deepfake in Colab

Computer Vision: Python-Gesichtstausch & Schneller Deepfake in Colab

Preis: $109.99

Hallo und willkommen zu meinem neuen Kurs ‚Python Face Swap & Schneller Deepfake mit Google Colab’

Du weisst, Es gibt einen alten Satz, der sagt: „Sehen heißt glauben“. Aber in der Welt von ‚Deepfake‘’ was wir sehen ist nicht immer wahr. Definieren wir Deep Fake anhand eines Beispielvideos. Hier ist es.

Ich habe nur ein einziges Briefmarkenfoto dieser Leute verwendet, um diese Videos zu erstellen. Ja, du hast es richtig gehört. Mit nur einem einzigen Gesichtsbild und wenigen Minuten Zeit mit einem normalen Computer, du kannst jeden Deepfake erstellen. Du bringst sogar Tote zum Reden oder sogar zum Singen für dich.

Ja! Seien Sie bereit, erstaunt zu sein. Bevor wir weitermachen, Lassen Sie mich das Inhaltsverzeichnis erklären, das in diesem Kurs enthalten ist. Dieser Kurs ist genau in zwei Hälften geteilt.

In der ersten Hälfte, Wir werden eine grundlegende Python-basierte Face-Swap-Anwendung erstellen. Bevor wir fortfahren, wir werden eine Einführung in die Deep-Fake-Technik haben, seine Anwendungen, Vorteile und Nachteile. Dann müssen wir unseren Computer mit allen installierten Abhängigkeiten vorbereiten. Wir werden Anaconda . installieren, die Plattform und IDE für unsere Python-Programmierung. Später gibt es einige optionale Sitzungen für diejenigen, die die Grundlagen der Python-Programmiersprache erlernen möchten.

Später werden wir die restlichen Abhängigkeiten installieren, die zum Erstellen unserer benutzerdefinierten Python-Gesichtsaustauschanwendung erforderlich sind. Danach schreiben wir den Python-Code Zeile für Zeile, um das gesamte Programm mit mehr als zu vervollständigen 300 Linien. Alternativ können Sie auch den vollständigen Code von dem Google Drive-Link herunterladen, der in der letzten Sitzung dieses Kurses bereitgestellt wurde. Zuerst werden wir den Gesichtstausch mit zwei statischen Bildern durchführen. Eines als Quellbild und das andere als Zielbild. Später werden wir es für Echtzeitvideo von der Webkamera unseres Computers versuchen. Und dann ändern wir es, damit es mit einem vorgespeicherten Video funktioniert, das auf unserem Computer gespeichert ist.

Aus den Beispielen, Sie können sehen, dass dies nur ein einfaches Programm zum Austausch von Gesichtern war und überhaupt nicht perfekt ist. Wir haben es nur gemacht, um zu erfahren, wie die Dinge hinter den Kulissen funktionieren.

Später werden wir mit der Implementierung von Deepfake fortfahren, basierend auf einem Papier mit dem Titel „Motion Model for Image Animation erster Ordnung“, das von Aliaksandr Siarohin an der Cornell University eingereicht wurde, Stéphane Lathuilière, Sergey Tulyakov, Elisa Ricci und Nicu Sebe

Da das Training eines Deepfakes teure GPUs beinhaltet, Wir haben einen alternativen Plan, die kostenlose GPU von Google Colab zu verwenden. Wir bereiten unser Google Drive vor, indem wir Ordner erstellen und das Beispielfahrvideo hochladen, basierend auf denen das Zielbild animiert werden muss und auch die Zielbilder oder Quellbilder.

Außerdem werden wir eine Kopie des Demo-Google Colab-Notebooks herunterladen und eine Verbindung mit Google Drive herstellen. Dann werden wir das Bewegungsmodell-Repository erster Ordnung von Google Drive klonen.

Später werden wir auch mit dem Klonen des Face-Alignment-Repositorys fortfahren. Wir werden es in unserem Google Colab installieren und einrichten. Dann verschieben wir die Dateien in die entsprechenden Ordner und beginnen mit dem Zuschneiden des Fahrvideos mit einem integrierten Python-Programm.

Danach laden wir den eingefrorenen Inferenzgraphen des bereits trainierten Modells auf unser Google-Laufwerk herunter. Und jetzt können Sie mit der Animation der Quellbilder basierend auf dem Fahrvideo fortfahren. Sobald dies abgeschlossen ist, werden wir das animierte Video herunterladen. Wir werden dasselbe auch für einige der anderen Quellbilder tun.

Das animierte Video hat keinen Ton. Also müssen wir das Audio mit einem kostenlosen oder Open-Source-Videobearbeitungstool, das online verfügbar ist, dazu mischen. Wir werden das in unserer nächsten Sitzung tun und endlich haben wir alle Deepfake-Animationsvideos mit Audio enthalten.

Als letzte Sitzung, Wir werden auch besprechen, wie wir die begrenzte kostenlose GPU-Zeit von Google und den Workaround sparen können, wenn die GPU-Zeit überschritten wird.

Noch ein Wort, bevor ich zum Schluss komme. Bitte gehen Sie mit den in diesem Tutorial erwähnten Inhalten und Techniken sehr verantwortungsbewusst um. Es ist nur für Lern- und Forschungszwecke gedacht. Ich als Ausbilder oder die Plattform, auf der ich diesen Kurs veranstalte, hafte nicht für illegale oder unverantwortliche Verwendung dieser Technik.

Das sind die Themen, die aktuell in diesem Schnellkurs behandelt werden. Der Code, Bilder und Gewichte, die in diesem Kurs verwendet wurden, wurden hochgeladen und in einem Ordner geteilt. Ich werde den Link zum Herunterladen in die letzte Sitzung oder den Ressourcenabschnitt dieses Kurses einfügen. Es steht Ihnen frei, den Code in Ihren Projekten zu verwenden, ohne dass Fragen gestellt werden.

Auch nach Abschluss dieses Kurses, Sie erhalten ein Kursabschlusszertifikat, das Ihr Portfolio aufwertet.

Das war's also erstmal, bis bald im klassenzimmer. Viel Spaß beim Lernen und viel Spaß.

Bibliographien und Referenzen

  • NIPS-Verfahren – Bewegungsmodell erster Ordnung für die Bildanimation – Aliaksandr Siarohin, Stéphane Lathuilière, Sergey Tulyakov, Elisa Ricci, Nicu Sebe

  • Cornell Universität – Computer Vision und Mustererkennung – Bewegungsmodell erster Ordnung für die Bildanimation

  • Github – AliaksandrSiarohin – Modell erster Ordnung

  • Github-Seiten – Bewegungsmodell erster Ordnung für die Bildanimation

  • OpenCV lernen – Delaunay-Triangulation und Voronoi-Diagramm mit OpenCV

  • OpenCV lernen – Gesichtstausch mit OpenCV – Satya Mallick

  • pysource – Gesichter tauschen – Sergio Canu

Über Arkadmin

Hinterlasse eine Antwort