Regístrate ahora

Iniciar sesión

Contraseña perdida

Perdiste tu contraseña? Por favor, introduzca su dirección de correo electrónico. Recibirá un enlace y se creará una nueva contraseña por correo electrónico.

Añadir mensaje

Debe iniciar sesión para añadir notas .

Añadir pregunta

Debe iniciar sesión para hacer una pregunta.

Iniciar sesión

Regístrate ahora

Bienvenido a Scholarsark.com! Su registro le conceda el acceso a la utilización de más características de esta plataforma. Puede hacer preguntas, hacer contribuciones o proporcionar respuestas, ver los perfiles de otros usuarios y mucho más. Regístrate ahora!

Visión por computador: Cambio de cara de Python & Deepfake rápido en Colab

Visión por computador: Cambio de cara de Python & Deepfake rápido en Colab

Precio: $109.99

Hola y bienvenido a mi nuevo curso "Python Face Swap & Deepfake rápido con Google Colab’

Sabes, hay una frase antigua que dice "ver para creer". Pero en el mundo de "Deepfake’ lo que vemos no siempre es cierto. Definamos deep fake con la ayuda de un video de ejemplo. Aquí es.

Usé solo fotos del tamaño de una estampilla de estas personas para crear estos videos. Sí, lo escuchaste bien. Con solo una imagen de rostro y unos minutos de tiempo con una computadora normal, puedes crear deepfake de cualquiera. Incluso puedes hacer que los muertos hablen o incluso canten para ti.

Sí! Prepárate para ser sorprendido. Antes de continuar, déjame explicarte la lista de contenidos que se incluyen en este curso. Este curso se divide exactamente en dos mitades.

En la primera mitad, crearemos una aplicación básica de intercambio de caras basada en Python. Antes de proceder, tendremos una introducción a la técnica deep fake, sus aplicaciones, ventajas y desventajas. Luego tenemos que preparar nuestra computadora con todas las dependencias instaladas. Estaremos instalando Anaconda, la plataforma y el IDE para nuestra programación en Python. Más adelante, habrá algunas sesiones opcionales para aquellos que quieran aprender los conceptos básicos del lenguaje de programación Python..

Más tarde instalaremos el resto de dependencias necesarias para construir nuestra aplicación personalizada de intercambio de caras de Python. Después de eso, escribiremos el código de Python línea por línea para completar todo el programa con más de 300 líneas. Alternativamente, también puede descargar el código completo desde el enlace de Google Drive proporcionado en la última sesión de este curso.. Al principio haremos el intercambio de caras usando dos imágenes estáticas.. Uno como imagen de origen y otro como imagen de destino. Luego lo probaremos para video en tiempo real desde la cámara web de nuestra computadora.. Y luego lo modificaremos para que funcione con un video pre-guardado guardado en nuestra computadora.

De los ejemplos, puede ver que este fue solo un programa básico de intercambio de rostros y no es del todo perfecto. Lo estábamos haciendo solo para aprender cómo funcionan las cosas detrás de escena..

Más adelante, procederemos a implementar deepfake basado en un artículo llamado "Modelo de movimiento de primer orden para animación de imágenes" enviado a la Universidad de Cornell por Aliaksandr Siarohin., Stéphane Lathuilière, Sergey Tulyakov, Elisa Ricci y Nicu Sebe

Dado que entrenar a un deepfake implica costosas GPU, tenemos un plan alternativo para utilizar la GPU gratuita de Google Colab. Prepararemos nuestra unidad de Google creando carpetas y cargando el video de conducción de muestra., en función de lo que la imagen de destino necesita ser animada y también las imágenes de destino o las imágenes de origen.

También descargaremos una copia de la demo de Google Colab Notebook y nos conectaremos con Google Drive.. Luego, clonaremos el repositorio de modelos de movimiento de primer orden de Google Drive..

Más adelante también procederemos a clonar el repositorio de alineación de caras.. Lo instalaremos y configuraremos en nuestro laboratorio de Google.. Luego, moveremos los archivos a las carpetas correspondientes y comenzaremos a recortar el video de conducción usando un programa de Python integrado..

Después de eso, descargaremos el gráfico de inferencia congelado del modelo ya entrenado a nuestra unidad de Google.. Y ahora todo está listo para continuar con la animación de las imágenes de origen basadas en el video de conducción.. Una vez completado descargaremos el video animado.. También haremos lo mismo con algunas de las otras imágenes de origen..

El video animado no tendrá audio. Entonces tenemos que mezclar el audio con cualquier herramienta de edición de video gratuita o de código abierto disponible en línea.. Lo haremos en nuestra próxima sesión y finalmente tenemos todos los videos animados de deepfake con audio incluido..

Como la sesión final, También discutiremos cómo podemos ahorrar el tiempo de GPU gratuito limitado que ofrece Google y la solución si se excede el tiempo de GPU.

Solo una palabra más antes de concluir. Por favor, haga uso de los contenidos y técnicas mencionados en este tutorial de manera muy responsable.. Está destinado solo para fines de aprendizaje e investigación. Yo como instructor o la plataforma en la que imparto este curso no seré responsable de ningún uso ilegal o irresponsable de esta técnica..

Se trata de los temas que se incluyen actualmente en este curso rápido. El código, Las imágenes y los pesos utilizados en este curso se han cargado y compartido en una carpeta.. Incluiré el enlace para descargarlos en la última sesión o en la sección de recursos de este curso.. Eres libre de usar el código en tus proyectos sin hacer preguntas..

También después de completar este curso, Se le proporcionará un certificado de finalización del curso que agregará valor a su cartera..

Así que eso es todo por ahora, nos vemos pronto en el salón de clases. Feliz aprendizaje y diviértete.

Bibliografías y créditos de referencia

  • Procedimientos de NIPS – Modelo de movimiento de primer orden para animación de imágenes – Aliaksandr Siarohin, Stéphane Lathuilière, Sergey Tulyakov, Elisa Ricci, Nicu Sebe

  • Universidad de Cornell – Visión por computadora y reconocimiento de patrones – Modelo de movimiento de primer orden para animación de imágenes

  • Github – AliaksandrSiarohin – modelo de primer orden

  • Páginas de Github – Modelo de movimiento de primer orden para animación de imágenes

  • Aprenda OpenCV – Triangulación de Delaunay y diagrama de Voronoi usando OpenCV

  • Aprenda OpenCV – Intercambio de caras usando OpenCV – Satya Mallick

  • pysource – Cambio de rostro – Sergio Canu

Acerca de arkadmin

Deja una respuesta