domingo, 5 de julio de 2020

Rostros Generados por Inteligencia Artificial?

Dada la situación actual ( y que tengo un poco más de tiempo para compartir con mi familia), estuve viendo un vídeo promocional de un juego en línea que le gusta mucho a uno de mis hermanos. Me di cuenta de que uno de los personajes (a mi parecer) tenía rasgos característicos de una actriz que me gusta mucho. Luego de que mis hermanos me aclararan de que era un simple personaje creado por computadora, me acordé que hace un par de años escuche de un software que se encargaba de generar rostros de personas que parecen, auténticos seres humanos.

Con las siglas RGAs (Redes Generativas Antagónicas) o GANS, por sus siglas en inglés, es un software desarrollado en el 2014 por Ian Goodfellow (director de Aprendizaje Automático en el Grupo de Proyectos Especiales de la empresa Apple) cuando aún trabajaba como Científico de investigación de OpenAI. Este software está compuesto de dos inteligencias artificiales combinadas, que se encargan de contrastar imágenes entre sí de la misma “temática”, este contraste lo realiza la misma inteligencia artificial, sin supervisión y compitiendo una con otra para obtener un objetivo.
Para mayor entendimiento, trataré de explicar el ejemplo usado por Ian:
Tenemos un conjunto de imágenes de perros, la inteligencia Generadora entrega imágenes al azar, estas se verán borrosas, como en una TV analógica vieja

Ahí entra la segunda red, la discriminadora; entrenada en algo que a la Inteligencia Artificial se le da mucho mejor: la identificación. Esta Inteligencia analiza las imágenes producidas por la red generativa y determina si se ajusta a lo que está buscando: es decir, hablando en términos técnicos, decide si cada instancia de datos que revisa pertenece o no al conjunto de datos de entrenamiento.

Esta revisión se realiza millones de veces, por ello podríamos decir que se produce un entrenamiento, por lo que el generador logra ofrecer imágenes que engañan al discriminador. Así, al principio, el generador hará bien los colores. Hará imágenes verdes y marrones, porque la mayoría de las imágenes de perros usualmente son marrones y en pasto verde, por lo que el generador será engañado por un rato.

Luego de eses entrenamiento deducimos que el discriminador ha aprendido a buscar las formas de perros y el generador deberá crear formas para engañar al discriminador. En este proceso cada una de las redes va mejorando y aprende de su oponente. De no ser así, la red generativa no es capaz de 'filtrar' ese material como auténtico, y lo descartará, notificando a la generativa en qué medida se ha acercado a esa referencia deseada (su modelo de entrenamiento). Eso obliga a la red generativa a que realice nuevos intentos.

Con esto se han puesto a prueba infinidad de imágenes: dormitorios, paisajes, animales y para lo más usado rostros de personas.
En la actualidad la empresa NVIDIA ha invertido mucho en la actualización de esta inteligencia y no solo está a prueba la creación de imágenes; si no también: audios y vídeos, que ya están siendo puestos a prueba y compartidos por la internet.
Incluso Disney está apostando por esta tecnología y han invertido en su propio software “DeppFake” que le permite cambiar los rostros de las personas suplantando sus rasgos por los de otra persona, con una resolución de un megapíxel.

La tecnología está avanzando a pasos agigantados, pero debemos usarla con responsabilidad.
A continuación les dejo los links, si desean probar este software de NVIDIA:
Y enlaces a estas otras páginas que contienen información adicional:

No hay comentarios:

Publicar un comentario