Durant l’última dècada, Deep Learning ha revolucionat gairebé qualsevol àrea de les TIC, penetrant tan ràpida i profundament en àmbits empresarials i socials que ha permès noves capacitats mai abans vistes. Algunes d’elles ja tan quotidianes com els controvertits i falsos retrats fotorealistes, també coneguts com deepfakes.
A aquest efecte, les Xarxes Neuronals generatives han experimentat una millora intensa i constant en les seves capacitats, incloent diversos canvis de paradigma. Algunes de les seves variants permeten tècniques impressionants per a la Multimodal Domain Translation (MDT), mitjançant les quals per exemple es pot generar una imatge a partir d’una simple descripció textual, o poblar un extracte de vídeo sense so amb una pista d’àudio sintètica i plausible. En l’estat de l’art les Condicional Generative Adversarial Neural Networks (cGAN) posseeixen alguns beneficis i demostren resultats excel·lents sobre els Variational Autoencoders (VAE), en una cursa competitiva on els Transformers han irromput recentment amb alts nivells d’expectació.
En aquesta classe magistral, recorrerem diverses aplicacions creatives MDT i exemples d’imatge a imatge, text a so o vídeo a so. Al mateix temps es desgranaran múltiples tècniques per millorar i estabilitzar l’entrenament de cGANs, com conditioning Augmentation, espectral normalization, adaptive data augmentation, gradient penal, self-attention, class conditional normalization o conditional projection classifiers. Una visita final a les arquitectures atencionals, que configuren el nucli del paradigma dels Transformers, mostrarà les seves capacitats úniques com a traductors, més enllà de Natural Language Processing com GPT-3, i com a generadors en general.
Quan: 13 DESEMBRE 2021 | 10h a 11:30h
Més entrades d'Esdeveniments
Comentaris