Masterclass Explicabilitat en Visió Artificial. CIDAI

En els últims anys els algorismes d’intel·ligència artificial (IA) han millorat de manera més que substancial i el seu ús va molt més enllà del sector IT. Avui dia podem trobar-los en àmbits com les finances, la medicina, l’art, les energies renovables etc.

Concretament en l’àmbit de la visió artificial (o Computer Vision – CV), constantment es deleguen decisions importants a aquests algorismes (diagnòstics mèdics, cotxes autònoms…), per la qual cosa és crucial que aquestes decisions siguin justes i explicables. En aquest context, tenim la responsabilitat moral com a societat de fugir del concepte de “caixa negra”, en el qual no podem explicar la relació entre uns inputs i els seus outputs, i transitar cap a un punt en el qual qualsevol decisió presa per un algorisme pugui ser interpretada.

En aquesta Masterclass introduirem la necessitat i el concepte d’explicabilitat en el camp de la IA, a posar focus en les tècniques existents específiques per a l’explicabilitat en el camp de la visió artificial (centrant-nos en la tasca de classificació d’imatges) i acabarem detallant casos d’ús en els quals. la interpretació dels models de Computer Vision, és crucial.

DIA I HORARI: 14 OCTUBRE 2022 | 11:30h a 13h

PONENTS:

Stefano Masneri, Technical Manager en el Knowledge àrea d’intel·ligència artificial en NTT Data. Stefano té 15 anys d’experiència en processament d’imatges, visió artificial i realitat augmentada i ha treballat com a investigador i enginyer de computer vision a Itàlia, Alemanya i Espanya. Ara en NTT Data, s’ocupa de projectes que ajuden els clients a utilitzar IA per a millorar els seus processos i generar valor afegit.

Mario Mesas Rodriguez, Data Scientist @ NTT Data Center of Excellence. Data Scientist en el Centre d’Excel·lència de IA de NTT DATA. Experiència aplicant tècniques de visió artificial (object detection, instance segmentation) a múltiples casos d’ús, des de la seva concepció a la seva posada en producció. Amb un particular interès en l’Edge AI i les aplicacions industrials de la visió artificial, en NTT Data cerca sumar coneixements i afegir el seu expertise per a generar un producte diferencial.

IDIOMA I FORMAT DE LA MASTERCLASS: Castellà | Virtual

AGENDA:

Què és l’explicabilitat en intel·ligència artificial i perquè és important.

Explicabilitat en models de visió artificial

Categories de tècniques per a explicar models de visió artificial

Casos d’ús

Més informació

Més entrades de Formació


Entrada destacada

Informe de Tendències Salarials 2025 de Randstad

En un context econòmic dinàmic i desafiador, el mercat laboral espanyol s'enfronta a reptes significatius, especialment en el que respec...