Compartint solucions al repte de l’equitat en els models predictius d’Intel·ligència Artificial

GMV, compartint solucions al repte de l’equitat en els models predictius d’Intel·ligència  Artificial

La Universitat CEU San Pablo ha acollit la primera jornada sobre Ètica i Intel·ligència Artificial sota el títol: “A la recerca d’un algorisme ètic”. L’acte ha comptat amb resolutives ponències dels més destacats experts en aquesta matèria. Entre ells, José Carlos Baquero, director d’Intel·ligència Artificial i Big Data de GMV, hi ha intervingut compartint la seva experiència en IA i explicant com podem aconseguir algorismes més igualitaris i justos.

Des de les sol·licituds de crèdit fins a les cites en línia, els models de Machine Learning estan automatitzant la nostra presa de decisions dia a dia. No obstant això, més enllà de l’impacte positiu de la Intel·ligència Artificial en els models de negoci, cal que siguem conscients de les seves externalitats negatives (equitat, responsabilitat, transparència i ètica) a l’hora d’utilitzar algorismes per a la presa de decisions.

José Carlos Baquero, director d’Intel·ligència Artificial i Big Data de Secure e-Solutions de GMV, ha destacat en la seva intervenció l’equitat com un dels pilars de l’ètica de la Intel·ligència Artificial. Durant la xerrada ha convidat els assistents a reflexionar sobre això, a més de presentar noves maneres per mitigar la discriminació emergent en els nostres models. Per a això cal posar el focus en la interpretabilitat i transparència, fer un interrogatori profund a models complexos, i al seu torn fer models més robusts i justos en les nostres prediccions que ens permetin modificar l’optimització de les funcions i afegir-hi restriccions.

GMV, compartint solucions al repte de l’equitat en els models predictius d’Intel·ligència  Artificial

Tanmateix, és evident que construir models predictius imparcials no és tan senzill com treure alguns atributs sensibles de les dades d’entrenament. Es requereixen tècniques enginyoses per corregir el profund biaix de les dades i forçar els models a fer prediccions més imparcials. Així mateix, fer prediccions imparcials comporta un cost que implica una reducció de l’acompliment del nostre model.

En definitiva, si analitzem i comprenem millor tant el model predictiu com Machine Learning, podrem anticipar possibles problemes i incorporar el sentit d’equitat en els models predictius d’Intel·ligència Artificial. Prendre seriosament la imparcialitat i estar segurs que les nostres prediccions no perjudiquin injustament el nostre entorn per treure el màxim profit de la Intel·ligència Artificial.

VÍDEO JORNADA SOBRE ÈTICA I INTEL·LIGÈNCIA ARTIFICIAL