Le reti neurali sono oggi alla base di tantissime applicazioni: riconoscimento di immagini, traduzione automatica, sistemi di raccomandazione e molto altro. Ma quanto possiamo fidarci delle loro risposte?
Un punto fondamentale — spesso trascurato — è capire quanto una piccola variazione nell’input possa influenzare l’output. In altre parole: le reti neurali sono davvero stabili?
Studiare questa sensibilità è essenziale per costruire sistemi che siano:
• più robusti rispetto al rumore,
• più affidabili quando usati nel mondo reale,
• meno vulnerabili ad attacchi mirati,
• più capaci di generalizzare davvero ciò che hanno imparato.
Per affrontare questo tema entra in gioco la costante di Lipschitz, un numero che misura quanto una rete può “esagerare” le differenze tra due input simili.
Capirla, stimarla e controllarla aiuta a progettare modelli più sicuri, più trasparenti e più prevedibili.
Relatore Michele Palma
PhD Student, Computational Sciences: Computational Mathematics. USI Università della Svizzera italiana.
Laureato Magistrale Artificial Intelligence, Informatics. Università Bocconi.
Laureato Triennale in Scienze Economiche, Economia e Informatica per l'Impresa. Università degli Studi "Gabriele d'Annunzio".
Per gli studenti CLEII è stato richiesto il riconoscimento 0.1 CFU di Abilità informatiche.
Per gli studenti CLEBA è stato richiesto il riconoscimento di CFU di Seminari.
Per il riconoscimento dei CFU è obbligatoria la prenotazione su FAD.
SEDE DI CHIETI
Via dei Vestini,31
Centralino 0871.3551
SEDE DI PESCARA
Viale Pindaro,42
Centralino 085.45371
email: info@unich.it
PEC: ateneo@pec.unich.it
Partita IVA 01335970693