AI spiegabile versus AI interpretabile: che cosa sono, come funzionano, casi d’uso e strumenti
0:00
13:47
Tutti gli algoritmi dovrebbero essere trasparenti, ma così non è. Secondo gli studiosi la linea di demarcazione tra intelligenza artificiale spiegabile e interpretabile è rappresentata dalla user interface. Indipendentemente dal livello di esperienza degli utenti e dalla loro professione (data science, sviluppatori, business line), l’interpretabilità permette di comprendere i modelli di intelligenza artificiale in modo semplice e facendo questo aiuta a ridurre la diffidenza nei confronti dell’automazione...
Altri episodi di "Intelligenza Artificiale: gli impatti sulla nostra vita e sulle aziende"
Non perdere nemmeno un episodio di “Intelligenza Artificiale: gli impatti sulla nostra vita e sulle aziende”. Iscriviti all'app gratuita GetPodcast.