Descrizione
Gli studenti analizzano un piccolo dataset fittizio (nomi, immagini, categorie) e devono scoprire se contiene squilibri o assenze significative. Successivamente, propongono modifiche per renderlo più equo e rappresentativo.
Obiettivi didattici
- Comprendere cos’è un bias nei dati.
 - Riconoscere l’impatto dei dati distorti sul comportamento di un’IA.
 - Promuovere il pensiero critico e l’inclusività nella progettazione.
 
Materiali necessari
- Dataset stampato o digitale (es. 20 schede con nomi e categorie, tipo di mestiere o immagine associata).
 - Scheda di analisi (griglia con: genere, etnia, età, contesto, rappresentazione).
 - Pennarelli o evidenziatori.
 
Procedura
- Consegna del dataset agli studenti in piccoli gruppi.
 - Ogni gruppo analizza:
- Chi è rappresentato?
 - Chi manca?
 - Ci sono categorie sovra-usate o assenti?
 
 - Gli studenti segnalano i problemi di rappresentazione.
 - Discussione di classe: quali rischi comporta allenare un’IA su questi dati?
 - Ogni gruppo propone un “dataset corretto” o una strategia per bilanciare i dati.
 
Esempi di risposte attese
- “Ci sono solo nomi maschili associati al mestiere di ingegnere.”
 - “Tutte le immagini di scienziati sono persone bianche.”
 - “Il dataset potrebbe far pensare che solo i giovani siano medici.”
 - “Abbiamo aggiunto donne e persone con background culturali diversi per bilanciare le categorie.”
 
