Descrizione
Gli studenti analizzano un piccolo dataset fittizio (nomi, immagini, categorie) e devono scoprire se contiene squilibri o assenze significative. Successivamente, propongono modifiche per renderlo più equo e rappresentativo.
Obiettivi didattici
- Comprendere cos’è un bias nei dati.
- Riconoscere l’impatto dei dati distorti sul comportamento di un’IA.
- Promuovere il pensiero critico e l’inclusività nella progettazione.
Materiali necessari
- Dataset stampato o digitale (es. 20 schede con nomi e categorie, tipo di mestiere o immagine associata).
- Scheda di analisi (griglia con: genere, etnia, età, contesto, rappresentazione).
- Pennarelli o evidenziatori.
Procedura
- Consegna del dataset agli studenti in piccoli gruppi.
- Ogni gruppo analizza:
- Chi è rappresentato?
- Chi manca?
- Ci sono categorie sovra-usate o assenti?
- Gli studenti segnalano i problemi di rappresentazione.
- Discussione di classe: quali rischi comporta allenare un’IA su questi dati?
- Ogni gruppo propone un “dataset corretto” o una strategia per bilanciare i dati.
Esempi di risposte attese
- “Ci sono solo nomi maschili associati al mestiere di ingegnere.”
- “Tutte le immagini di scienziati sono persone bianche.”
- “Il dataset potrebbe far pensare che solo i giovani siano medici.”
- “Abbiamo aggiunto donne e persone con background culturali diversi per bilanciare le categorie.”