Un laboratorio di fabbricazione a controllo numerico per lo sviluppo di materiali editoriali interattivi, sia multimediali, sia cartacei. Uno spazio dove produrre, giocare e imparare insieme, che offre servizi per la creazione e fruizione di contenuti e al contempo rafforza identità e coesione sociale.
Un luogo aperto e accogliente dove entrare in contatto con la tecnologia e gli strumenti della comunicazione per accrescere consapevolezza, competenza e autodeterminazione.

Bias Detector – Scopri il pregiudizio nei dati – BI3 (14-16 anni)

Descrizione

Gli studenti analizzano un piccolo dataset fittizio (nomi, immagini, categorie) e devono scoprire se contiene squilibri o assenze significative. Successivamente, propongono modifiche per renderlo più equo e rappresentativo.

Obiettivi didattici

  • Comprendere cos’è un bias nei dati.
  • Riconoscere l’impatto dei dati distorti sul comportamento di un’IA.
  • Promuovere il pensiero critico e l’inclusività nella progettazione.

Materiali necessari

  • Dataset stampato o digitale (es. 20 schede con nomi e categorie, tipo di mestiere o immagine associata).
  • Scheda di analisi (griglia con: genere, etnia, età, contesto, rappresentazione).
  • Pennarelli o evidenziatori.

Procedura

  1. Consegna del dataset agli studenti in piccoli gruppi.
  2. Ogni gruppo analizza:
    • Chi è rappresentato?
    • Chi manca?
    • Ci sono categorie sovra-usate o assenti?
  3. Gli studenti segnalano i problemi di rappresentazione.
  4. Discussione di classe: quali rischi comporta allenare un’IA su questi dati?
  5. Ogni gruppo propone un “dataset corretto” o una strategia per bilanciare i dati.

Esempi di risposte attese

  • “Ci sono solo nomi maschili associati al mestiere di ingegnere.”
  • “Tutte le immagini di scienziati sono persone bianche.”
  • “Il dataset potrebbe far pensare che solo i giovani siano medici.”
  • “Abbiamo aggiunto donne e persone con background culturali diversi per bilanciare le categorie.”