L'intelligenza artificiale si sta sviluppando a una velocità impressionante. L'impatto di questo rapido sviluppo lo stiamo sperimentando tutti, in ogni aspetto della vita. Ormai, l'IA viene integrata ovunque: nei sistemi commerciali, bancari, medici e molti altri. E non sembra che il suo potenziale si sia ancora completamente espresso.
L'utilizzo di questa tecnologia rivoluzionaria porta con sé molte questioni e dubbi di carattere etico. Possiamo dire, con parole semplici, che l'intelligenza artificiale viene addestrata ed educata dai programmatori; vengono inseriti al suo interno raccolte di dati che poi verranno utilizzate per interagire con le persone. Tuttavia, spesso succede che questi dati siano influenzati da bias cognitivi, cioè pregiudizi, inclinazioni e distorsioni che agiscono a livello inconscio. Questi bias, possono quindi portare a discriminazioni e a scelte discutibili. Ma facciamo degli esempi concreti. In passato è successo che algoritmi di riconoscimento facciale si sono dimostrati meno accurati nel riconoscere persone di colore, a causa di una mancanza di diversità nei dati di addestramento. Ci sono poi casi più specifici che hanno coinvolto aziende anche molto importanti. Nel 2014 Amazon ha sviluppato uno strumento di apprendimento automatico per valutare i curriculum online e recensire i candidati, un po’ come succede con i loro prodotti. L'obiettivo era permettere ai reclutatori dell’azienda di scegliere i migliori candidati grazie a questo sistema. Il modello si basava sui curriculum dei dipendenti assunti da Amazon nei dieci anni precedenti. Tuttavia, nel 2015, cominciano a emergere dei problemi: i manager di Amazon notano che la maggior parte degli assunti sono uomini. Le donne vengono sistematicamente penalizzate. Si prova a correggere il tiro, ma il modello di apprendimento continua a fare grosse discriminazioni. E così nel 2017 il progetto è stato definitivamente abbandonato.