Immagine di copertina per gentile concessione di Diletta Huyskes
Utilizzare la filosofia per risolvere problemi concreti e complessi, che vadano oltre la speculazione in se stessa, con lo scopo di rendere l’intelligenza artificiale uno strumento equo, giusto e volto a migliore la società da tutti i possibili punti di vista. Questa è la sfida che porta avanti quotidianamente Diletta Huyskes attraverso lo studio e l’analisi dell’etica di software, algoritmi, sistemi di analisi dati e di tutto ciò che può rientrare sotto il cappello dell’intelligenza artificiale. Dopo la laurea in filosofia, oggi Huyskes sta completando un dottorato di ricerca in Sociologia all'Università degli Studi di Milano, con un progetto dedicato a genere, femminismo e intelligenza artificiale. Co-fondatrice della società benefit Immanence, Huyskes intende ragionare e prendere azione a partire dai modelli di sviluppo e dalle applicazioni degli algoritmi, valutando anzitutto la tutela del valore sociale, dei diritti fondamentali e il rispetto dei principi etici e morali.
INDICE
- ►Parliamo di intelligenza artificiale con Diletta Huyskes
- ►Diletta Huyskes, quali sono gli aspetti che più apprezza del suo lavoro, giorno per giorno?
- ►Come si svolge, nel concreto, la sua routine quotidiana?
- ►Ci può raccontare com’è stato il percorso che l’ha portata a intraprendere questa attività?
- ►A cosa serve applicare i principi etici all’intelligenza artificiale?
Parliamo di intelligenza artificiale con Diletta Huyskes
Diletta Huyskes, quali sono gli aspetti che più apprezza del suo lavoro, giorno per giorno?
Anzitutto, la scoperta quotidiana e il mettersi sempre in gioco, con sfide nuove e dai risvolti incerti. Di fatto la mia è una professione che sta emergendo proprio in questi anni, quindi le sue potenzialità e il suo valore sono ancora tutte da scoprire: questo vale sia per la mia attività di dottorato sia per il mio ruolo di imprenditrice di una società neonata. Tutto questo implica che le soluzioni ai problemi che emergono vadano inventate con una buona dose di improvvisazione e, dal mio punto di vista, questo processo esplorativo è molto affascinante. Non esistono modelli di riferimento da cui farsi guidare, né libri su cui studiare come si possano affrontare determinati problemi, e questo rende il lavoro davvero sfidante. Un altro aspetto interessante riguarda il valore morale dell’intelligenza artificiale: riuscire a rendere i processi automatizzati sempre più equi e positivi a livello sociale è utile – o forse indispensabile – per il nostro futuro.
Come si svolge, nel concreto, la sua routine quotidiana?
Nel lavoro che svolgo non esiste una giornata tipo: di solito c’è una suddivisione settimanale tra le attività di ricerca che svolgo nell’ambito del dottorato e quelle per il progetto Immanence. Per il resto partecipo spesso a conferenze, sia in ambito universitario sia divulgativo, e viaggio spessissimo per potermi confrontare con realtà anche molto diverse tra loro, come aziende, pubbliche amministrazioni e gruppi di ricerca accademici. È molto difficile definire le caratteristiche specifiche del mio lavoro, non solo in quanto è molto variabile ma anche perché, non essendoci modelli codificati a cui riferirsi, la routine e i punti di attenzione cambiano anche in base alle esigenze dello specifico momento storico.
Ci può raccontare com’è stato il percorso che l’ha portata a intraprendere questa attività?
Non avevo affatto programmato di occuparmi di questo nella vita, ma il mio attuale inquadramento è stato il risultato di una serie di condizioni e contingenze. Nonostante gli studi filosofici, ho sempre avuto una certa inclinazione verso la tecnologia: per molti ambiti che oggi sono centrali nel mio lavoro lo studio non è avvenuto all’interno dei programmi formativi predefiniti, ma ho approfondito i temi in maniera autonoma durante gli anni dell’università. All’inizio immaginavo di creare un ambiente multidisciplinare, sulla falsa riga di alcuni centri di ricerca presenti negli Stati Uniti, ma mi sono trovata ben presto a scontrarmi con le enormi differenze che ci sono tra l’ambito universitario, le pubbliche amministrazioni e le aziende tecnologiche, sia in termini di esigenze, prospettive e progettualità sia come metodologie di lavoro e approccio ai problemi. Cercare di trovare un punto di incontro tra questi mondi – apparentemente così lontani – è uno dei miei principali obiettivi: con il mio lavoro cerco di portare le discussioni sull’etica e le competenze umanistiche all’interno delle aziende che sviluppano sistemi di intelligenza artificiale.
A cosa serve applicare i principi etici all’intelligenza artificiale?
L’etica dell’intelligenza artificiale è basilare per prevenire, o quanto meno ridurre, una lunga serie di problemi, dal gap di genere fino alla discriminazione sociale e alle questioni relative alla salute o alle assicurazioni. Si tratta di un mondo ancora nuovo, che presenta caratteristiche completamente diverse da tutto ciò che abbiamo visto finora. L’intelligenza artificiale oggi può essere controllata, ma nel prossimo futuro il suo ruolo sarà sempre più impattante sulla società e sulle vite delle persone, poiché è probabile che affideremo alla tecnologia il compito di prendere decisioni più o meno grandi. Occorre prestare attenzione al mondo in cui tutto ciò prende piede, senza peccare di superficialità, perché i problemi di ingiustizia sociale che vediamo oggi rischiano di essere non solo riprodotti ma addirittura amplificati, proprio per effetto dei processi di auto-apprendimento a partire dai dati da cui l’intelligenza artificiale attinge. Di fatto, l’equità sociale, l’amministrazione della giustizia, l’accesso alle cure, la tutela della sicurezza e molto altro saranno gestite da processi tecnologici automatizzati. La vera sfida è trovare dei modelli che siano veramente applicabili su larga scalda, tenendo in considerazione una quantità enorme di fattori: non è detto che una regola valida per un determinato campione sociale sia valida anche al di fuori di quello specifico contesto.