Sommario
I prodotti e le tecnologie legate all’intelligenza artificiale (IA) sono costruiti e implementati all’interno di un contesto sociale, una complessa combinazione di circostanze sociali, culturali, storiche, politiche ed economiche. Questi contesti sono difficili da tradurre nelle rappresentazioni quantitative che dominano gli approcci standard all’apprendimento automatico (ML) e alle pratiche di sviluppo dei prodotti di IA responsabile.
Il problema della comprensione
La prima fase dello sviluppo di un prodotto di IA, la comprensione del problema, ha un’influenza significativa su come i problemi vengono formulati per essere risolti dai sistemi ML e su molte altre decisioni a valle, come la scelta del set di dati e dell’architettura ML. Quando il contesto sociale in cui un prodotto opererà non è ben articolato, le soluzioni ML risultanti possono essere fragili e persino propagare pregiudizi ingiusti.
Il divario nella comprensione del problema
Quando gli sviluppatori di prodotti di IA non hanno accesso alle conoscenze e agli strumenti necessari per comprendere efficacemente e considerare il contesto sociale durante lo sviluppo, tendono ad astrarsi da esso. Questa astrazione li lascia con una comprensione superficiale e quantitativa dei problemi che cercano di risolvere, mentre gli utenti dei prodotti e gli stakeholder della società tendono ad avere una profonda comprensione qualitativa di quegli stessi problemi. Questa divergenza nei modi di comprendere i problemi complessi che separa gli utenti dei prodotti e la società dagli sviluppatori è ciò che chiamiamo il divario nella comprensione del problema.
Gli strumenti SCOUTS
Per colmare in modo responsabile il divario nella comprensione del problema, gli sviluppatori di prodotti di IA hanno bisogno di strumenti che mettano a loro disposizione la conoscenza del contesto sociale strutturata e validata dalla comunità riguardo ai problemi sociali complessi. A tal fine, gli Strumenti e Soluzioni per la Comprensione del Contesto Sociale (SCOUTS), parte del team Tecnologia Umana-Centrica e IA Responsabile (RAI-HCT) all’interno della Ricerca Google, è un team di ricerca dedicato alla missione di “potenziare le persone con la conoscenza del contesto sociale scalabile e affidabile necessaria per realizzare un’IA responsabile e robusta e risolvere i problemi sociali più complessi del mondo”.