Un nuovo programma di ricerca guidato dall’Università Concordia di Montreal sta ridefinendo una nuova prospettiva come quella dell’intelligenza artificiale indigena. L’obiettivo è sviluppare pratiche computazionali che rispettino e integrino le conoscenze e le tradizioni delle comunità indigene, offrendo un approccio alternativo alle metodologie standard del settore.
Il progetto e la rete globale dei pod
Il programma di sviluppo dell’intelligenza artificiale indigena si articola in cluster di ricerca, chiamati pod, sparsi in Canada, Stati Uniti e Nuova Zelanda. Tra i partner chiave figurano laboratori e istituzioni come la Western University in Ontario, l’University of Lethbridge in Alberta, l’University of Hawai’i—West Oahu, Bard College a New York e Massey University in Nuova Zelanda.
I pod uniscono ricercatori, ingegneri, artisti e scienziati sociali con esperti indigeni, custodi della lingua, praticanti culturali e organizzazioni comunitarie. L’obiettivo è creare strumenti e sistemi di intelligenza artificiale che rispettino le specificità culturali e linguistiche di queste comunità, sviluppando approcci innovativi a partire da piccole quantità di dati.
Affrontare le sfide con una intelligenza artificiale indigena
Uno degli aspetti distintivi del programma è il focus sulla gestione etica dei dati. Mentre le grandi aziende di AI spesso utilizzano enormi dataset ottenuti attraverso scraping del web, questo progetto si impegna a lavorare esclusivamente con dati forniti volontariamente dalle comunità indigene.
Secondo il professor Yolgörmez, una delle sfide principali è costruire sistemi efficaci utilizzando risorse limitate, come i dati delle lingue indigene, spesso parzialmente documentate. Un altro obiettivo è creare sistemi multi-agente che supportino attori non umani e integrazioni complesse, allontanandosi dalle logiche monolitiche delle grandi aziende tecnologiche.
Decolonizzare l’intelligenza artificiale

Il progetto si presenta come complementare, ma alternativo, alla ricerca tradizionale sull’AI. La prospettiva indigena offre un modo per “decolonizzare” l’intelligenza artificiale, rompendo con l’idea che esista un unico approccio possibile per sviluppare sistemi avanzati.
Come sottolinea il professor Lewis, questa metodologia promuove l’innovazione grazie a una gestione dei dati culturalmente responsabile, utile non solo per preservare lingue e tradizioni a rischio, ma anche per ispirare nuove strategie nel campo dell’AI.
Questo progetto di intelligenza artificiale indigena rappresenta un esempio di come la tecnologia possa essere sviluppata in modo etico e inclusivo, valorizzando il patrimonio culturale e linguistico delle comunità indigene. Il lavoro guidato da Concordia potrebbe aprire nuove strade nella ricerca sull’intelligenza artificiale, dimostrando che integrare prospettive diverse non è solo possibile, ma necessario per un futuro tecnologico più equo e sostenibile.