Categorie
Inchieste

Intelligenza artificiale, bias cognitivi utilizzati per manipolare le nuove generazioni

Tempo di lettura: 4 minuti. Cosa si nasconde dietro i bias cognitivi dei modelli di intelligenza artificiale presenti sul mercato? Errori di programmazione o malafede?

Tempo di lettura: 4 minuti.

L’intelligenza artificiale sta entrando di prepotenza nelle nostre vite attraverso prodotti proposti non solo dalla primordiale OpenAI ma da tutte le Big Tech presenti sul mercato. Sono tante le disquisizioni sulle potenzialità di questa tecnologia e sui rischi che incombono sulla popolazione mondiale. In primo luogo c’è l’esigenza di capire in quale direzione andrà il mercato del lavoro e le previsioni sono funeste se consideriamo che la maggior parte delle degli studiosi ritiene che l’intelligenza artificiale in prima battuta possa causare la perdita a livello globale di 100 milioni di posti di lavoro. Tutte le multinazionali, dopo aver racimolato profitti anche nell’ultimo anno, hanno iniziato a licenziare e sembrerebbe che molti dei dipendenti mandati a casa non verranno reintegrati per una questione di efficienza così come Mark Zuckerberg ha dichiarato.

Sicuri che questa ottimizzazione del personale non sia dovuta già ad una previsione di sostituzione di svariate competenze con algoritmi capaci di apprendere le conoscenze che vengono impartite in anni di studio a cui si sommano gradualmente l’esperienze professionali che ne conseguono?

Algoritmi capaci di alimentare dei computer, sempre più efficienti e prestazionali, e di immagazzinare la conoscenza umana per metterla al servizio non solo di una grande impresa, ma anche di una popolazione sempre meno scolarizzata che ne diventerà dipendente.

L’etica dell’AI è il nuovo campo di battaglia

Dopo il mondo dei social network, anche quello dell’intelligenza artificiale è il nuovo campo di battaglia da conquistare dal mondo politico che vede in questa nuova tecnologia un’arma per formare e plasmare le nuove generazioni secondo la propria linea di indirizzo. Ecco allora che gli algoritmi necessitano di una base etica che deve essere soddisfatta e ci si accinge a costituire in ogni paese dei comitati di esperti su più aree trasversali per arrivare ad una maggiore ottimizzazione degli strumenti e dell’uso che ne può essere fatto sia nel campo produttivo sia in quello inerente la sicurezza internazionale.

L’aspetto da non sottovalutare è che per noi adulti, l’AI rappresenta uno strumento aggiuntivo più o meno comprensibile, mentre per i più giovani è e sarà un compagno di viaggio nel percorso di vita imprescindibile dal quotidiano.

Si sono velocizzati i tempi della tecnologia in modo spaventoso che i nativi digitali sono diventati nativi artificiali.

Per questo motivo è necessario stabilire un punto di partenza che tenga conto dei pregiudizi che la tecnologia debba avere.

La motivazione principale è come al solito quella della sicurezza ed è anche comprensibile visto che l’intelligenza artificiale è stata utilizzata per aumentare le capacità di criminali informatici in erba o anche più esperti nell’implementazione di codici malevoli e campagne phishing, tra leggende e fatti concreti, così come è possibile assistere a casi in cui si è proceduto a richiedere informazioni su come sintetizzare sostanze vietate per allestire nuovi traffici di droga autonomamente o addirittura confezionare materiale esplosivo per finalità terroristiche. Anche il mondo della cybersecurity e della guerra cibernetica osserva l’impiego dell’AI sia come vettore di attacco sia come strumento di difesa proattiva.

Bias cognitivi: errori o bandiere di pensiero?

Al netto delle distinzioni sui rischi, gli utilizzi e le opportunità che l’intelligenza artificiale può fornire all’umanità, c’è un fattore ancora più preoccupante che passa sottotraccia ed è quello dei bias cognitivi che caratterizzano i modelli di intelligenza artificiale presenti sul mercato. Argomento fondamentale perché in base ai modelli in uso, si forniscono risposte poco scientifiche e più di parte che possono influenzare in molti casi le opinioni degli utenti in quanto cittadini di una società.

Già è stato ampiamente dimostrato come su tematiche come il Covid o la guerra in Ucraina, ChatGpt abbia avallato una narrazione pregiudizievole su determinati meccanismi di ragionamento che non hanno consentito un dialogo logico, ma in alcuni casi dogmatico. Fin quando ci sarà una varietà di informazioni presenti in rete, gli adulti sceglieranno cosa leggere, come leggere e soprattutto come farsi un’idea. Analizzando alcune risposte fornite dagli applicativi di intelligenza artificiale, in seguito ad una conversazione “stressante”, è possibile intuire la linea di indirizzo ideologica di chi ha effettuato il tuning dell’applicativo oppure intercettare la fonte delle informazioni, con qualche scandalo a margine come quello dei contenuti CSAM per alimentare un motore destinato alla generazione di immagini. Sempre sulle immagini è emerso un pregiudizio grave di Google Gemini che ha fornito risposte incoerenti ed è sembrato che ci fosse una sorta di intenzione nel relegare su un piano minore i bianchi rispetto ad altre popolazioni.

Una coincidenza?

Secondo Sundai Pichai è un errore gravissimo, ma è anche un bene che ci sia creatività da parte dell’AI, ma si sollevano dubbi sulla bonarietà dell’errore se si pensa al revisionismo storico e culturale che c’è negli USA, in UK ed a cascata in alcuni paesi europei, dove le fiabe vengono rivitalizzate con il cambio di colore della pelle dei personaggi come Cenerentola o la Sirenetta.

In un periodo storico dove al “maschio” bianco viene imposto di chiedere scusa, indipendentemente dalla responsabilità penale che di norma dovrebbe essere individuale, di tutti i femminicidi, così come bias altamente politicizzati nell’algoritmo di Meta discriminano l’utenza più conservatrice e prima dell’arrivo di Musk c’era un pederasta a gestire l’ufficio Trust e Security di Twitter, il rischio vero rischio dell’intelligenza artificiale è quello di fornire risposte che vadano nella direzione dell’odio sociale, di atti discriminatori, di colpevolizzazioni e fino all’espressione di concetti ideologici che possano approvare pratiche nefande come l’abuso sui minori.

Per qualcuno sono semplici errori, ma il rischio che ci sia dietro un indirizzo ideologico all’oscuro di molti non è da escludere.

Di Livio Varriale

Giornalista e scrittore: le sue specializzazioni sono in Politica, Crimine Informatico, Comunicazione Istituzionale, Cultura e Trasformazione digitale. Autore del saggio sul Dark Web e il futuro della società digitale “La prigione dell’umanità” e di “Cultura digitale”. Appassionato di Osint e autore di diverse ricerche pubblicate da testate Nazionali. Attivista contro l’abuso dei minori, il suo motto è “Coerenza, Costanza, CoScienza”.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version