Editoriali
L’allarme di Geoffrey Hinton sull’intelligenza artificiale e la risposta di Meredith Whittaker
Tempo di lettura: < 1 minuto. L’AI potrebbe superare l’intelligenza umana e distruggere l’umanità, ma ci stiamo concentrando sulle minacce sbagliate?

Geoffrey Hinton, pioniere dell’intelligenza artificiale, ha recentemente rassegnato le dimissioni da Google per avvertire del pericolo che l’AI potrebbe presto superare l’intelligenza umana e imparare a distruggere l’umanità autonomamente.
Tuttavia, Meredith Whittaker, una ricercatrice di spicco nel campo dell’AI, afferma che gli allarmi di Hinton distolgono l’attenzione da minacce più urgenti e discute di come i lavoratori possano opporsi ai danni causati dalla tecnologia dall’interno.
Le preoccupazioni di Hinton e la risposta di Whittaker
Mentre Hinton mette in guardia sull’intelligenza artificiale e i suoi potenziali pericoli, Whittaker sostiene che queste preoccupazioni distolgono l’attenzione da minacce più concrete, come i cambiamenti climatici e i danni alle persone emarginate. Secondo Whittaker, la paura che l’AI possa acquisire coscienza e distruggere l’umanità è infondata, poiché non vi è alcuna prova che i grandi modelli di apprendimento automatico abbiano la “scintilla della coscienza”.
Organizzare i lavoratori contro i danni della tecnologia
Whittaker, che ha iniziato a organizzare i lavoratori di Google nel 2017 per opporsi al Project Maven, un contratto che l’azienda aveva stipulato per costruire tecnologia di visione artificiale per i droni militari degli Stati Uniti, sostiene che unirsi ai lavoratori per opporsi ai danni della tecnologia sia più efficace che abbandonare l’azienda per esprimere preoccupazioni.
Riferimenti: [Fast Company, Financial Times]
Editoriali
Meta promosso dal suo organo indipendente: spazzatura pagata da Zuckerberg
Tempo di lettura: 3 minuti. L’ANSA riporta una notizia che descrive una attività indipendente che in realtà non lo è. Esperti dei diritti umani che fanno finta di non vedere la censura di un social oramai distante dalla libertà di stampa.

Facebook vuole far credere al mondo che è cambiato, ma la realtà non è quella espressa dal comunicato ANSA diffuso dalla società in seguito riportato in corsivo con note a commento.
Il fantomatico Oversight Board
Ad oltre due anni dal lancio, l’Oversight Board, organo che monitora il funzionamento delle piattaforme social di Meta, afferma che Facebook e le altre app del gruppo stanno migliorando dal punto di vista delle regole e del controllo della privacy per gli utenti.
Si tratta di un percorso lungo, e ancora non giunto a completamento, ma la strada intrapresa è quella giusta verso una maggiore trasparenza nell’utilizzo delle app e di come queste possono recepire, utilizzare e sfruttare i dati degli iscritti.
Che si sappia, a nessuno è capitato di avere a che fare con questa entità. Nel periodo della pandemia molti appelli degli utenti trovavano una risposta della piattaforma “che c’era poco personale” e che se proprio si voleva ottenere una risposta, bisognava provare con l’Oversight board. Nessuno di conosciuto ha mai avuto risposta dal comitato.
I limiti di Meta sono la sua forza?
L’Oversight Board è composto da quasi due dozzine di esperti in diritti umani e libertà di parola, e ha pubblicato il suo rapporto annuale che copre il lavoro e le interazioni con Meta nell’ultimo anno. Se il consiglio aveva criticato molto il colosso digitale per non aver cambiato le sue politiche nel 2021, l’ultimo documento evidenzia l’impatto che le raccomandazioni hanno avuto sull’azienda. “Nel 2022, è stato incoraggiante vedere che, per la prima volta, Meta ha apportato modifiche sistemiche alle sue regole e al modo in cui vengono applicate, comprese le notifiche e le limitazioni per i post delle organizzazioni pericolose” si legge in una nota. Il rapporto evidenzia anche le aree in cui si ritiene che Meta possa migliorare. Ad esempio nei tempi di risposta alle sue richieste, che vanno ben oltre i 90 giorni stabiliti dalle regole.
Nonostante si parli di promozione, l’Oversight Board è contento della censura di Facebook alle organizzazioni pericolose nonostante in italia si sia registrato il caso di Simone di Stefano che in campagna elettorale è stato descritto pericoloso dalla piattaforma e poi ha vinto una causa per poter svolgere regolare campagna elettorale sui social.
Oppure il comitato dei diritti umani ha forse dimenticato una multa appena comminata a Facebook dal Garante Privacy europeo?
E la causa persa da Meta in Senegal contro i lavoratori della moderazione dei contenuti sottopagati per vedere video di pedofilia e squartamenti vari senza nemmeno un adeguato supporto psicologico?
E cosa pensa l’oversight board del sistema di censura algoritmica che utilizza facebook e delle indiscrezioni trapelate dai Twitter Files dove Meta è prono a richieste governative di censura dei giornalisti e finanzia reti di fact checkers di una precisa parte politica?
Meta dovrebbe migliorare i tempi di risposta secondo il comitato ed è per questo motivo che Facebook chiederà soldi agli utenti per fornire garanzia nella risposta alle proprie istanze personali.
L’unica osservazione sincera del comitato spazzatura pagato da Zuckerberg
Vi è poi la mancanza di una traduzione delle linee guida, per i moderatori interni, nelle loro lingue natie. Secondo Meta, tutti i collaboratori parlano correttamente l’inglese, quindi non vi è bisogno di tradurre i testi in vari idiomi. Non la pensa così l’Oversight Board, che afferma come il basarsi solo su una singola lingua “possa far perdere ai revisori il contesto e le sfumature tra lingue e dialetti differenti” il che può causare errori nell’interpretazione e nell’applicazione delle norme
Molti dei ban o dei blocchi derivano proprio dall’errata traduzione degli operatori, ma in primis dell’intelligenza artificiale che poi rimanda allo scarso servizio di assistenza che si dovrà pagare in futuro se lo si vorrà efficiente.
Conclusioni
Basta poco a smontare il fantastico mondo degli unicorni descritta da una società che quotidianamente abusa della libertà di espressione, della libertà di stampa e gode di privilegi sociali sperando di accecare le menti dietro 24 persone che magari si sono svendute per un incarico di “prestigio”.
Editoriali
Esperti sollecitano la consapevolezza cyber in risposta all’abuso e alla manipolazione crescente dell’IA
Tempo di lettura: 2 minuti. Gli esperti sottolineano l’importanza della consapevolezza cyber per contrastare l’abuso e la manipolazione dell’Intelligenza Artificiale.

I progressi tecnologici hanno permeato ogni aspetto della vita umana, vegetale e animale. Con l’aiuto dell’intelligenza artificiale e della robotica, è possibile determinare la crescita e l’età degli alberi, aiutare le persone con disabilità a riguadagnare l’uso delle loro parti del corpo disabili e rintracciare e trovare animali vaganti. Nonostante i progressi e i progressi realizzati dall’IA, sono stati registrati diversi incidenti di manipolazione, abuso e disinformazione dell’IA.
Incidenti dell’IA
Il database degli incidenti dell’IA ha mostrato che il primo incidente risale al 2015, quando l’app YouTube Kids di Google ha esposto i bambini a contenuti inquietanti. Un altro incidente registrato nel febbraio 2023 riguardava Mohammed Khadeer, 35 anni, in India, le cui caratteristiche di riconoscimento facciale corrispondevano a quelle di un sospetto rapinatore di catene. Khadeer è stato presumibilmente torturato e ucciso in custodia di polizia a causa di questo errore. Nel maggio dello stesso anno, un avvocato, in un caso tra Mata vs Avianca Inc, si è affidato a ChatGPT per la ricerca in tribunale. L’IA ha portato alla luce casi giudiziari, che quando l’avvocato ha presentato, il tribunale ha stabilito che non esistevano e le citazioni erano false. Questo ha portato alla punizione dell’avvocato per aver citato casi falsi.
Chiamata all’azione
Di fronte a questi incidenti, uno dei “padrini” dell’IA, il premio Nobel per l’informatica, il professor Yoshua Benigo, ha dichiarato di sentirsi “perso nel suo lavoro di vita”. Benigo, insieme ad altri scienziati, ha firmato una lettera scritta dal Centre for AI Safety che avverte che l’IA potrebbe portare all’estinzione dell’umanità e causare eventi catastrofici come guerre nucleari e pandemie. Lo scienziato ha inoltre chiamato alla registrazione e alla formazione etica dei costruttori di IA.
Consigli per la sicurezza
Con la vulnerabilità degli strumenti di IA e robotica, gli esperti consigliano agli utenti di essere vigili per prevenire l’alimentazione di informazioni a coloro che potrebbero generare un prototipo. È importante la vigilanza e la consapevolezza nelle interazioni sui social media per prevenire la suscettibilità ai truffatori. Se non si fa nulla, gli impatti negativi dell’IA aumenteranno e supereranno i positivi.
Editoriali
Per uno spot da 4 soldi, il Garante Privacy ha escluso l’Italia dal tour Europeo di Chat GPT
Tempo di lettura: 3 minuti. Oltre al danno tecnico, la beffa istituzionale. Unico paese democratico al mondo ad aver preso le distanza dall’azienda di Altman. Che ha ricambiato subito

Sam Altman di OpenAI ha viaggiato per tutta l’Europa dimenticandosi di fare tappa nella splendida Italia che risulta tra le sue nazioni preferite come egli stesso ha dichiarato in occasione del contenzioso con il Garante Privacy.
Il capo di ChatGPT ha avviato una serie di lunghi viaggi in giro per il mondo incontrando i diversi governi saltando però il Bel Paese. Le riflessioni potrebbero anche essere molteplici, e la scelta di saltare il duo Italia e Vaticano ha indignato molti tecnici ed analisti del settore tra cui giornalisti che timidamente hanno ha avuto il coraggio di parlare delle presunte responsabilità sulla mancata visita nello stivale del nuovo Tycoon del mondo Big Tech.
Non c’è da stupirsi se però si considera che l’Italia sia stata l’unica nazione “democratica” a bloccare ChatGPT per un mese e questo assunto è stato più svolte smentito dall’Autorità Garante per la Protezione dei Dati del nostro paese nonostante la stampa internazionale ha sempre parlato di un blocco nei confronti dell’attività dell’intelligenza artificiale più famosa del mondo. Solo in Italia c’è stato chi da analista, da professionista e da giornalista ha spesso portato avanti la tesi che Chat GPT si fosse autoesclusa dal mercato perché in difetto.
Dopo un confronto tra le parti, a cui avrebbe partecipato addirittura lo stesso Altman come dichiarato dal comunicato vittorioso del Garante Privacy a suo tempo, oltre a stabilire quali fossero le richieste tecniche per conformare OpenAI al GDPR, la società doveva avviare una campagna informativa con lo stesso Garante su tutti i media per sensibilizzare le persone al trattamento dei dati in occasione dei nuovi quanto sconosciuti applicativi di intelligenza artificiale che stanno spopolando anche tra la massa. Ad oggi, a distanza di 15 giorni da quando sarebbe dovuta partire la campagna informativa, il 15 maggio 2023, non vi è traccia di pubblicità istituzionale su alcun media, ed oltre al clamore che più volte si è ritagliata l’Autorità Garante in giro per il mondo, quello che resta dell’evento è l’assenza di una tappa italiana dal tour di Sam Altman, ospitato in giro perl ‘Europa non di certo per parlare del GDPR.
I soldi della pubblicità valgono più delle visite Istituzionali
Quanto occorso in questi giorni non va assolutamente nella direzione di un buon lavoro svolto nei confronti di una nuova tecnologia da parte dell’unico organismo al mondo che ha da subito bloccato un applicativo con una inusitata velocità scaturita da un provvedimento urgente sottoscritto dal presidente del collegio, chiedendo tra l’altro in cambio dei soldi sottoforma di sanzione un investimento sotto forma di pubblicità istituzionale su cui non è stato nemmeno emesso un bando per la selezione dell’agenzia pubblicitaria nè tantomeno per la diffusione.
Una gestione politica di un evento che ha favorito i nostri competitor
Una gestione politica che può essere abbondantemente giudicata negativamente e che ha recato un danno di immagine al paese messo in secondo piano rispetto a Portogallo, Spagna, Germania, e Francia. Nonostante l’Italia sia una delle mete preferite dal CEO di OpenAI, Sam Altman ha fatto intendere che la sede europea del colosso chat GPT verrà aperta proprio in sotto la Torre Effeil. Se così fosse, l’attività del Garante della Privacy è stata utile a rafforzare la posizione concorrenziale di un paese estero con l’ingresso di nuovi investimenti di una delle società più solide al mondo dal punto di vista della crescita del proprio valore che avrebbe portato nuovi posti di lavoro.
Garante dei cittadini francesi?
Considerando che questo tipo di attività spesso ricorre all’interno del nostro paese , urge considerevolmente una posizione da parte del Governo di stabilire quelle che sono materie di interesse nazionale su cui dovrebbe scattare, magari con un provvedimento urgente, la verifica da parte di chi ha a cuore gli interessi nazionali nel settore strategico dell’economia globale. Forse solo così sarà chiaro a chi ricopre incarichi pubblici di onorare al meglio il proprio stipendio possibile grazie ai fondi dei contribuenti che individuano nella classe politica e nella classe dirigente da lei indicata, uno stakeholder delle proprie economie.
-
Inchieste3 settimane fa
Vinted: oltre le truffe c’è feticismo. Attenzione ai minori
-
Editoriali2 settimane fa
Facebook multata per 1,3 miliardi. L’Italia esce sconfitta … ancora una volta
-
Inchieste3 settimane fa
Vinted: beyond scams is fetishism. Beware of minors
-
Editoriali2 settimane fa
Robot e Diritti: il Confucianesimo Come Alternativa?”
-
Inchieste2 settimane fa
APT33, hacker iraniani che mettono a rischio la sicurezza globale
-
Inchieste2 settimane fa
APT42, il gruppo di cyber-spionaggio sponsorizzato dallo stato Iraniano: un’analisi dettagliata
-
Inchieste2 settimane fa
Agrius: l’Apt iraniano specializzato in wiper contro Israele
-
Editoriali1 settimana fa
Per uno spot da 4 soldi, il Garante Privacy ha escluso l’Italia dal tour Europeo di Chat GPT