Inchieste
INCHIESTA LSSTUDIOS: Matricedigitale segnala profili Twitter alla Pubblica Autorità
E’ stata la settimana del contrasto alla pedofilia online.
Matricedigitale vi ha proposto una inchiesta sul caso storico di LsStudios, tradotta in due lingue e riportata dal noto blog internazionale Security Affairs, che denuncia alcuni profili twitter ancora attivi.
Gli utenti hanno condiviso in questi anni links con materiale proibito. La segnalazione alle Forze dell’Ordine comprende 60 tweets dal 2010 ad oggi.
E’ un caso raro quello di un giornalista che segnala links alla Pubblica Autorità ricavati direttamente da una inchiesta.
Congiuntamente, il gruppo di hackers Portoghesi e Brasiliani, CyberTeam, ha buttato giù domini istituzionali di città verdeoro per sensibilizzare le Autorità alla lotta al contrasto della pedofilia. Anche loro hanno segnalato 100 links all’incirca alla Pubblica Autorità.
Matrice Digitale è da sempre dalla parte di coloro che ogni giorno perseguono la causa del contrasto alla pedofilia online.
Inchieste
Antimafia vittima di data breach e data leak, ma nessuno lo dice
Tempo di lettura: 4 minuti. Lo scandalo dossieraggio alla Procura Nazionale Antimafia nasconde lo spettro di una sanzione del Garante Privacy per data breach e data leak
In questi mesi Matrice digitale ha osservato in religioso silenzio la vicenda dei dossier presso la Procura Nazionale Antimafia effettuati dal luogotenente della Guardia di Finanza Pasquale Striano in danno a migliaia di persone inconsapevoli e senza l’autorizzazione di un magistrato o di un giudice. Dopo aver raccontato la vicenda, è stato necessario fare un giro all’interno del solito circo mediatico dei paladini della Privacy, dell’Intelligence e del crimine informatico sempre pronto nel puntare il dito contro le aziende, o le Aziende Sanitarie Nazionali tanto per citare i precedenti, vittime di attacchi ransomware o di data breach e data leak ed oggi tacciono sull’antimafia.
Perché nessun altro, se non pochissimi forse, sono arrivati alla conclusione che l’Antimafia in realtà sia stata vittima di un data breach ed allo stesso tempo di un data leak?
Se qualcuno ha dubbi, proviamo a ricostruire la vicenda secondo rigore di logica: un individuo qualificato ha gli accessi ad un sistema informatico, ne fa un uso improprio senza che la Pubblica Amministrazione lo sappia e questo lo rende responsabile in prima persona sia penalmente sia civilmente. Peccato però che la stessa PA non abbia predisposto gli strumenti per monitorare tale condizione ed è qui che subentra in gioco la responsabilità secondo quanto stabilito dal GDPR e dalla stessa normativa interna.
Al momento non si conosce la portata del data breach e del relativo data leak nell’antimafia perché il numero dei soggetti coinvolti tende a crescere, con lo spettro che possano esserci anche liste secretate, come non è ancora chiaro, e questo è oggetto di indagine, se, una volta raccolti i dati, questi siano stati venduti nel dark web (scenario improbabile, ma giusto per ricordarlo agli smemorati del giornalismo digitale), oppure siano stati utilizzati per favorire attività di spionaggio e di intelligence, addirittura straniera come sospettato da qualcuno.
Da cosa è possibile capire se ci sia una responsabilità secondo quanto previsto dal GDPR da parte della Procura Nazionale Antimafia?
Semplicemente dalle parole dell’attuale procuratore Giovanni Melillo, ai tempi dei fatti presso la Procura di Napoli e quindi estraneo all’attività dossieraggio, che ha garantito in Commissione Antimafia di aver predisposto gli strumenti necessari affinché non si ripeta più un caso simile perpetratosi per diversi anni senza che nessuno se ne accorgesse.
Perchè i giornalisti non dicono tutta la verità?
C’è anche un altro aspetto da non sottovalutare ed è quello del silenzio calato sulla vicenda da parte di tanti giornalisti che preferiscono non entrare nel merito della vicenda attenendosi a quelle che sono le narrazioni della cronaca e quindi delle loro fonti quotidiane Istituzionali. La motivazione è molto semplice e l’ha spiegata Alessandro Sallusti, direttore de Il Giornale, nonostante il suo quotidiano risulti essere molto sul pezzo rispetto ad altri. I primi fruitori di queste informazioni, sembrerebbero tre per il momento perché sotto inchiesta, sono gli stessi giornalisti che sono interessati a tutelare le loro fonti. Conoscendo le dinamiche della cronaca giudiziaria, sarebbe assurdo trattare un argomento come questo in modo uguale a quelli della quotidianità quando c’è di mezzo la principale fonte di successo di un giornalista specializzato nella cronaca: alcuni magistrati ed alcuni uomini delle forze dell’ordine.
Il Garante Privacy interverrà?
Il Garante della Privacy a questo punto, dovrebbe tenere in considerazione l’eventualità di poter emettere una sanzione nei confronti della Direzione Nazionale Antimafia che avrebbe avuto l’obbligo di comunicare la violazione dei dati personali sensibili di alcuni cittadini ai diretti interessati perché spiati senza una formale e regolare procedura giudiziaria. E’ anche comprensibile il silenzio visto che ad essere oggetto di indagine e di presunte irregolarità in questo momento siano i controllori.
Se Matrice Digitale è entrata a gamba tesa, c’è già chi ha ipotizzato delle falle, ricordiamo che sono state riconosciute dall’attuale Procuratore, per cui questo scandalo è stato possibile ed è Andrea Lisi, avvocato, docente universitario, titolare dello Studio Legale Lisi. Il Presidente Anorc Professioni, manager dell’innovazione e divulgatore scientifico in ambito Digital & Law, ha sollevato una questione importante riguardo alla fuga di notizie di un “dossieraggio”. Piuttosto che focalizzarsi su chi possa aver commissionato tale fuga, Lisi invita a riflettere sulle ragioni sottostanti a tale evento. Secondo lui, la causa risiede nei modelli organizzativi carenti e nella notevole mancanza di conoscenza pratica dei principi fondamentali di privacy by design e privacy by default, in particolare per quanto riguarda la gestione dei database contenenti dati sensibili. Ha inoltre evidenziato come, nonostante queste lacune, si continui a prelevare informazioni per condividerle con altri. Ha fatto riferimento a un episodio in cui un importante istituto bancario è stato sanzionato per la seconda volta dall’Autorità Garante per la protezione dei dati personali a causa di gravi violazioni legate a data breach che hanno compromesso i dati personali dei clienti. Lisi ha sottolineato la contraddizione nel parlare di Intelligenze Artificiali e della loro alimentazione dati in un contesto in cui non si è capaci di garantire adeguata protezione a tali informazioni.
Futuro distopico o presente iperdigitalizzato?
Quanto successo rimanda all’antico motto informatico “da grandi poteri derivano grandi responsabilità” che viene spesso ricordato agli amministratori di sistema Linux perché più permessi si hanno e più è possibile fare bene e male all’ecosistema ed agli utenti che vi risiedono. Questo l’ha capito ora il sistema giustizia italiano sempre più attento al crimine informatico, ma che ha dovuto fare i conti con un buco interno che ha colpito migliaia di cittadini con un’azione che qualcuno definirebbe distopica.
E’ comprensibile che ancora non si sia dato uno sguardo alle manchevolezze della più alta Istituzione Pubblica Giudiziaria ed al fatto che ci sia stata una mancanza di comunicazione ai profili violati attraverso l’uso di programmi che possono pericolosi se gestiti in modo sbagliato e senza un antifurto che preveda l’abuso degli accessi al sistema. C’è però l’aspetto che riguarda la difesa dei diritti universali dell’uomo, e cioè quello di non mettere i danneggiati nella condizione di potersi rivalere non solo come parte civile nei confronti del luogotenente Striano, ma anche nei confronti della Pubblica Amministrazione colpevole di aver consentito che ciò avvenisse senza predisporre tutte le misure di sicurezza come previsto dalla normativa vigente.
Il significato politico di una Sanzione
Nel caso sia comminata una sanzione, il messaggio politico del Governo Meloni – Nordio sarebbe abbastanza forte nei confronti di coloro che ritengono la magistratura una missione che travalica il confine, già difficile da solcare, della Giustizia e che se c’è qualcosa che ha recato danno ad alcune persone, quest’ultime dovrebbero poter essere risarcite o avere gli strumenti per farne richiesta. Perché è vero che viviamo in una democrazia, dove non esiste la condanna a morte, ma è stato già sancito che un ingiusto e lungo processo può comunque recare alla morte civile escludendo il cittadino dalla vita sociale della Repubblica.
Non ultimo, la legge dovrebbe comunque essere uguale per tutti anche per l’Antimafia, se è stata vittima di data breach e leak.
Inchieste
Sangue e propaganda: storie di due ingegneri di generazioni diverse
Tempo di lettura: 4 minuti. Un ingegnere di Google si fa licenziare pubblicamente perchè contro le politiche aziendali in danno ai palestinesi, un suo anziano collega napoletano invoca la censura di un concittadino artista
Un giovane ingegnere licenziato in tronco perché al convegno di Google Cloud protesta contro la tecnologia della sorveglianza di massa e che favorisce genocidi sviluppata dalla sua azienda. Nello stesso momento, a Napoli, un suo collega più anziano a capo di una Academy della multinazionale Apple chiede la cancellazione dei murales di Jorit la foto dell’artista partenopeo con Putin al festival della gioventù di Sochi. Due storie diverse, di due generazioni lontane con una visione di pace e di guerra che si incontrano a distanza. Da una parte un obiettore di coscienza, dall’altra un propagandista con l’elmetto e la toga universitaria.
Licenziamento Google: dipendente protesta contro il Progetto Nimbus
Google ha licenziato un dipendente che ha protestato pubblicamente contro il lavoro dell’azienda per l’esercito israeliano. Durante una presentazione di un esecutivo della filiale israeliana di Google, l’ormai ex ingegnere di Google Cloud si è alzato e ha urlato: “Mi rifiuto di costruire tecnologia che alimenti genocidi o sorveglianza.”
Il licenziamento, confermato da Google in una mail a The Verge, è avvenuto in seguito alla violazione delle politiche aziendali da parte del dipendente, che ha interrotto un collega durante una presentazione, interferendo con un evento ufficiale sponsorizzato dall’azienda.
Contesto della protesta
L’incidente è avvenuto a Mind the Tech, una conferenza tecnologica annuale israeliana a New York, durante la presentazione di Barak Regev, direttore generale di Google Israele. L’ingegnere protestava contro il Progetto Nimbus, un contratto governativo israeliano da 1,2 miliardi di dollari per l’accesso ai servizi cloud da Google e Amazon, sostenendo che mette in pericolo la comunità palestinese. “Nessun apartheid nel cloud,” ha dichiarato il dipendente prima di essere scortato fuori.
Google ha affrontato resistenze per il suo coinvolgimento nel Progetto Nimbus fin dalla firma del contratto nel 2021. Centinaia di dipendenti di Google e Amazon hanno pubblicato una lettera aperta per esprimere la loro opposizione all’accordo, sostenendo che le tecnologie consentono ulteriori sorveglianze e raccolta illecita di dati sui palestinesi.
Reazioni e implicazioni
No Tech For Apartheid, un’organizzazione contraria al Progetto Nimbus, qui il reportage di Matrice Digitale sul caso, ha pubblicato una dichiarazione sul licenziamento dell’ingegnere, accusando Google di tentare di silenziare i lavoratori per nascondere i propri fallimenti morali. “In qualità di ingegnere del software per il cloud su tecnologia critica che consente a Project Nimbus di funzionare su centri dati sovrani israeliani, questo lavoratore ha parlato da una posizione di profonda preoccupazione personale per gli impatti violenti diretti del suo lavoro,” ha dichiarato l’organizzazione.
Da quando è scoppiata la guerra tra Israele e Hamas lo scorso ottobre, i dipendenti hanno organizzato un “die-in” negli uffici di Google a San Francisco per protestare contro il contratto dei servizi cloud, e oltre 600 dipendenti hanno firmato una lettera esortando Google a smettere di sponsorizzare la conferenza Mind the Tech, secondo un rapporto di Wired.
Controversia a Napoli: chiesta la cancellazione dei murales di Jorit
Nel cuore di Napoli, le opere di street art dell’artista Jorit stanno suscitando un acceso dibattito. Giorgio Ventre, figura di spicco nel settore tecnologico e legato all’Apple Academy, ha recentemente espresso un’opinione forte riguardo i murales di Jorit presenti in città, suggerendo che dovrebbero essere rimossi attraverso le pagine del Corriere del Mezzogiorno.
Opere d’arte o messaggi politici?
Le opere di Jorit, tra cui spicca il noto murale dedicato a Maradona, sono diventate simboli riconosciuti in città. Tuttavia, Ventre ritiene che alcuni di questi murales portino un messaggio politico inaccettabile, specialmente alla luce di una foto di Jorit accanto a Vladimir Putin che ha recentemente fatto il giro del web, sollevando polemiche.
Polemica su libertà artistica e responsabilità
Ventre, pur riconoscendo l’importanza della libertà artistica, sottolinea la responsabilità che gli artisti hanno quando le loro opere acquisiscono grande visibilità. La sua critica si concentra sulle implicazioni politiche di alcune opere di Jorit, come il murale di Mariupol, che ritrae una bambina con le bombe NATO sullo sfondo, in una zona teatro di un tragico massacro.
Dibattito aperto sulla rimozione
La questione ha sollevato un dibattito più ampio sulla rimozione dei murales. Mentre alcuni li considerano attrazioni turistiche e simboli della città, altri, come Ventre, ritengono che non debbano essere utilizzati come veicoli di messaggi politici controversi. Ventre chiude il suo intervento riflettendo sul delicato equilibrio della libertà, sottolineando che essa non dovrebbe mai tollerare la difesa di crimini. La sua posizione mette in luce la tensione tra la libertà di espressione artistica e la responsabilità sociale e politica degli artisti.
Guerra e pace: passato e presente a confronto
In questi ultimi due anni il mondo accademico vive un momento di tensione e di scontri a livello internazionale. Da una parte il conflitto russo ucraino, dall’altro quello israelo-palestinese. Il caso di Ventre è il classico esempio di un affiliato alle logiche atlantiste che contesta un suo concittadino e la sua arte per lanciare un messaggio ai suoi partner statunitensi dopo che la scheggia impazzita ha mostrato un nemico più umano rispetto alla narrazione riservatagli negli ultimi anni. C’è anche però uno scontro costante nel settore tecnologico dove la Russia si è dimostrata superiore all’Occidente nella guerra cibernetica e la tecnologia israeliana non è riuscita a prevedere e fermare l’attacco del 7 ottobre. La stessa tecnologia israeliana su cui vertono interessi militari congiunti tra l’eccellenza tecnologica nel campo dell’intelligence dell’avamposto occidentale in Medio Oriente e le Big Tech statunitensi. Tutti fallimenti che la generazione di Ventre sta raccogliendo dopo anni di autoreferenzialità ed oggi vende come democrazia la censura e la propaganda come strumento per salvare l’immagine.
Inchieste
Intelligenza artificiale, bias cognitivi utilizzati per manipolare le nuove generazioni
Tempo di lettura: 4 minuti. Cosa si nasconde dietro i bias cognitivi dei modelli di intelligenza artificiale presenti sul mercato? Errori di programmazione o malafede?
L’intelligenza artificiale sta entrando di prepotenza nelle nostre vite attraverso prodotti proposti non solo dalla primordiale OpenAI ma da tutte le Big Tech presenti sul mercato. Sono tante le disquisizioni sulle potenzialità di questa tecnologia e sui rischi che incombono sulla popolazione mondiale. In primo luogo c’è l’esigenza di capire in quale direzione andrà il mercato del lavoro e le previsioni sono funeste se consideriamo che la maggior parte delle degli studiosi ritiene che l’intelligenza artificiale in prima battuta possa causare la perdita a livello globale di 100 milioni di posti di lavoro. Tutte le multinazionali, dopo aver racimolato profitti anche nell’ultimo anno, hanno iniziato a licenziare e sembrerebbe che molti dei dipendenti mandati a casa non verranno reintegrati per una questione di efficienza così come Mark Zuckerberg ha dichiarato.
Sicuri che questa ottimizzazione del personale non sia dovuta già ad una previsione di sostituzione di svariate competenze con algoritmi capaci di apprendere le conoscenze che vengono impartite in anni di studio a cui si sommano gradualmente l’esperienze professionali che ne conseguono?
Algoritmi capaci di alimentare dei computer, sempre più efficienti e prestazionali, e di immagazzinare la conoscenza umana per metterla al servizio non solo di una grande impresa, ma anche di una popolazione sempre meno scolarizzata che ne diventerà dipendente.
L’etica dell’AI è il nuovo campo di battaglia
Dopo il mondo dei social network, anche quello dell’intelligenza artificiale è il nuovo campo di battaglia da conquistare dal mondo politico che vede in questa nuova tecnologia un’arma per formare e plasmare le nuove generazioni secondo la propria linea di indirizzo. Ecco allora che gli algoritmi necessitano di una base etica che deve essere soddisfatta e ci si accinge a costituire in ogni paese dei comitati di esperti su più aree trasversali per arrivare ad una maggiore ottimizzazione degli strumenti e dell’uso che ne può essere fatto sia nel campo produttivo sia in quello inerente la sicurezza internazionale.
L’aspetto da non sottovalutare è che per noi adulti, l’AI rappresenta uno strumento aggiuntivo più o meno comprensibile, mentre per i più giovani è e sarà un compagno di viaggio nel percorso di vita imprescindibile dal quotidiano.
Si sono velocizzati i tempi della tecnologia in modo spaventoso che i nativi digitali sono diventati nativi artificiali.
Per questo motivo è necessario stabilire un punto di partenza che tenga conto dei pregiudizi che la tecnologia debba avere.
La motivazione principale è come al solito quella della sicurezza ed è anche comprensibile visto che l’intelligenza artificiale è stata utilizzata per aumentare le capacità di criminali informatici in erba o anche più esperti nell’implementazione di codici malevoli e campagne phishing, tra leggende e fatti concreti, così come è possibile assistere a casi in cui si è proceduto a richiedere informazioni su come sintetizzare sostanze vietate per allestire nuovi traffici di droga autonomamente o addirittura confezionare materiale esplosivo per finalità terroristiche. Anche il mondo della cybersecurity e della guerra cibernetica osserva l’impiego dell’AI sia come vettore di attacco sia come strumento di difesa proattiva.
Bias cognitivi: errori o bandiere di pensiero?
Al netto delle distinzioni sui rischi, gli utilizzi e le opportunità che l’intelligenza artificiale può fornire all’umanità, c’è un fattore ancora più preoccupante che passa sottotraccia ed è quello dei bias cognitivi che caratterizzano i modelli di intelligenza artificiale presenti sul mercato. Argomento fondamentale perché in base ai modelli in uso, si forniscono risposte poco scientifiche e più di parte che possono influenzare in molti casi le opinioni degli utenti in quanto cittadini di una società.
Già è stato ampiamente dimostrato come su tematiche come il Covid o la guerra in Ucraina, ChatGpt abbia avallato una narrazione pregiudizievole su determinati meccanismi di ragionamento che non hanno consentito un dialogo logico, ma in alcuni casi dogmatico. Fin quando ci sarà una varietà di informazioni presenti in rete, gli adulti sceglieranno cosa leggere, come leggere e soprattutto come farsi un’idea. Analizzando alcune risposte fornite dagli applicativi di intelligenza artificiale, in seguito ad una conversazione “stressante”, è possibile intuire la linea di indirizzo ideologica di chi ha effettuato il tuning dell’applicativo oppure intercettare la fonte delle informazioni, con qualche scandalo a margine come quello dei contenuti CSAM per alimentare un motore destinato alla generazione di immagini. Sempre sulle immagini è emerso un pregiudizio grave di Google Gemini che ha fornito risposte incoerenti ed è sembrato che ci fosse una sorta di intenzione nel relegare su un piano minore i bianchi rispetto ad altre popolazioni.
Una coincidenza?
Secondo Sundai Pichai è un errore gravissimo, ma è anche un bene che ci sia creatività da parte dell’AI, ma si sollevano dubbi sulla bonarietà dell’errore se si pensa al revisionismo storico e culturale che c’è negli USA, in UK ed a cascata in alcuni paesi europei, dove le fiabe vengono rivitalizzate con il cambio di colore della pelle dei personaggi come Cenerentola o la Sirenetta.
In un periodo storico dove al “maschio” bianco viene imposto di chiedere scusa, indipendentemente dalla responsabilità penale che di norma dovrebbe essere individuale, di tutti i femminicidi, così come bias altamente politicizzati nell’algoritmo di Meta discriminano l’utenza più conservatrice e prima dell’arrivo di Musk c’era un pederasta a gestire l’ufficio Trust e Security di Twitter, il rischio vero rischio dell’intelligenza artificiale è quello di fornire risposte che vadano nella direzione dell’odio sociale, di atti discriminatori, di colpevolizzazioni e fino all’espressione di concetti ideologici che possano approvare pratiche nefande come l’abuso sui minori.
Per qualcuno sono semplici errori, ma il rischio che ci sia dietro un indirizzo ideologico all’oscuro di molti non è da escludere.
- Tech1 settimana fa
Aggiornamenti Galaxy S24 e S23: One UI 6.1 e fotografia migliorata
- Inchieste1 settimana fa
Sangue e propaganda: storie di due ingegneri di generazioni diverse
- L'Altra Bolla1 settimana fa
Reddit: modello AI contro le molestie
- Economia1 settimana fa
Reddit mira a una valutazione di 6,4 Miliardi per l’IPO
- Economia1 settimana fa
Worldcoin sconfitta: continua la sospensione per Privacy in Spagna
- Economia1 settimana fa
El Salvador Registra un Profitto Non Realizzato di 84 Milioni di Dollari dalle Sue Riserve di Bitcoin
- Economia1 settimana fa
Investimenti in criptovalute raggiungono nuovi Record
- Economia6 giorni fa
Apple avvia la produzione dell’iPhone 15 in Brasile