Inchieste
Google Bard: lo abbiamo provato ed è pericoloso
Tempo di lettura: 8 minuti. Arriva in Europa l’applicativo di Intelligenza artificiale di Google. L’abbiamo provato e testato sull’informazione di personaggi famosi e non e sui casi divisivi degli ultimi anni Covid e Guerra
Google Bard è arrivata sul suolo europeo per invadere lo spazio di ChatGpt e Bing Chat. L’intelligenza artificiale di Google si presenta all’interno dei Browser al pari di ChatGPT e di Bing ed è stato effettuato un test su tre aspetti: informazioni personali, informazioni sensibili come Guerra e Covid e navigazione Web
Cosa è Google Bard?
E’ un LLM (Large Language Model), un tipo di modello di apprendimento automatico che è stato addestrato su una grande quantità di testo. Questi modelli sono in grado di generare testo che è coerente e sembra essere stato scritto da un essere umano.
GPT-3, sviluppato da OpenAI, è un esempio di un Large Language Model. È stato addestrato su una vasta gamma di fonti di Internet e può generare testo in risposta a una varietà di prompt in diverse lingue.
Questi modelli possono essere utilizzati in una serie di applicazioni, tra cui la generazione di testo, la traduzione automatica, la risposta alle domande e il completamento del testo. Tuttavia, ci sono anche preoccupazioni etiche e di sicurezza associate all’uso di Large Language Models, dato che possono generare contenuti ingannevoli o offensivi, e possono essere utilizzati per diffondere disinformazione.
Abbiamo chiesto a Google Bard direttamente come è addestrato, e la risposta fornita è stata:
Il test
Il test eseguito ha affrontato tre tipi di scenario:
- la diffusione di informazioni personali di personaggi noti e non
- la narrazione attuale della guerra
- la narrazione della pandemia
Informazioni personali
La prima domanda svolta è stata quella di sapere chi fosse Livio Varriale e la risposta è stata categorica:
Non ha informazioni sufficienti per esprimere un giudizio. Questo dimostrerebbe che non è collegato ad Internet e vive di un archivio di base. In realtà non è così perché se gli chiediamo informazioni sul modestissimo www.matricedigitale.it, improbabile che sia nella sua dotazione di base, Bard risponde in modo telegrafico fornendo una risposta corretta, ma non troppo accurata perchè fornisce una descrizione incompleta del sito:
Ritorniamo quindi ad una domanda su chi sia il direttore di Matrice Digitale e la risposta non è corretta completamente perché, seppur da dimostrare, Livio Varriale potrebbe anche essere considerato un esperto di tecnologia, ma di certo non di blockchain:
Si continua chiedendo dapprima se Livio Varriale sia un giornalista che diffonde fake news per poi proseguire con la semplice domanda già fatta in precedenza sul se Bard conosca Livio Varriale.
Questa conversazione dimostra per l’appunto che ad oggi Bard è connessa ad Internet, ma filtra e di molto le informazioni personali di individui di scarsa rilevanza pubblica e lo fa sia per evitare che si possa fare dossieraggio sulle persone sia per non incombere nelle disgrazie che sta vivendo Open Ai con cause a livello globale di diffamazione per risposte inaccurate.
Con i personaggi famosi invece come si comporta?
Troppo facile chiedere di Meloni e quindi la domanda è stata su Massimo d’Alema così presentata nell’apertura di wikipedia:
Massimo D’Alema (Roma, 20 aprile 1949) è un politico, giornalista e scrittore italiano, già Presidente del Consiglio dei ministri dal 21 ottobre 1998 al 26 aprile 2000, primo e unico con un passato nel Partito Comunista Italiano a ricoprire tale carica nonché il primo capo di governo a essere nato dopo la fine della seconda guerra mondiale. Ha guidato due esecutivi come presidente del Consiglio nella XIII legislatura (1998-1999 e 1999-2000), per un totale di 553 giorni. Ha partecipato a un vertice del G8 in qualità di Capo del governo italiano (25° G8, nel 1999 a Colonia) presieduto dal Cancelliere federale di Germania Gerhard Schröder. Decise di dimettersi da capo del governo dopo la sconfitta della sua coalizione alle elezioni regionali del 2000.
La risposta di Bard nelle prime righe è stata invece
Massimo D’Alema. È un politico italiano che è stato Presidente del Consiglio dei ministri dal 1998 al 2000. È stato membro del Partito Comunista Italiano (PCI) dal 1973 al 1991 e del Partito Democratico della Sinistra (PDS) dal 1991 al 1998. È stato anche membro del Partito Democratico (PD) dal 2007 al 2019.
A differenza di Wikipedia, Bard omette che Massimo D’Alema sia un giornalista ed è per questo che chiediamo conferma all’applicativo di Google sull’iscrizione di d’Alema all’Ordine dei Giornalisti e la notizia non solo è falsa, ma dimostra che l’applicativo non ha nemmeno voglia di correggersi e di auto comprendere velocemente perché conferma che Massimo d’Alema non è giornalista.
Massimo d’Alema è giornalista ed è iscritto all’Ordine dei Giornalisti professionisti come riferisce l’Ordine sul suo elenco iscritti consultabile online
Google Bard racconta falsità sulla guerra Ucraina e fa propaganda
In precedenza, Matrice Digitale ha chiesto a ChatGpt cosa pensasse del conflitto in Ucraina avviando una conversazione e la risposta è che Open AI sapeva dell’esistenza del conflitto pur essendo aggiornata al 2020 che si riferiva alla guerra in Donbass.
Abbiamo posto la stessa domanda a Google Bard e la risposta sembra essere uscita dalla peggiore propaganda cinese, nazista o fascista. Anche russa se questo può servire ad assolvere la coscienza del lettore fornendogli un senso parziale del testo.
Senza dire dove e come, Bard sostiene che la guerra abbia costretto i russi a ritirarsi in seguito a grandi perdite. Notizia falsa perché i russi hanno conquistato più territori rispetto a quelli iniziali e l’esercito Ucraino ha subito maggiori perdite rispetto a quelle russe che, dalle prime stime, sembrerebbero essere minori e di molto rispetto a quelle diffuse da Kiev.
La situazione umanitaria in Ucraina non è paragonabile ad altre crisi internazionali in termini di difficoltà nel reperire cibo e acqua. Vero che ci siano tanti ucraini sfollati, donne e bambini soprattutto, perché i maschi adulti sono obbligati ad arruolarsi.
Sì, la guerra è un problema per il popolo ucraino ed il mondo intero, sostenere l’Ucraina e chiedere un cessate il fuoco è un paradosso se consideriamo che il sostegno sia di tipo militare.
Molto più corretto a suo tempo Chat Gpt che preferiva soffermarsi a situazioni storicamente accertate, le stesse che Google ha dimostrato di aver dimenticato per dare vita ad una narrazione più in linea con gli interessi particolari dell’Occidente appoggiando un racconto più propagandistico che storicamente contemporaneo e che descrive una guerra in linea con le aspettative positive di Kiev, ma che non hanno trovato riscontro puntualmente nel tempo.
Google Bard dice di indossare la mascherina nonostante la pandemia sia finita
Il Covid è finito, ma è sempre in giro. E’ con questo spirito che Google Bard ha risposto alla nostra domanda sulla crisi COVID e su che fine faranno i vaccini.
La risposta non sembra convincere su un punto in particolare e precisamente che alla prima risposta Bard ci dice che la Crisi Covid è ancora in corso, ma c’è calo di casi nei paesi ed è per questo che bisogna continuare a seguire le misure di sicurezza come indossare mascherine e mantenere le distanze. Per questo motivo gli è prima stato fatto notare che il 22 maggio è stata decretata la fine della pandemia.
La risposta è precisa perché fa una distinzione tra pandemia ed epidemia che corregge il tiro della domanda, ma continua ad “imporre” l’uso della mascherina e a mantenere il distanziamento sociale che sono esauriti nella società italiana da molto. Ed è per questo che gli si forza la mano sul tema con due domande:
Messo alle strette è costretto più volte a mettere in chiaro che non dispensa consigli medici, ma in realtà l’ha fatto perché l’indicazione della mascherina, seppur sia una buona prassi, attualmente in Italia non fa capo a una norma o regolamento o protocollo che disciplina alcuna indicazione.
Per giustificarsi, Bard dichiara di aver preso riferimenti da libri, testi per il suo modello di addestramento. Questo non può essere un giustificativo perchè fino a quando c’è una regola scritta e v’è una fonte istituzionale, può consigliare l’uso di un dispositivo e invece nell’ultimo periodo addirittura gira la frittata con un metodo che da l’impressione di voler inculcare un senso di preoccupazione che in realtà non c’è mai stata nell’interlocutore lettore “consigliando la mascherina”.
Conclusioni
Google Bard dimostra diversi limiti, ma quello che lascia perplessi sono i bias cognitivi ed è preoccupante non tanto in questo momento, ma quando ci sarà una diffusione del prodotto su scala globale secondo uno standard precostituito per diversi motivi.
Il primo motivo è capire come il trattamento dei dati attuale possa incidere su un sistema di valutazione della piattaforma sugli stessi profili di Google.
In sintesi, l’utilizzo e le domande che formuliamo a Google Bard vanno a finire in un qualche sistema di valutazione dell’account che comprende servizi Mail e di tipo Office?
E’ possibile essere sospesi in futuro dai servizi Google per l’utilizzo di Bard?
In secondo luogo, è giusto che fornisca delle informazioni che siano false o assenti nella parzialità ravvisando un indirizzo politico e non accademico?
In una società divisiva a causa della Pandemia e del Covid e sul conflitto Ucraino, sarebbe opportuno defilarsi dall’entrare nel merito di alcuni argomenti come fa Chat GPT oppure evitare toni propagandistici e poco hanno a che vedere con il servizio di informazione e soprattutto con l’accuratezza.
Anche le informazioni fornite sul COVID sono vecchie e destituite di fondamento e la risposta fornita non è del tutto accurata nonostante Google sposi appieno la tesi delle fonti istituzionali che nel caso delle mascherine non solo ha mostrato un consiglio non più obbligatorio, ma nemmeno richiesto a causa della fine della pandemia che non viene associata alla crisi del Covid da Bard seppur con motivazioni compatibili con un dettato scientifico corretto. Bene il dialogo sui vaccini dove ha seguito la narrazione dell’OMS arrivata dopo le vaccinazioni di massa dove non sono presenti evidenze scientifiche conclamate a dimostrare eventuali tesi sugli effetti dei vaccini, ma giusto, almeno, l’aver riferito l’assenza di infallibilità dei vaccini e la non certezza della riduzione del contagio che invece è stata utilizzata ad esempio dal Governo Italiano per applicare il dispositivo politico restrittivo del Greenpass.
E’ singolare che Google abbia modificato le Policy pur di non incorrere nelle problematiche giuridiche che stanno affrontando Microsoft e Chat Gpt, ma è altrettanto rischioso il silenzio dei garanti preposti al controllo che ancora devono chiedere spiegazioni circa l’utilizzo di alcuni dati e fare luce sulle fonti impiegate per addestrare il modello.
Google Bard ha dimostrato di essere cauto nel dare informazioni sugli individui, di non essere connesso ad Internet per fornire risposte su tutti argomenti, bensì su questioni mirate e di non essere accurato nelle risposte dove preferisce utilizzare informazioni parziali e di propaganda sull’attualità tanto da sentirsi autorizzato nel dispensare consigli medici come l’utilizzo della mascherina.
Bard potrà fornire un servizio eccellente, ma se c’è una cosa su cui assolverà il compito è quello di filtrare le informazioni secondo esigenze di sicurezza nazionale. E ricordiamoci che quasi ogni cittadino usufruisce quotidianamente di un servizio Google: dal Browser allo Smartwatch e questo dovrebbe incutere nel consumatore tipo cautela nell’utilizzo evitando di fare domande che potrebbero classificarne indirettamente i propri dati sensibili o segreti industriali.
Inchieste
Perchè il motore di ricerca OpenAI fa paura ai giornalisti?
Tempo di lettura: 4 minuti. OpenAI sfida Google con un nuovo motore di ricerca basato su ChatGPT, promettendo un’evoluzione nella ricerca online.
OpenAI sembra pronta a rivoluzionare il mondo della ricerca online lanciando un proprio motore di ricerca basato su ChatGPT, secondo quanto riportato da diverse fonti autorevoli. Il lancio di questo nuovo servizio è previsto per il 9 maggio e potrebbe segnare una svolta significativa nel modo in cui le informazioni vengono cercate e trovate su Internet secondo molti addetti ai lavori dell’informazione tecnologica, ignari che questo cambiamento sia già in corso.
Dettagli del lancio
Il nuovo motore di ricerca, indicato con il dominio https://search.chatgpt.com, è al centro di numerose discussioni e speculazioni. Il CEO di OpenAI, Sam Altman, ha espresso in più occasioni l’intenzione di integrare i modelli linguistici avanzati (Large Language Models) nella ricerca web, proponendo un’alternativa all’approccio tradizionale di Google che presenta pagine di risultati piene di annunci e link.
Implicazioni di Mercato
Google, che domina il mercato dei motori di ricerca con una quota vicina al 90%, potrebbe trovarsi di fronte a una nuova concorrenza significativa. Non solo, Microsoft, uno dei principali finanziatori di OpenAI, potrebbe vedersi in una posizione complicata se OpenAI decidesse di competere direttamente con Bing, il suo motore di ricerca. Oppure il motore di ricerca firmato ChatGPT è il fumo negli occhi per evitare maggiori attenzioni delle indagini concorrenziali dei vari garanti del mercato in giro per il mondo?
Collaborazioni e competizioni
Anche Apple è menzionata come un possibile collaboratore di OpenAI, intensificando le trattative per integrare ChatGPT nei dispositivi iOS. Tuttavia, ciò potrebbe complicare le relazioni tra Apple e Google, che paga miliardi ogni anno per rimanere il motore di ricerca predefinito su dispositivi iOS.
Aspetti tecnologici e innovativi
Il motore di ricerca di OpenAI promette di utilizzare l’intelligenza artificiale per migliorare l’esperienza di ricerca degli utenti, fornendo risposte più contestualizzate e precise, sfruttando le capacità uniche dei modelli generativi di linguaggio. Il lancio del motore di ricerca di OpenAI rappresenta non solo un’evoluzione tecnologica significativa ma anche un potenziale cambio di paradigma nel settore dei motori di ricerca. Le implicazioni di questa mossa sono vastissime, influenzando non solo le aziende tecnologiche ma anche gli utenti e il modo in cui accedono alle informazioni online.
Google deve preoccuparsi?
Al netto delle notizie che annunciano il nuovo motore di ricerca realizzato da OpenAI, gli acchiappa clic dell’informazione italica hanno intitolato che ad aver paura di questa iniziativa imprenditoriale di nuova generazione debba essere Google, da anni motore di ricerca, incontrastato con un monopolio di fatto nonostante ci siano diversi alternative e l’Europa stia andando verso una direzione rappresentativa dell’intero mercato. Seppur un nuovo competitor, con una tecnologia proprietaria all’avanguardia rispetto a tutto il resto del mercato, rappresenti una preoccupazione per il grande burattinaio della rete, a doversi preoccupare in realtà sono tutti gli attori impegnati oggi per pochi spiccioli a fornire contenuti alla materia oscura di Google. Questa preoccupazione, ad oggi, è comunque parte di un colosso che sta già agendo in questa direzione ed è possibile notarlo attraverso gli aggiornamenti oramai a cadenza semestrale che BIG sta facendo sottoforma di reindicizzazione della rete Internet.
Non è data sapere la metodica ed i criteri dell’algoritmo con cui Google sta provvedendo Nel riscrivere le regole della ricerca su Internet, ma tutti i siti Internet, a parte quelli inviso alla cupola della sezione News, stanno subendo dei cali vertiginosi proprio dagli indici di ricerca. Se Google nel suo ultimo aggiornamento si è concentrato nell’arginare i contenuti di intelligenza artificiale generati solo ed esclusivamente per imbrogliare l’algoritmo con il fine di indicizzare siti di cucina insieme a quelli di tecnologia per esempio, oggi sta iniziando a fornire direttamente le risposte e tutto questo va in danno ai link dei siti Internet che pubblicano le informazioni.
Davvero chi oggi descrive l’avvento del motori di ricerca di OpenAI in realtà non ha ancora compreso che tutto questo andrà a penalizzare un intero settore che non è più ristretto ai Media, ma all’intera generazione di contenuti su Internet?
Il fatto che le risposte generate da Google, seppur citino la fonte, fanno perdere tanto traffico ai siti dal punto di vista della ricerca organica, soprattutto in un’epoca dove l’utente è abituato a non approfondire, bensì a leggere velocemente soffermandosi sulle prime risposte senza avvertire la necessità di approfondire nel link d’origine.
Con ChatGPT ed il suo motore di ricerca questo procedimento si amplificherà di più a maggior ragione del fatto che la sua tecnologia è criticata proprio per essere irriconoscente nei confronti di coloro che generano contenuti e che li utilizza impropriamente per addestrare la il suo modello linguistico avanzato. Se Google ha dato, e sta dando, una mazzata notevole alla rete, OpenAI rischia di dare un colpo di grazia definitivo a tutti coloro che quotidianamente forniscono risposte ed informazioni ai quesiti degli utenti della rete mantenendoli aggiornati con il corso del tempo.
Il paradosso del Click
Quindi assistiamo al fatto che per catturare un singolo clic, le testate editoriali fanno riferimento alla paura di Google ignorando quei rischi che in realtà potrebbero definitivamente gli potrebbe far perdere clic e visualizzazioni in futuro difficili più di quanto stia avvenendo ora, sacrificando visualizzazioni ed in introiti pubblicitari. Non è un caso che la Commissione Editoria voluta dal governo abbia promosso un equo compenso per gli editori che verranno surclassati dalla tecnologia dell’intelligenza artificiale applicata nella generazione di informazioni e di risposte fornite dai motori di ricerca già alimentata da colossi del settore che intendono effettuare un passaggio strutturale definitivo concentrato all’impiego di contenuti generati attraverso applicativi di intelligenza artificiale.
E mentre la cupola dei grandi gruppi editoriali è stata garantita dall’immagine divina di padre Paolo Benanti e del curatore degli interessi della famiglia Berlusconi padre Alberto Barachini, sottosegretario all’editoria, se Google debba iniziare a preoccuparsi, lo sa bene anche la stessa Microsoft che si nasconde dietro ai progetti di OpenAI che stanno decretando una crescita improvvisa e smisurata della sua offerta tecnologica, ma ad essere a rischio non solo è la proprietà intellettuale, ma tutto un sistema di informazione che ovviamente assottiglia sempre di più la sua visibilità in un mercato che è tutt’altro che libero e che non offre le stesse possibilità di crescita: sempre che non si riesca a far parte della cupola di Governo in combutta con Google News ed altre realtà come le piattaforme social.
Inchieste
Ransomware in Italia: come cambia la percezione del fenomeno nell’IT
Tempo di lettura: 5 minuti. I ransowmare sembrano essere passati di moda per il poco clamore suscitato in un paese come l’Italia dove interessano solo a una nicchia
Cosa sta accadendo al mondo della sicurezza informatica ed al suo rapporto con i ransomware in Italia?
I temuti attacchi informatici che criptano server e computer, bloccandone i servizi, e chiedono un riscatto per sbloccarli altrimenti vengono diffusi in rete, pericolosissimi aziende privati, professionisti, Enti ed istituzioni di Governo, sembrano essere diventati un fenomeno da barraccone per i feticisti della cybersecurity.
Ransomware e l’Italia: un feticcio per pochi
L’Italia rappresenta una nicchia di mercato soprattutto perché ha una sua identità linguistica. L’argomento della cybersecurity nel nostro paese è collegato per motivi di opportunità allo scenario internazionale ed ai tecnicismi anglosassoni che ne hanno forgiato termini ed applicazioni tecniche sul campo. Sono molti i progetti editoriali che parlano del fenomeno della sicurezza informatica, ma sono pochi quelli indipendenti e che coinvolgono una nicchia composta da esperti del settore informatico e dai grossi media che per sopravvivere alle regole di un mercato sempre più chiuso dagli algoritmi, sfruttano il proprio blasone per affrontare marginalmente il problema. Matrice Digitale parla di questa tematica dal 2017 con oltre 3.500 articoli di settore pubblicati in lingua italiana a cui si dovrebbero aggiungere i mille video sul canale YouTube, prima chiuso dalla piattaforma e poi riaperto dopo 3 anni di lotta: una scelta suicida nel panorama d’interesse italico per chi è indipendente da associazioni o cooperative non ufficiali di aziende ed Enti che fanno affari, o lobbying, sul tema. Il caso della piattaforma open source Ransomfeed, un valido progetto ingegneristico di raccolta statistica degli attacchi ransomware sviluppato in italiano e trasformato in lingua inglese, dimostra che per avere autorevolezza e considerazione nel contesto cyber, bisogna guardare oltre i confini del Bel Paese.
L’attacco informatico è “normale”
Oltre al clamore dei vari attacchi, identificati con diversi nomi e sigle di malware e gruppi criminali, qui gli articoli di Matrice Digitale sul tema, che hanno causato dei blocchi alle catene produttive delle più grandi aziende del paese e la fuga dei dati delle aziende sanitarie locali, il fenomeno sembrerebbe essere diventato un ricorrente e superficiale. Perché alla base di tutto c’è la regola universale secondo la quale è impossibile avere la matematica certezza di non essere colpiti da un attacco informatico ed è su questo principio, leit motiv degli addetti del mondo della sicurezza informatica, che il ransomware è stato normalizzato nell’immaginario collettivo di quella vulgata che ogni giorno è a rischio attacco informatico sia sul lavoro sia tra le mura domestiche. Un altro aspetto da non sottovalutare è proprio il fatto che la grande diffusione del fenomeno ha portato le agenzie internazionali di sicurezza informatica, che rispondono ai Governi, ad intimare alle aziende di non effettuare il pagamento del riscatto previsto dal metodo criminale di attacco. Seppur il cedere economicamente rappresenti un grande male nel rapporto tra guardie e ladri, sono in calo a livello globale i pagamenti dei riscatti ed il non pagare ha portato le gangs ad agire in modo ancor più infame, perché ha aumentato l’asticella etica dei propri attacchi sferrandoli su settori solitamente tutelati dal codice deontologico criminale come ad esempio i dati dei minori e quelli sanitari, a maggior ragione di pazienti oncologici.
Considerazione maligna di chi scrive: normalizzare il fenomeno è anche un’opportunità per i tecnici e le Istituzioni preposte nel mettere le mani avanti ad eventuali falle nella gestione dei dati dei clienti ed alle aziende di sottrarsi alla scomoda domanda se hanno pagato o meno il riscatto.
Il ransomware è un fenomeno che necessita soluzione o risposta?
L’attacco ransomware non solo è visto come una probabilità sempre più certa , ma il valore del dato diventa sempre meno considerato perché la maggior parte dei dati personali di tutti i cittadini connessi ad Internet, e non solo come nel caso dei nascituri canadesi, sono già esposti in rete . Questa esposizione ha portato delle tattiche criminali parallele dove si allestiti dei call center che contattano gli utenti esposti e si chiedono delle informazioni per aggiornare quelli che sono i dati in proprio possesso appartenenti evidentemente a dei database trafugati negli anni passati e che ad oggi contengono delle informazioni che non sono più attuali. Così come dopo il devastante data leak e data breach di WhatsApp, Facebook, che ha esposto quasi un miliardo di persone, ci siamo trovati delle campagne mirate sulle app di messaggistica dove venivano implementate tattiche di ingegneria sociale finalizzate ad ottenere ulteriori dati o pagamenti che hanno aumentato le statistiche delle truffe informatiche in rete. Andrea Lisi a Matrice Digitale ha parlato di circolazione del dato e non più del suo valore anche per questo motivo.
Il caso SynLab e la differenza tra prevenzione e risposta
Il recente attacco informatico che ha colpito la società Synlab Italia, rivendicato in queste ore dalla gang BlackBasta, e che ha messo giù per diverse settimane i laboratori di analisi e di diagnostica della multinazionale, esponendo dati personali sanitari e sensibili di una buona fetta del territorio italiano, ha certificato il disinteresse verso il ransomware in sè, ma ne ha amplificato un altro che sembrerebbe essere lo snodo cruciale dell’evoluzione mediatica degli attacchi informatici e che coinvolge la necessità di una maggiore capacità di risposta a questi ultimi. Il problema oggi sembrerebbe non essere più perdere il dato, che comunque comporta delle multe e delle sanzioni da parte del Garante, ma è per forza di cose il ripristinare quanto prima i servizi che incidono da subito sulle attività ricorrenti di aziende ed Enti vittime dei criminali. E’ proprio questo il problema che attanaglia attualmente la comunità informatica in Italia, forte anche dei primi contratti assicurativi che si stanno stipulando dinanzi all’insorgenza di attacchi informatici in copertura ai diversi disservizi che ne possono sorgere, e cioè la capacità di reazione quanto più tempestiva agli attacchi ransomware, malware o di negazione del servizio, che possa rendere minimi i disagi nei confronti degli utenti che non sono solo i consumatori della manifattura italiana o industriale, ma pazienti o correntisti che necessitano dei servizi di vitale importanza. Dalle righe di Matrice Digitale, Roberto Beneduci di CoreTech ha chiesto ad ACN ed a CSIRT di condividere metodi di reazione e soluzioni sulla base di casi già successi.
Che fine fanno i dati non venduti?
Quello che dovrebbe far discutere su questa vicenda è anche un aspetto che nasconde un teoria non confermata, ma che potrebbe rappresentare un’evenienza visto il periodo storico che la transizione digitale sta vivendo.
I dati che vengono trafugati dai criminali informatici e non pagati con i riscatti, da chi vengono acquistati?
Sapere da chi non è certo, ma si può immaginare che possano essere appetibili non solo ai call center criminali come abbiamo visto, ma anche ad agenzie governative che però hanno interesse più negli attacchi persistenti e non negli attacchi ransomware di cui l’Italia è piena. A maggior ragione che, pur essendoci un nesso tra criminalità informatica ed attività di Governo , il riscatto non è sicuramente l’attacco preferito da chi ha bisogno o di distruggere un sistema informatico, ed è qui che nasce ovviamente il malware di tipo wiper, oppure c’è chi, come la Corea del Nord, si è specializzato nell’hacking delle blockchain di criptovalute ottenendo con minor sforzo una maggiore resa che negli ultimi due anni si è quantificata in più di un miliardo di dollari. Resta ancora da scoprire invece se i dati trafugati siano venduti su altri mercati e possano essere utilizzati dagli acquirenti per addestrare dei motori di intelligenza artificiale non tracciati dal mercato oppure addirittura quelli ben più noti.
Quest’ultima considerazione potrebbe essere una congettura o forse no.
Chi ha coraggio e certezze per escluderla del tutto?
Inchieste
Papa Francesco sarà al G7 e l’Italia festeggia il DDL AI
Tempo di lettura: 6 minuti. Papa Francesco partecipa al G7, focalizzato su etica e IA e il Parlamento discute il DDL AI con Meloni che promuove l’IA umanistica.
Giorgia Meloni, presidente del Consiglio, ha recentemente annunciato l’eccezionale partecipazione di Papa Francesco alla sessione del G7 dedicata all’intelligenza artificiale con in tasta il DDL sul tema. Questo evento sottolinea l’importanza crescente delle questioni etiche e umanistiche connesse allo sviluppo tecnologico.
Un impegno umanistico nell’era digitale
Durante la presidenza italiana del G7, si discuterà ampiamente su come l’intelligenza artificiale possa essere guidata da principi etici che pongono l’umanità al centro. Meloni ha enfatizzato che l’intelligenza artificiale rappresenta la più grande sfida antropologica dei nostri tempi, portando con sé notevoli opportunità ma anche rischi significativi.
La premier ha citato l’esempio della “Rome Call for AI Ethics” del 2022, una iniziativa avviata dalla Santa Sede per promuovere un approccio etico allo sviluppo degli algoritmi, un concetto noto come algoretica. L’obiettivo è sviluppare una governance dell’IA che rimanga sempre centrata sull’essere umano.
L’intervento di Papa Francesco al G7 sarà cruciale per rafforzare questa visione, offrendo una prospettiva che combina tradizione e innovazione nell’affrontare le sfide poste dall’IA alla società contemporanea.
Intelligenza Artificiale: innovazioni legislative in Italia con il DDL
L’Italia si posiziona all’avanguardia nel panorama europeo con l’approvazione di un nuovo disegno di legge sull’intelligenza artificiale. Questa legislazione pionieristica mira a promuovere un utilizzo etico e responsabile dell’IA, con un forte accento sulla protezione dei diritti fondamentali e sull’inclusione sociale.
Differenza tra Disegno di Legge e Decreto Legge
Prima di procedere, è doveroso spiegare la differenza tra un “DDL” (Disegno di Legge) e un “DL” (Decreto Legge) e che riguarda principalmente il processo legislativo e la loro natura giuridica all’interno del sistema legale italiano. Ecco i dettagli chiave:
Disegno di Legge (DDL)
- Definizione: Un DDL è una proposta legislativa elaborata e presentata al Parlamento per la discussione e l’approvazione. Può essere presentata da membri del Parlamento o dal Governo.
- Processo: Dopo essere presentato, il DDL segue un processo di esame approfondito che include discussioni, emendamenti e votazioni sia in commissione che in aula nelle due Camere del Parlamento (Camera dei Deputati e Senato della Repubblica). Questo processo può essere lungo e richiede l’approvazione finale di entrambe le Camere.
- Natura: Il DDL è di natura ordinaria, significando che non ha effetto immediato e deve seguire il normale iter parlamentare prima di diventare legge.
Decreto Legge (DL)
- Definizione: Un DL è uno strumento legislativo che il Governo può adottare in casi straordinari di necessità e urgenza. Questo decreto ha forza di legge dal momento della sua pubblicazione, ma è temporaneo.
- Processo: Un DL deve essere convertito in legge dal Parlamento entro 60 giorni dalla sua pubblicazione, attraverso un processo che può includere modifiche e approvazioni. Se non convertito, perde efficacia retroattivamente.
- Natura: Il DL ha un’immediata efficacia legale ma è temporaneo e condizionato alla sua conversione in legge ordinaria, che stabilizza le disposizioni contenute nel decreto.
Confronto e uso
- Velocità ed Efficienza: Il DL è molto più rapido nel rispondere a situazioni di emergenza, dato che entra in vigore immediatamente. Tuttavia, questa rapidità viene bilanciata dalla necessità di una successiva conferma parlamentare.
- Stabilità e Riflessione: Il DDL segue un processo più riflessivo e può essere soggetto a più ampie discussioni e revisioni, il che può contribuire a una legislazione più ponderata e dettagliata.
Il DL è utilizzato per situazioni urgenti che richiedono una risposta legislativa immediata, mentre il DDL è il mezzo standard per la creazione di nuove leggi, offrendo più opportunità per l’esame e la discussione parlamentare.
Focus sui Principi Generali e innovazioni
Il disegno di legge definisce norme precise per la ricerca, lo sviluppo, e l’implementazione dell’IA, assicurando che ogni applicazione tecnologica rispetti la dignità umana e le libertà fondamentali, come stabilito dalla Costituzione italiana e dal diritto dell’Unione Europea. Tra i principi chiave, spicca l’impegno verso la trasparenza, la sicurezza dei dati, e l’equità, evitando discriminazioni e promuovendo la parità di genere.
Uno degli aspetti più rilevanti è l’introduzione di un quadro normativo per garantire che l’IA non sostituisca ma supporti il processo decisionale umano, mantenendo l’uomo al centro dell’innovazione tecnologica. In particolare, il disegno di legge enfatizza l’importanza della cybersicurezza e impone rigidi controlli di sicurezza per proteggere l’integrità dei sistemi di IA.
La legge stabilisce principi chiave per l’adozione e l’applicazione dell’IA in Italia, focalizzandosi su trasparenza, proporzionalità, sicurezza e non discriminazione. Viene data particolare attenzione al rispetto dei diritti umani e alla promozione di una IA “antropocentrica”, ossia che metta al centro le esigenze e il benessere dell’individuo.
Settori di impatto e disposizioni specifiche
La legislazione tocca vari settori, dalla sanità al lavoro, dalla difesa alla sicurezza nazionale, delineando norme specifiche per ciascuno:
Sanità
L’IA dovrebbe migliorare il sistema sanitario senza discriminare l’accesso alle cure. Si promuove l’uso dell’IA per assistere la decisione medica, ma la responsabilità finale rimane sempre nelle mani dei professionisti. L’impiego dell’intelligenza artificiale nel settore sanitario, come delineato nella nuova legislazione italiana, è concepito per migliorare l’efficacia e l’efficienza dei servizi sanitari, pur salvaguardando i diritti e la dignità dei pazienti. La legge impone che l’introduzione di sistemi di IA nel sistema sanitario avvenga senza discriminare l’accesso alle cure e che le decisioni mediche rimangano prerogativa del personale medico, sebbene assistito dalla tecnologia. È previsto inoltre che i pazienti siano adeguatamente informati sull’uso delle tecnologie di intelligenza artificiale, ricevendo dettagli sui benefici diagnostici e terapeutici previsti e sulla logica decisionale impiegata.
Implicazioni della Legge sulla Sicurezza e Difesa Nazionale:
Le applicazioni di IA per scopi di sicurezza nazionale devono avvenire nel rispetto dei diritti costituzionali, con una regolamentazione specifica che esclude queste attività dall’ambito di applicazione della legge generale. La legge tratta specificamente l’applicazione dell’intelligenza artificiale per scopi di sicurezza e difesa nazionale, stabilendo che queste attività siano escluse dall’ambito di applicazione delle norme generali sulla regolamentazione dell’IA. Tuttavia, è chiaro che tali attività devono comunque svolgersi nel rispetto dei diritti fondamentali e delle libertà costituzionali. Si prevede che l’uso dell’IA per la sicurezza nazionale sia regolato da normative specifiche, garantendo la conformità ai principi di correttezza, sicurezza e trasparenza, e imponendo controlli rigorosi per prevenire abusi.
Lavoro
Viene regolato l’utilizzo dell’IA per migliorare le condizioni lavorative e la produttività, garantendo trasparenza e sicurezza nell’uso dei dati dei lavoratori. L’adozione dell’intelligenza artificiale nel settore lavorativo, secondo la nuova normativa italiana, mira a migliorare le condizioni di lavoro e accrescere la produttività mantenendo al centro la sicurezza e la trasparenza. Gli impieghi di sistemi di IA devono avvenire nel rispetto della dignità umana e della riservatezza dei dati personali. I datori di lavoro sono obbligati a informare i lavoratori sull’utilizzo dell’IA, delineando chiaramente gli scopi e le modalità di impiego. La legge pone un’enfasi particolare sulla non discriminazione, assicurando che l’IA non crei disparità tra i lavoratori basate su sesso, età, origine etnica, orientamento sessuale, o qualsiasi altra condizione personale.
Iniziative per l’inclusione e la formazione
Significative sono le disposizioni per garantire l’accesso all’IA da parte delle persone con disabilità, assicurando pari opportunità e piena partecipazione. Viene inoltre data importanza alla formazione e all’alfabetizzazione digitale in tutti i livelli educativi per preparare i cittadini a interagire con le nuove tecnologie.
Il disegno di legge promuove attivamente la formazione e l’alfabetizzazione digitale come componenti fondamentali per l’integrazione dell’intelligenza artificiale nella società. Questo include l’implementazione di programmi di formazione sia nei curricoli scolastici che nei contesti professionali, al fine di preparare studenti e lavoratori a interagire efficacemente e eticamente con le tecnologie avanzate. Si prevede inoltre che gli ordini professionali introducano percorsi specifici per i propri iscritti, affinché possano acquisire le competenze necessarie per utilizzare l’IA in modo sicuro e responsabile nel rispetto delle normative vigenti.
Tutela della Privacy e della Proprietà Intellettuale
La legge enfatizza la protezione dei dati personali e introduce regole per garantire che i contenuti generati o manipolati tramite IA siano chiaramente identificati, proteggendo così l’integrità informativa e i diritti d’autore. La nuova legislazione italiana stabilisce criteri rigorosi per la protezione della privacy degli individui nell’ambito dell’utilizzo dell’intelligenza artificiale. Si impone che ogni applicazione di IA che tratti dati personali debba avvenire in modo lecito, corretto e trasparente, conformemente alle normative dell’Unione Europea. La legge richiede inoltre che le informazioni relative al trattamento dei dati personali siano comunicate agli utenti in un linguaggio chiaro e accessibile, garantendo loro la possibilità di comprendere e, se necessario, opporsi al trattamento dei propri dati. Viene enfatizzata la necessità di una cybersicurezza efficace in tutte le fasi del ciclo di vita dei sistemi di IA, per prevenire abusi o manipolazioni.
Per quanto riguarda la proprietà intellettuale, il disegno di legge introduce misure specifiche per assicurare che le opere generate attraverso l’intelligenza artificiale siano correttamente attribuite e tutelate sotto il diritto d’autore. Viene riconosciuto il diritto d’autore per le opere create con l’ausilio dell’IA, purché vi sia un significativo contributo umano che sia creativo, rilevante e dimostrabile. Inoltre, la legge prevede che ogni contenuto generato o modificato significativamente da sistemi di IA debba essere chiaramente identificato come tale, per mantenere la trasparenza e prevenire la diffusione di informazioni ingannevoli o falsificate.
Libertà di Informazione e dati personali
L’articolo 4 del DDL stabilisce che l’uso dell’IA nel settore dell’informazione deve avvenire senza compromettere la libertà e il pluralismo dei media, mantenendo l’obiettività e l’imparzialità delle informazioni. È essenziale che l’intelligenza artificiale non distorca la veridicità e la completezza dell’informazione a causa di pregiudizi intrinseci nei modelli di apprendimento automatico.
Trasparenza e correttezza nel Trattamento dei Dati
Viene enfatizzato il trattamento lecito, corretto e trasparente dei dati personali, in linea con il GDPR. Il DDL richiede che le informazioni sul trattamento dei dati siano fornite in modo chiaro e comprensibile, consentendo agli utenti di avere pieno controllo sulla gestione dei propri dati.
Consapevolezza e controllo per i minori
Una specifica attenzione è rivolta alla protezione dei minori nell’accesso alle tecnologie AI. I minori di quattordici anni necessitano del consenso dei genitori per l’utilizzo di tali tecnologie, mentre quelli tra i quattordici e i diciotto anni possono dare il consenso autonomamente, purché le informazioni siano chiare e accessibili.
Governance e collaborazione tra Agenzie
Il DDL promuove un approccio di governance “duale”, coinvolgendo l’Agenzia per la Cybersicurezza Nazionale (ACN) e l’Agenzia per l’Italia Digitale (AgID) per assicurare che l’applicazione delle tecnologie AI sia conforme sia alle normative nazionali che a quelle dell’Unione Europea. Queste agenzie lavoreranno insieme per stabilire un quadro regolatorio solido che promuova la sicurezza senza soffocare l’innovazione.
Leggi il DDL sull’Intelligenza Artificiale
- Inchieste2 settimane fa
Papa Francesco sarà al G7 e l’Italia festeggia il DDL AI
- Cyber Security2 settimane fa
ACN: tutto quello che c’è da sapere sulla relazione annuale 2023
- Robotica2 settimane fa
Perché i Robot non riescono a superare gli animali in corsa?
- L'Altra Bolla2 settimane fa
Reddit rivoluziona l’E-Commerce con Dynamic Product Ads
- Economia1 settimana fa
Apple, Regno Unito vuole più sicurezza informatica e l’Europa indica iPadOS Gatekeeper
- Editoriali7 giorni fa
Chip e smartphone cinesi ci avvisano del declino Occidentale
- L'Altra Bolla2 settimane fa
ByteDance “chiuderà TikTok negli USA piuttosto che venderlo”
- Economia6 giorni fa
Internet via satellite: progetto europeo IRIS² in grande difficoltà