Inchieste
X, siamotuttigiardinieri imperversa e asfalta Burioni
Tempo di lettura: 3 minuti. Uno sbaglio di persona ha reso Burioni un aguzzino social al limite della legge mentre Twitter si schiera con il bersaglio del virologo
Il mondo di Twitter è in fermento da qualche giorno per un hashtag in tendenza denominato #siamotuttigiardinieri ed il protagonista di questa storia è Roberto Burioni. Il virologo noto al grande pubblico per le sue posizioni di fede vaccinista, ha iniziato a fare doxing nei confronti di Chance il Giardiniere.
Chi è Chance Giardiniere?
Un profilo Twitter del gennaio 2020, nato con il Covid potremmo dire, che ha una frequenza di pubblicazione pari a 40.000 tra post e interazioni. Il giardiniere ha una identità sconosciuta, non si sa se sia un giornalista, ma è chiaro che può abilmente definirsi un fact checkers, ultima moda del momento, perché offre ricostruzioni sempre documentate al netto delle interpretazioni che possono risultare soggettive.
Il campo dove esercita Chance il Giardiniere è quello temuto dalla maggior parte dei giornalisti che ha paura dei Fact Checkers pur di non incombere in un bollino rosso da parte delle sovrastrutture europee che si servono del sistema per censurare le testate giornalistiche dai social e dalla monetizzazione dei siti.
Un peer review vivente delle “debunkate” che figurano ogni giorno sulle testate specializzate spesso poco attente a smentire narrazioni utili al sistema come nel caso del Covid e della guerra in Ucraina dove alcune smentite meritavano la rettifica ed invece sono state lasciate nel dimenticatoio.
Cosa è successo con Burioni?
Leggendo qualche Tweet in giro per la X sfera, Chanche è la seconda vittima di una attività aggressiva di una parte dei personaggi famosi che si sentono sottopressione per le posizioni assunte durante il COVID ed ha avuto un team di giornalisti ed esperti che hanno provato a svelare la sua identità dichiarandola pubblicamente senza preoccuparsi di avere una certezza dell’associazione Chance – Identità.
Sbaglio di persona
Mentre con l’utente Adriana Spappa, l’intento della squadra antianonimato in rete si è compiuto, con Chance c’è stato uno sbaglio di persona che ha resuscitato un povero cristo da 6 anni di giacenza su Twitter perché allertato da alcuni amici.
Un padre di famiglia scambiato per Chance il Giardiniere di cui si sono riferiti identità, abitazione e lavoro. Dopo diverse ore di trattativa con l’ostaggio, Burioni si è deciso ad alzare bandiera bianca e a prendere atto di aver sbagliato persona. Peccato però che la condanna è stata emessa da un collegio plutocratico ed ha esposto la vita privata di un innocente che si era addormentato su Twitter e si è svegliato su X
La barzelletta che non fa ridere
Sembrerebbe una barzelletta, ma non fa ridere come hanno provato a spiegare al Team Burioni, tra cui figura Giuseppe Brindisi, sia la giornalista Monica Napoli sia esperti informatici capitanati.
Il Doxxing è un reato, per lo più se fatto in modo errato nei confronti di un innocente, ma Burioni non ci sta ed ha chiesto aiuto a Stefano Putinati per capire se si trattasse di un reato quanto appena fatto dinanzi agli occhi di una rete che ha risposto al malfatto con un hashtag #siamotuttigiardinieri che ha mostrato grande solidarietà nei confronti del fact-checker abusivo.
Considerazioni
Seppur il profilo sia anonimo, nemmeno verificato, quanto occorso a Chance il Giardiniere non solo ricorda una guerra social anni 90, ma fa comprendere quanto sia indispensabile poter essere anonimi online per poter esercitare la libertà di espressione anche in paesi democratici come l’Italia.
Nel paese della Costituzione più bella del mondo, il più noto virologo della nazione può agire indisturbato sparando nel mucchio contro tutti i principi del garantismo, mostrando il rischio che corre chiunque voglia porsi contro un potere che assume toni sempre più prepotenti perché sa che gli è concesso sbagliare ed agire al limite della legge.
Inchieste
Perchè il motore di ricerca OpenAI fa paura ai giornalisti?
Tempo di lettura: 4 minuti. OpenAI sfida Google con un nuovo motore di ricerca basato su ChatGPT, promettendo un’evoluzione nella ricerca online.
OpenAI sembra pronta a rivoluzionare il mondo della ricerca online lanciando un proprio motore di ricerca basato su ChatGPT, secondo quanto riportato da diverse fonti autorevoli. Il lancio di questo nuovo servizio è previsto per il 9 maggio e potrebbe segnare una svolta significativa nel modo in cui le informazioni vengono cercate e trovate su Internet secondo molti addetti ai lavori dell’informazione tecnologica, ignari che questo cambiamento sia già in corso.
Dettagli del lancio
Il nuovo motore di ricerca, indicato con il dominio https://search.chatgpt.com, è al centro di numerose discussioni e speculazioni. Il CEO di OpenAI, Sam Altman, ha espresso in più occasioni l’intenzione di integrare i modelli linguistici avanzati (Large Language Models) nella ricerca web, proponendo un’alternativa all’approccio tradizionale di Google che presenta pagine di risultati piene di annunci e link.
Implicazioni di Mercato
Google, che domina il mercato dei motori di ricerca con una quota vicina al 90%, potrebbe trovarsi di fronte a una nuova concorrenza significativa. Non solo, Microsoft, uno dei principali finanziatori di OpenAI, potrebbe vedersi in una posizione complicata se OpenAI decidesse di competere direttamente con Bing, il suo motore di ricerca. Oppure il motore di ricerca firmato ChatGPT è il fumo negli occhi per evitare maggiori attenzioni delle indagini concorrenziali dei vari garanti del mercato in giro per il mondo?
Collaborazioni e competizioni
Anche Apple è menzionata come un possibile collaboratore di OpenAI, intensificando le trattative per integrare ChatGPT nei dispositivi iOS. Tuttavia, ciò potrebbe complicare le relazioni tra Apple e Google, che paga miliardi ogni anno per rimanere il motore di ricerca predefinito su dispositivi iOS.
Aspetti tecnologici e innovativi
Il motore di ricerca di OpenAI promette di utilizzare l’intelligenza artificiale per migliorare l’esperienza di ricerca degli utenti, fornendo risposte più contestualizzate e precise, sfruttando le capacità uniche dei modelli generativi di linguaggio. Il lancio del motore di ricerca di OpenAI rappresenta non solo un’evoluzione tecnologica significativa ma anche un potenziale cambio di paradigma nel settore dei motori di ricerca. Le implicazioni di questa mossa sono vastissime, influenzando non solo le aziende tecnologiche ma anche gli utenti e il modo in cui accedono alle informazioni online.
Google deve preoccuparsi?
Al netto delle notizie che annunciano il nuovo motore di ricerca realizzato da OpenAI, gli acchiappa clic dell’informazione italica hanno intitolato che ad aver paura di questa iniziativa imprenditoriale di nuova generazione debba essere Google, da anni motore di ricerca, incontrastato con un monopolio di fatto nonostante ci siano diversi alternative e l’Europa stia andando verso una direzione rappresentativa dell’intero mercato. Seppur un nuovo competitor, con una tecnologia proprietaria all’avanguardia rispetto a tutto il resto del mercato, rappresenti una preoccupazione per il grande burattinaio della rete, a doversi preoccupare in realtà sono tutti gli attori impegnati oggi per pochi spiccioli a fornire contenuti alla materia oscura di Google. Questa preoccupazione, ad oggi, è comunque parte di un colosso che sta già agendo in questa direzione ed è possibile notarlo attraverso gli aggiornamenti oramai a cadenza semestrale che BIG sta facendo sottoforma di reindicizzazione della rete Internet.
Non è data sapere la metodica ed i criteri dell’algoritmo con cui Google sta provvedendo Nel riscrivere le regole della ricerca su Internet, ma tutti i siti Internet, a parte quelli inviso alla cupola della sezione News, stanno subendo dei cali vertiginosi proprio dagli indici di ricerca. Se Google nel suo ultimo aggiornamento si è concentrato nell’arginare i contenuti di intelligenza artificiale generati solo ed esclusivamente per imbrogliare l’algoritmo con il fine di indicizzare siti di cucina insieme a quelli di tecnologia per esempio, oggi sta iniziando a fornire direttamente le risposte e tutto questo va in danno ai link dei siti Internet che pubblicano le informazioni.
Davvero chi oggi descrive l’avvento del motori di ricerca di OpenAI in realtà non ha ancora compreso che tutto questo andrà a penalizzare un intero settore che non è più ristretto ai Media, ma all’intera generazione di contenuti su Internet?
Il fatto che le risposte generate da Google, seppur citino la fonte, fanno perdere tanto traffico ai siti dal punto di vista della ricerca organica, soprattutto in un’epoca dove l’utente è abituato a non approfondire, bensì a leggere velocemente soffermandosi sulle prime risposte senza avvertire la necessità di approfondire nel link d’origine.
Con ChatGPT ed il suo motore di ricerca questo procedimento si amplificherà di più a maggior ragione del fatto che la sua tecnologia è criticata proprio per essere irriconoscente nei confronti di coloro che generano contenuti e che li utilizza impropriamente per addestrare la il suo modello linguistico avanzato. Se Google ha dato, e sta dando, una mazzata notevole alla rete, OpenAI rischia di dare un colpo di grazia definitivo a tutti coloro che quotidianamente forniscono risposte ed informazioni ai quesiti degli utenti della rete mantenendoli aggiornati con il corso del tempo.
Il paradosso del Click
Quindi assistiamo al fatto che per catturare un singolo clic, le testate editoriali fanno riferimento alla paura di Google ignorando quei rischi che in realtà potrebbero definitivamente gli potrebbe far perdere clic e visualizzazioni in futuro difficili più di quanto stia avvenendo ora, sacrificando visualizzazioni ed in introiti pubblicitari. Non è un caso che la Commissione Editoria voluta dal governo abbia promosso un equo compenso per gli editori che verranno surclassati dalla tecnologia dell’intelligenza artificiale applicata nella generazione di informazioni e di risposte fornite dai motori di ricerca già alimentata da colossi del settore che intendono effettuare un passaggio strutturale definitivo concentrato all’impiego di contenuti generati attraverso applicativi di intelligenza artificiale.
E mentre la cupola dei grandi gruppi editoriali è stata garantita dall’immagine divina di padre Paolo Benanti e del curatore degli interessi della famiglia Berlusconi padre Alberto Barachini, sottosegretario all’editoria, se Google debba iniziare a preoccuparsi, lo sa bene anche la stessa Microsoft che si nasconde dietro ai progetti di OpenAI che stanno decretando una crescita improvvisa e smisurata della sua offerta tecnologica, ma ad essere a rischio non solo è la proprietà intellettuale, ma tutto un sistema di informazione che ovviamente assottiglia sempre di più la sua visibilità in un mercato che è tutt’altro che libero e che non offre le stesse possibilità di crescita: sempre che non si riesca a far parte della cupola di Governo in combutta con Google News ed altre realtà come le piattaforme social.
Inchieste
Ransomware in Italia: come cambia la percezione del fenomeno nell’IT
Tempo di lettura: 5 minuti. I ransowmare sembrano essere passati di moda per il poco clamore suscitato in un paese come l’Italia dove interessano solo a una nicchia
Cosa sta accadendo al mondo della sicurezza informatica ed al suo rapporto con i ransomware in Italia?
I temuti attacchi informatici che criptano server e computer, bloccandone i servizi, e chiedono un riscatto per sbloccarli altrimenti vengono diffusi in rete, pericolosissimi aziende privati, professionisti, Enti ed istituzioni di Governo, sembrano essere diventati un fenomeno da barraccone per i feticisti della cybersecurity.
Ransomware e l’Italia: un feticcio per pochi
L’Italia rappresenta una nicchia di mercato soprattutto perché ha una sua identità linguistica. L’argomento della cybersecurity nel nostro paese è collegato per motivi di opportunità allo scenario internazionale ed ai tecnicismi anglosassoni che ne hanno forgiato termini ed applicazioni tecniche sul campo. Sono molti i progetti editoriali che parlano del fenomeno della sicurezza informatica, ma sono pochi quelli indipendenti e che coinvolgono una nicchia composta da esperti del settore informatico e dai grossi media che per sopravvivere alle regole di un mercato sempre più chiuso dagli algoritmi, sfruttano il proprio blasone per affrontare marginalmente il problema. Matrice Digitale parla di questa tematica dal 2017 con oltre 3.500 articoli di settore pubblicati in lingua italiana a cui si dovrebbero aggiungere i mille video sul canale YouTube, prima chiuso dalla piattaforma e poi riaperto dopo 3 anni di lotta: una scelta suicida nel panorama d’interesse italico per chi è indipendente da associazioni o cooperative non ufficiali di aziende ed Enti che fanno affari, o lobbying, sul tema. Il caso della piattaforma open source Ransomfeed, un valido progetto ingegneristico di raccolta statistica degli attacchi ransomware sviluppato in italiano e trasformato in lingua inglese, dimostra che per avere autorevolezza e considerazione nel contesto cyber, bisogna guardare oltre i confini del Bel Paese.
L’attacco informatico è “normale”
Oltre al clamore dei vari attacchi, identificati con diversi nomi e sigle di malware e gruppi criminali, qui gli articoli di Matrice Digitale sul tema, che hanno causato dei blocchi alle catene produttive delle più grandi aziende del paese e la fuga dei dati delle aziende sanitarie locali, il fenomeno sembrerebbe essere diventato un ricorrente e superficiale. Perché alla base di tutto c’è la regola universale secondo la quale è impossibile avere la matematica certezza di non essere colpiti da un attacco informatico ed è su questo principio, leit motiv degli addetti del mondo della sicurezza informatica, che il ransomware è stato normalizzato nell’immaginario collettivo di quella vulgata che ogni giorno è a rischio attacco informatico sia sul lavoro sia tra le mura domestiche. Un altro aspetto da non sottovalutare è proprio il fatto che la grande diffusione del fenomeno ha portato le agenzie internazionali di sicurezza informatica, che rispondono ai Governi, ad intimare alle aziende di non effettuare il pagamento del riscatto previsto dal metodo criminale di attacco. Seppur il cedere economicamente rappresenti un grande male nel rapporto tra guardie e ladri, sono in calo a livello globale i pagamenti dei riscatti ed il non pagare ha portato le gangs ad agire in modo ancor più infame, perché ha aumentato l’asticella etica dei propri attacchi sferrandoli su settori solitamente tutelati dal codice deontologico criminale come ad esempio i dati dei minori e quelli sanitari, a maggior ragione di pazienti oncologici.
Considerazione maligna di chi scrive: normalizzare il fenomeno è anche un’opportunità per i tecnici e le Istituzioni preposte nel mettere le mani avanti ad eventuali falle nella gestione dei dati dei clienti ed alle aziende di sottrarsi alla scomoda domanda se hanno pagato o meno il riscatto.
Il ransomware è un fenomeno che necessita soluzione o risposta?
L’attacco ransomware non solo è visto come una probabilità sempre più certa , ma il valore del dato diventa sempre meno considerato perché la maggior parte dei dati personali di tutti i cittadini connessi ad Internet, e non solo come nel caso dei nascituri canadesi, sono già esposti in rete . Questa esposizione ha portato delle tattiche criminali parallele dove si allestiti dei call center che contattano gli utenti esposti e si chiedono delle informazioni per aggiornare quelli che sono i dati in proprio possesso appartenenti evidentemente a dei database trafugati negli anni passati e che ad oggi contengono delle informazioni che non sono più attuali. Così come dopo il devastante data leak e data breach di WhatsApp, Facebook, che ha esposto quasi un miliardo di persone, ci siamo trovati delle campagne mirate sulle app di messaggistica dove venivano implementate tattiche di ingegneria sociale finalizzate ad ottenere ulteriori dati o pagamenti che hanno aumentato le statistiche delle truffe informatiche in rete. Andrea Lisi a Matrice Digitale ha parlato di circolazione del dato e non più del suo valore anche per questo motivo.
Il caso SynLab e la differenza tra prevenzione e risposta
Il recente attacco informatico che ha colpito la società Synlab Italia, rivendicato in queste ore dalla gang BlackBasta, e che ha messo giù per diverse settimane i laboratori di analisi e di diagnostica della multinazionale, esponendo dati personali sanitari e sensibili di una buona fetta del territorio italiano, ha certificato il disinteresse verso il ransomware in sè, ma ne ha amplificato un altro che sembrerebbe essere lo snodo cruciale dell’evoluzione mediatica degli attacchi informatici e che coinvolge la necessità di una maggiore capacità di risposta a questi ultimi. Il problema oggi sembrerebbe non essere più perdere il dato, che comunque comporta delle multe e delle sanzioni da parte del Garante, ma è per forza di cose il ripristinare quanto prima i servizi che incidono da subito sulle attività ricorrenti di aziende ed Enti vittime dei criminali. E’ proprio questo il problema che attanaglia attualmente la comunità informatica in Italia, forte anche dei primi contratti assicurativi che si stanno stipulando dinanzi all’insorgenza di attacchi informatici in copertura ai diversi disservizi che ne possono sorgere, e cioè la capacità di reazione quanto più tempestiva agli attacchi ransomware, malware o di negazione del servizio, che possa rendere minimi i disagi nei confronti degli utenti che non sono solo i consumatori della manifattura italiana o industriale, ma pazienti o correntisti che necessitano dei servizi di vitale importanza. Dalle righe di Matrice Digitale, Roberto Beneduci di CoreTech ha chiesto ad ACN ed a CSIRT di condividere metodi di reazione e soluzioni sulla base di casi già successi.
Che fine fanno i dati non venduti?
Quello che dovrebbe far discutere su questa vicenda è anche un aspetto che nasconde un teoria non confermata, ma che potrebbe rappresentare un’evenienza visto il periodo storico che la transizione digitale sta vivendo.
I dati che vengono trafugati dai criminali informatici e non pagati con i riscatti, da chi vengono acquistati?
Sapere da chi non è certo, ma si può immaginare che possano essere appetibili non solo ai call center criminali come abbiamo visto, ma anche ad agenzie governative che però hanno interesse più negli attacchi persistenti e non negli attacchi ransomware di cui l’Italia è piena. A maggior ragione che, pur essendoci un nesso tra criminalità informatica ed attività di Governo , il riscatto non è sicuramente l’attacco preferito da chi ha bisogno o di distruggere un sistema informatico, ed è qui che nasce ovviamente il malware di tipo wiper, oppure c’è chi, come la Corea del Nord, si è specializzato nell’hacking delle blockchain di criptovalute ottenendo con minor sforzo una maggiore resa che negli ultimi due anni si è quantificata in più di un miliardo di dollari. Resta ancora da scoprire invece se i dati trafugati siano venduti su altri mercati e possano essere utilizzati dagli acquirenti per addestrare dei motori di intelligenza artificiale non tracciati dal mercato oppure addirittura quelli ben più noti.
Quest’ultima considerazione potrebbe essere una congettura o forse no.
Chi ha coraggio e certezze per escluderla del tutto?
Inchieste
Papa Francesco sarà al G7 e l’Italia festeggia il DDL AI
Tempo di lettura: 6 minuti. Papa Francesco partecipa al G7, focalizzato su etica e IA e il Parlamento discute il DDL AI con Meloni che promuove l’IA umanistica.
Giorgia Meloni, presidente del Consiglio, ha recentemente annunciato l’eccezionale partecipazione di Papa Francesco alla sessione del G7 dedicata all’intelligenza artificiale con in tasta il DDL sul tema. Questo evento sottolinea l’importanza crescente delle questioni etiche e umanistiche connesse allo sviluppo tecnologico.
Un impegno umanistico nell’era digitale
Durante la presidenza italiana del G7, si discuterà ampiamente su come l’intelligenza artificiale possa essere guidata da principi etici che pongono l’umanità al centro. Meloni ha enfatizzato che l’intelligenza artificiale rappresenta la più grande sfida antropologica dei nostri tempi, portando con sé notevoli opportunità ma anche rischi significativi.
La premier ha citato l’esempio della “Rome Call for AI Ethics” del 2022, una iniziativa avviata dalla Santa Sede per promuovere un approccio etico allo sviluppo degli algoritmi, un concetto noto come algoretica. L’obiettivo è sviluppare una governance dell’IA che rimanga sempre centrata sull’essere umano.
L’intervento di Papa Francesco al G7 sarà cruciale per rafforzare questa visione, offrendo una prospettiva che combina tradizione e innovazione nell’affrontare le sfide poste dall’IA alla società contemporanea.
Intelligenza Artificiale: innovazioni legislative in Italia con il DDL
L’Italia si posiziona all’avanguardia nel panorama europeo con l’approvazione di un nuovo disegno di legge sull’intelligenza artificiale. Questa legislazione pionieristica mira a promuovere un utilizzo etico e responsabile dell’IA, con un forte accento sulla protezione dei diritti fondamentali e sull’inclusione sociale.
Differenza tra Disegno di Legge e Decreto Legge
Prima di procedere, è doveroso spiegare la differenza tra un “DDL” (Disegno di Legge) e un “DL” (Decreto Legge) e che riguarda principalmente il processo legislativo e la loro natura giuridica all’interno del sistema legale italiano. Ecco i dettagli chiave:
Disegno di Legge (DDL)
- Definizione: Un DDL è una proposta legislativa elaborata e presentata al Parlamento per la discussione e l’approvazione. Può essere presentata da membri del Parlamento o dal Governo.
- Processo: Dopo essere presentato, il DDL segue un processo di esame approfondito che include discussioni, emendamenti e votazioni sia in commissione che in aula nelle due Camere del Parlamento (Camera dei Deputati e Senato della Repubblica). Questo processo può essere lungo e richiede l’approvazione finale di entrambe le Camere.
- Natura: Il DDL è di natura ordinaria, significando che non ha effetto immediato e deve seguire il normale iter parlamentare prima di diventare legge.
Decreto Legge (DL)
- Definizione: Un DL è uno strumento legislativo che il Governo può adottare in casi straordinari di necessità e urgenza. Questo decreto ha forza di legge dal momento della sua pubblicazione, ma è temporaneo.
- Processo: Un DL deve essere convertito in legge dal Parlamento entro 60 giorni dalla sua pubblicazione, attraverso un processo che può includere modifiche e approvazioni. Se non convertito, perde efficacia retroattivamente.
- Natura: Il DL ha un’immediata efficacia legale ma è temporaneo e condizionato alla sua conversione in legge ordinaria, che stabilizza le disposizioni contenute nel decreto.
Confronto e uso
- Velocità ed Efficienza: Il DL è molto più rapido nel rispondere a situazioni di emergenza, dato che entra in vigore immediatamente. Tuttavia, questa rapidità viene bilanciata dalla necessità di una successiva conferma parlamentare.
- Stabilità e Riflessione: Il DDL segue un processo più riflessivo e può essere soggetto a più ampie discussioni e revisioni, il che può contribuire a una legislazione più ponderata e dettagliata.
Il DL è utilizzato per situazioni urgenti che richiedono una risposta legislativa immediata, mentre il DDL è il mezzo standard per la creazione di nuove leggi, offrendo più opportunità per l’esame e la discussione parlamentare.
Focus sui Principi Generali e innovazioni
Il disegno di legge definisce norme precise per la ricerca, lo sviluppo, e l’implementazione dell’IA, assicurando che ogni applicazione tecnologica rispetti la dignità umana e le libertà fondamentali, come stabilito dalla Costituzione italiana e dal diritto dell’Unione Europea. Tra i principi chiave, spicca l’impegno verso la trasparenza, la sicurezza dei dati, e l’equità, evitando discriminazioni e promuovendo la parità di genere.
Uno degli aspetti più rilevanti è l’introduzione di un quadro normativo per garantire che l’IA non sostituisca ma supporti il processo decisionale umano, mantenendo l’uomo al centro dell’innovazione tecnologica. In particolare, il disegno di legge enfatizza l’importanza della cybersicurezza e impone rigidi controlli di sicurezza per proteggere l’integrità dei sistemi di IA.
La legge stabilisce principi chiave per l’adozione e l’applicazione dell’IA in Italia, focalizzandosi su trasparenza, proporzionalità, sicurezza e non discriminazione. Viene data particolare attenzione al rispetto dei diritti umani e alla promozione di una IA “antropocentrica”, ossia che metta al centro le esigenze e il benessere dell’individuo.
Settori di impatto e disposizioni specifiche
La legislazione tocca vari settori, dalla sanità al lavoro, dalla difesa alla sicurezza nazionale, delineando norme specifiche per ciascuno:
Sanità
L’IA dovrebbe migliorare il sistema sanitario senza discriminare l’accesso alle cure. Si promuove l’uso dell’IA per assistere la decisione medica, ma la responsabilità finale rimane sempre nelle mani dei professionisti. L’impiego dell’intelligenza artificiale nel settore sanitario, come delineato nella nuova legislazione italiana, è concepito per migliorare l’efficacia e l’efficienza dei servizi sanitari, pur salvaguardando i diritti e la dignità dei pazienti. La legge impone che l’introduzione di sistemi di IA nel sistema sanitario avvenga senza discriminare l’accesso alle cure e che le decisioni mediche rimangano prerogativa del personale medico, sebbene assistito dalla tecnologia. È previsto inoltre che i pazienti siano adeguatamente informati sull’uso delle tecnologie di intelligenza artificiale, ricevendo dettagli sui benefici diagnostici e terapeutici previsti e sulla logica decisionale impiegata.
Implicazioni della Legge sulla Sicurezza e Difesa Nazionale:
Le applicazioni di IA per scopi di sicurezza nazionale devono avvenire nel rispetto dei diritti costituzionali, con una regolamentazione specifica che esclude queste attività dall’ambito di applicazione della legge generale. La legge tratta specificamente l’applicazione dell’intelligenza artificiale per scopi di sicurezza e difesa nazionale, stabilendo che queste attività siano escluse dall’ambito di applicazione delle norme generali sulla regolamentazione dell’IA. Tuttavia, è chiaro che tali attività devono comunque svolgersi nel rispetto dei diritti fondamentali e delle libertà costituzionali. Si prevede che l’uso dell’IA per la sicurezza nazionale sia regolato da normative specifiche, garantendo la conformità ai principi di correttezza, sicurezza e trasparenza, e imponendo controlli rigorosi per prevenire abusi.
Lavoro
Viene regolato l’utilizzo dell’IA per migliorare le condizioni lavorative e la produttività, garantendo trasparenza e sicurezza nell’uso dei dati dei lavoratori. L’adozione dell’intelligenza artificiale nel settore lavorativo, secondo la nuova normativa italiana, mira a migliorare le condizioni di lavoro e accrescere la produttività mantenendo al centro la sicurezza e la trasparenza. Gli impieghi di sistemi di IA devono avvenire nel rispetto della dignità umana e della riservatezza dei dati personali. I datori di lavoro sono obbligati a informare i lavoratori sull’utilizzo dell’IA, delineando chiaramente gli scopi e le modalità di impiego. La legge pone un’enfasi particolare sulla non discriminazione, assicurando che l’IA non crei disparità tra i lavoratori basate su sesso, età, origine etnica, orientamento sessuale, o qualsiasi altra condizione personale.
Iniziative per l’inclusione e la formazione
Significative sono le disposizioni per garantire l’accesso all’IA da parte delle persone con disabilità, assicurando pari opportunità e piena partecipazione. Viene inoltre data importanza alla formazione e all’alfabetizzazione digitale in tutti i livelli educativi per preparare i cittadini a interagire con le nuove tecnologie.
Il disegno di legge promuove attivamente la formazione e l’alfabetizzazione digitale come componenti fondamentali per l’integrazione dell’intelligenza artificiale nella società. Questo include l’implementazione di programmi di formazione sia nei curricoli scolastici che nei contesti professionali, al fine di preparare studenti e lavoratori a interagire efficacemente e eticamente con le tecnologie avanzate. Si prevede inoltre che gli ordini professionali introducano percorsi specifici per i propri iscritti, affinché possano acquisire le competenze necessarie per utilizzare l’IA in modo sicuro e responsabile nel rispetto delle normative vigenti.
Tutela della Privacy e della Proprietà Intellettuale
La legge enfatizza la protezione dei dati personali e introduce regole per garantire che i contenuti generati o manipolati tramite IA siano chiaramente identificati, proteggendo così l’integrità informativa e i diritti d’autore. La nuova legislazione italiana stabilisce criteri rigorosi per la protezione della privacy degli individui nell’ambito dell’utilizzo dell’intelligenza artificiale. Si impone che ogni applicazione di IA che tratti dati personali debba avvenire in modo lecito, corretto e trasparente, conformemente alle normative dell’Unione Europea. La legge richiede inoltre che le informazioni relative al trattamento dei dati personali siano comunicate agli utenti in un linguaggio chiaro e accessibile, garantendo loro la possibilità di comprendere e, se necessario, opporsi al trattamento dei propri dati. Viene enfatizzata la necessità di una cybersicurezza efficace in tutte le fasi del ciclo di vita dei sistemi di IA, per prevenire abusi o manipolazioni.
Per quanto riguarda la proprietà intellettuale, il disegno di legge introduce misure specifiche per assicurare che le opere generate attraverso l’intelligenza artificiale siano correttamente attribuite e tutelate sotto il diritto d’autore. Viene riconosciuto il diritto d’autore per le opere create con l’ausilio dell’IA, purché vi sia un significativo contributo umano che sia creativo, rilevante e dimostrabile. Inoltre, la legge prevede che ogni contenuto generato o modificato significativamente da sistemi di IA debba essere chiaramente identificato come tale, per mantenere la trasparenza e prevenire la diffusione di informazioni ingannevoli o falsificate.
Libertà di Informazione e dati personali
L’articolo 4 del DDL stabilisce che l’uso dell’IA nel settore dell’informazione deve avvenire senza compromettere la libertà e il pluralismo dei media, mantenendo l’obiettività e l’imparzialità delle informazioni. È essenziale che l’intelligenza artificiale non distorca la veridicità e la completezza dell’informazione a causa di pregiudizi intrinseci nei modelli di apprendimento automatico.
Trasparenza e correttezza nel Trattamento dei Dati
Viene enfatizzato il trattamento lecito, corretto e trasparente dei dati personali, in linea con il GDPR. Il DDL richiede che le informazioni sul trattamento dei dati siano fornite in modo chiaro e comprensibile, consentendo agli utenti di avere pieno controllo sulla gestione dei propri dati.
Consapevolezza e controllo per i minori
Una specifica attenzione è rivolta alla protezione dei minori nell’accesso alle tecnologie AI. I minori di quattordici anni necessitano del consenso dei genitori per l’utilizzo di tali tecnologie, mentre quelli tra i quattordici e i diciotto anni possono dare il consenso autonomamente, purché le informazioni siano chiare e accessibili.
Governance e collaborazione tra Agenzie
Il DDL promuove un approccio di governance “duale”, coinvolgendo l’Agenzia per la Cybersicurezza Nazionale (ACN) e l’Agenzia per l’Italia Digitale (AgID) per assicurare che l’applicazione delle tecnologie AI sia conforme sia alle normative nazionali che a quelle dell’Unione Europea. Queste agenzie lavoreranno insieme per stabilire un quadro regolatorio solido che promuova la sicurezza senza soffocare l’innovazione.
Leggi il DDL sull’Intelligenza Artificiale
- Editoriali2 settimane fa
Chip e smartphone cinesi ci avvisano del declino Occidentale
- Inchieste1 settimana fa
Ransomware in Italia: come cambia la percezione del fenomeno nell’IT
- Economia1 settimana fa
Internet via satellite: progetto europeo IRIS² in grande difficoltà
- Editoriali1 settimana fa
Anche su Giovanna Pedretti avevamo ragione
- L'Altra Bolla1 settimana fa
Jack Dorsey getta la spugna e lascia Bluesky
- Smartphone1 settimana fa
Richiesta di Class Action contro Samsung per il Galaxy S24 Ultra
- Inchieste7 giorni fa
Perchè il motore di ricerca OpenAI fa paura ai giornalisti?
- Economia1 settimana fa
Culture di lavoro a confronto: Meta vs Google