Intelligenza Artificiale
DDL Intelligenza Artificiale ed il settore Sanitario
Tempo di lettura: 3 minuti. Il DDL Intelligenza artificiale sancisce che i sistemi di intelligenza artificiale nell’ambito sanitario costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione, che è sempre rimessa alla professione medica.
Il nuovo Disegno di Legge sull’Intelligenza Artificiale definisce le linee guida in ambito di applicazioni mediche e sanitarie.
Nel testo di Legge viene chiarito che il Governo riconosce ai sistemi di Intelligenza Artificiale l’opportunità di contribuire al miglioramento del sistema sanitario.
Prevenzione delle cure e malattie.
Gli algoritmi di IA possono analizzare grandi quantità di dati medici per identificare pattern e tendenze che aiutano a comprendere le cause delle malattie e a sviluppare strategie più efficaci per la prevenzione e il trattamento.
Il problema principale dei sistemi IA di questo tipo è rappresentato dall’esigenza di avere a disposizione dati per l’addestramento. I dati che vengono elaborati durante la fase di costruzione del modello di intelligenza artificiale vengono attinti da casi reali.
Più progresso, meno privacy
Le informazioni sullo stato di salute dei cittadini sono considerate dati sensibili, ed in quanto tali la legge per la tutela della privacy applica norme molto stringenti.
Il DDL Intelligenza Artificiale affronta l’argomento e specifica che i dati necessari ad alimentare i modelli IA rientrino in quella categoria di informazioni dette “di interesse pubblico“.
L’articolo 8 apre nuove possibilità per l’utilizzo di dati sensibili, in pratica le informazioni sulla nostra salute possono essere utilizzate per addestrare modelli di intelligenza artificiale a patto che:
- siano effettuati ad enti pubblici o no-profit
- i cittadini vengano informati (anche aggiungendo una frase sulla informativa presente sul sito)
- il trattamento sia approvato dall’Autorità Garante per la protezione dei dati personali
Cosa cambia nel FSE (Fascicolo Sanitario Elettronico)
Il fascicolo sanitario elettronico fa parte dell’imponente progetto di digitalizzazione della Sanità Pubblica. Un database nazionale dove affluiscono le informazioni mediche con lo scopo di alimentare le cartelle cliniche digitali dei cittadini italiani.
Un database così ricco di informazioni non può che essere un ambita fonte di dati per addestrare modelli di intelligenza artificiale capaci di fornire servizi sanitari.
Il DDL Intelligenza Artificiale aggiunge un articolo per consentire l’uso di questi dati.
ART. 9
(Disposizioni in materia di fascicolo sanitario elettronico, sistemi di sorveglianza nel settore
sanitario e governo della sanità digitale)
- Al decreto-legge 18 ottobre 2012, n. 179, convertito, con modificazioni, dalla legge 17 dicembre
2012, n. 221, dopo l’articolo 12 è aggiunto il seguente:
«Art. 12-bis
(intelligenza artificiale nel settore sanitario)- Al fine di garantire strumenti e tecnologie avanzate nel settore sanitario, con uno o più decreti
del Ministro della salute, di concerto con l’Autorità politica delegata in materia di innovazione
tecnologica e transizione digitale e con l’Autorità delegata per la sicurezza della Repubblica e
cybersicurezza e sentita la Conferenza permanente per i rapporti tra lo Stato, le regioni e le
province autonome di Trento e di Bolzano, sono disciplinate le soluzioni di intelligenza
artificiale aventi funzione di supporto alle finalità di cui all’articolo 12, comma 2. Con i decreti
di cui al primo periodo, sono individuati i soggetti che, nell’esercizio delle proprie funzioni,
accedono alle soluzioni di intelligenza artificiale secondo le modalità ivi definite.- Per il supporto alle finalità di cura, e in particolare per l’assistenza territoriale, è istituita una
piattaforma di intelligenza artificiale. La progettazione, la realizzazione, la messa in servizio
e la titolarità della piattaforma di cui al primo periodo sono attribuite all’Agenzia nazionale
per i servizi sanitari regionali (AGENAS) in qualità di Agenzia nazionale per la sanità digitale.
La piattaforma di cui al primo periodo eroga servizi di supporto:
a) ai professionisti sanitari per la presa in carico della popolazione assistita;
b) ai medici nella pratica clinica quotidiana con suggerimenti non vincolanti;
c) agli utenti per l’accesso ai servizi sanitari delle Case di Comunità.- La piattaforma di cui al comma 2 è alimentata con i dati strettamente necessari per l’erogazione
dei servizi di cui al medesimo comma 2, trasmessi dai relativi titolari del trattamento.
L’AGENAS è titolare del trattamento dei dati raccolti e generati all’interno della piattaforma.- Previ pareri del Ministero della salute e del Garante per la protezione dei dati personali e
dell’Agenzia per la Cybersicurezza nazionale, l’AGENAS, con proprio provvedimento,
valutato l’impatto del trattamento, specifica i tipi di dati trattati e le operazioni eseguite
all’interno della piattaforma, nonché le misure tecniche e organizzative per garantire un livello
di sicurezza adeguato al rischio e per tutelare i diritti fondamentali e gli interessi
dell’interessato, in coerenza con le disposizioni del Regolamento UE 2016/679.».
6- Dall’attuazione del presente articolo non devono derivano nuovi o maggiori oneri per la finanza
pubblica. L’Agenzia nazionale per i servizi sanitari regionali provvede alle attività di cui al presente
articolo con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente.
Saremo curati da robot?
L’articolo 7 al paragrafo 5 ci rassicura che questo non avverrà.
I sistemi di intelligenza artificiale nell’ambito sanitario costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione, che è sempre rimessa alla professione medica.
Intelligenza Artificiale
Apple e OpenAI: collaborazione temporanea per Siri
Tempo di lettura: 3 minuti. Apple collabora con OpenAI per migliorare Siri con AI generativa, mentre ChatGPT introduce la funzione “Background Chat” per il multitasking avanzato
Apple ha stretto una collaborazione con OpenAI per integrare funzionalità di intelligenza artificiale generativa in Siri. Tuttavia, secondo Dag Kittlaus, co-fondatore di Siri, questa partnership potrebbe essere solo temporanea, mentre Apple sviluppa ulteriormente la propria tecnologia di chatbot.
Dettagli della collaborazione
Apple ha firmato un accordo con OpenAI per portare alcune delle sue tecnologie sugli iPhone entro quest’anno. Questa collaborazione consentirà ad Apple di offrire un chatbot popolare alimentato da ChatGPT come parte delle funzionalità AI-centriche in iOS 18. La partnership mira a rendere Siri molto più intelligente come parte del rilancio di iOS 18.
Sebbene Apple non abbia ancora confermato pubblicamente la partnership, è previsto che l’annuncio sarà discreto, senza la partecipazione di Sam Altman, CEO di OpenAI, durante il prossimo keynote.
Sviluppo Interno di Apple
Apple sta lavorando da tempo sul proprio chatbot generativo, noto come Apple GPT. La compagnia ha utilizzato internamente questa tecnologia per circa un anno o più. Un documento di ricerca di Apple ha indicato che l’azienda mira a rendere il proprio chatbot capace di funzionare direttamente sul dispositivo per massimizzare la privacy, eseguendo processi locali come la sintesi di testi memorizzati su un iPhone.
Opinioni degli Esperti
Dag Kittlaus ha dichiarato che la partnership con OpenAI è probabilmente una “relazione a breve-medio termine” per Apple. Kittlaus ritiene che Apple lavorerà intensamente per sviluppare le proprie competenze in questo settore.
Vantaggi della Collaborazione Temporanea
Questa partnership temporanea consente ad Apple di guadagnare tempo mentre sviluppa ulteriormente la propria tecnologia AI. Inoltre, protegge Apple dagli errori comuni delle attuali tecnologie AI generative, come le “allucinazioni AI”. Apple etichetterà le sue funzionalità AI come beta e applicherà un disclaimer per indicare che le risposte sono generate da ChatGPT, sottolineando la natura sperimentale del lancio iniziale.
ChatGPT si Aggiorna: Scopri la Nuova Funzione “Background Chat”
OpenAI ha annunciato un aggiornamento significativo per l’app mobile ChatGPT, introducendo la funzione “Background Chat”. Questa innovazione rivoluziona l’esperienza utente, permettendo interazioni senza interruzioni con ChatGPT-4o mentre si utilizzano altre applicazioni sul telefono.
Background Chat: Lavorare in Modo Intelligente
La funzione “Background Chat” consente agli utenti di impegnarsi in conversazioni vocali con ChatGPT-4o anche al di fuori dell’app. Questo potenzia il multitasking a un livello completamente nuovo. Ad esempio, se ti blocchi in un gioco, puoi attivare “Background Chat” e ricevere suggerimenti o soluzioni in tempo reale da ChatGPT senza interrompere il gioco.
Attivazione della Funzione
Attivare “Background Chat” è semplice. Basta andare nel menu delle impostazioni e navigare nella sezione modalità audio. Troverai l’interruttore “Background Chat” – attivalo e sblocca il potere del multitasking con il tuo assistente AI. Tuttavia, è importante notare che questa funzione attualmente si integra con la maggior parte degli assistenti vocali, ad eccezione di Sky.
Futuro degli Assistenti Vocali
Questo aggiornamento è una pietra miliare per il lancio imminente di GPT-4o Voice, una funzione altamente attesa che continua a funzionare anche quando l’app è chiusa, lo schermo è spento o stai utilizzando un’altra applicazione. Gli utenti di iPhone possono accedere a questa funzionalità con un semplice tocco sull’isola dinamica mentre usano un’altra app.
Applicazioni Oltre il Gaming
“Background Chat” non si limita all’assistenza nei giochi. Gli utenti possono sfruttarla per ricerche e creazione di documenti. Immagina di comporre un testo e richiedere feedback da ChatGPT in tempo reale. Inoltre, la funzione brilla negli scenari di lingua straniera, offrendo traduzioni istantanee mentre esplori una nuova città.
Visione Ambiziosa di OpenAI: Omni Voice
“Background Chat” apre la strada al prossimo grande progetto di OpenAI: Omni Voice. Questa funzione promette un’esperienza di riconoscimento vocale significativamente più veloce e naturale, con supporto per la condivisione video, aprendo porte a una comunicazione innovativa e interattiva.
Passo Avanti nell’Accessibilità e Convenienza
“Background Chat” rappresenta un notevole passo avanti nell’esperienza utente e nell’accessibilità per ChatGPT. Elimina i vincoli di restare all’interno dell’app per l’interazione, favorendo un’esperienza più fluida e integrata con il tuo assistente AI. Questa innovazione apre nuove possibilità, dalla produttività avanzata all’assistenza linguistica senza interruzioni.
Intelligenza Artificiale
L’Intelligenza Artificiale riuscirà a decodificare la “voce” dei cani?
Tempo di lettura: 2 minuti. AI per decodificare la “voce” dei cani, distinguendo tra giocosità e aggressività, identificando età, razza e sesso
Ricercatori dell’Università del Michigan stanno esplorando le possibilità dell’intelligenza artificiale (AI) per sviluppare strumenti in grado di identificare se un abbaio dei cani esprime giocosità o aggressività. Questi modelli possono anche rilevare altre informazioni dalle vocalizzazioni animali, come l’età, la razza e il sesso dell’animale. La ricerca, condotta in collaborazione con l’Istituto Nazionale di Astrofisica, Ottica ed Elettronica (INAOE) di Puebla, Messico, dimostra che i modelli AI inizialmente addestrati sulla voce umana possono essere usati come punto di partenza per creare nuovi sistemi mirati alla comunicazione animale.
Usare modelli di linguaggio umano per identificare diversi tipi di abbai
Un tool AI sviluppato all’Università del Michigan può distinguere abbai giocosi da quelli aggressivi, oltre a identificare età, sesso e razza del cane. Crediti immagine: Marcin Szczepanski/Michigan Engineering.
I risultati sono stati presentati alla Joint International Conference on Computational Linguistics, Language Resources and Evaluation. Secondo Rada Mihalcea, Professore Collegiate di Informatica e Ingegneria presso l’U-M, i modelli di elaborazione del linguaggio addestrati sulla voce umana aprono nuove possibilità per comprendere le sfumature degli abbai dei cani. Gli avanzamenti nell’AI possono rivoluzionare la nostra comprensione della comunicazione animale e i risultati suggeriscono che non è necessario partire da zero.
Uno dei principali ostacoli nello sviluppo di modelli AI per analizzare le vocalizzazioni animali è la mancanza di dati disponibili pubblicamente. Mentre esistono numerose risorse per registrare la voce umana, raccogliere dati dagli animali è più difficile. Le vocalizzazioni animali devono essere registrate passivamente in natura o, nel caso di animali domestici, con il permesso dei proprietari.
Superare le sfide nella raccolta dei dati
Artem Abzaliev e il suo cane, Nova, a Norimberga, Germania. Il software AI sviluppato può identificare se un abbaio è giocoso o aggressivo e determinare razza, sesso ed età del cane. Immagine: Abzaliev.
I ricercatori hanno superato queste sfide riutilizzando un modello esistente progettato per analizzare la voce umana. Questo approccio ha permesso loro di utilizzare modelli robusti che formano la base delle tecnologie vocali che usiamo oggi, come il voice-to-text e la traduzione linguistica. Questi modelli sono addestrati a distinguere sfumature nella voce umana, come tono, intonazione e accento, e a convertire queste informazioni in un formato che un computer può utilizzare per identificare le parole pronunciate e riconoscere l’individuo parlante.
Il team ha utilizzato un dataset di vocalizzazioni di cani registrate da 74 cani di varie razze, età e sesso, in diversi contesti. Humberto Pérez-Espinosa dell’INAOE ha guidato il team che ha raccolto il dataset. Abzaliev ha poi usato le registrazioni per modificare un modello di machine learning chiamato Wav2Vec2, originariamente addestrato sui dati della voce umana.
I ricercatori sono riusciti a generare rappresentazioni dei dati acustici raccolti dai cani e a interpretare queste rappresentazioni. Hanno scoperto che Wav2Vec2 non solo ha avuto successo in quattro compiti di classificazione, ma ha anche superato altri modelli addestrati specificamente sui dati degli abbai dei cani, con una precisione fino al 70%.
Implicazioni per la comprensione e il benessere degli animali
Questa ricerca ha implicazioni importanti per il benessere degli animali. Comprendere le sfumature delle vocalizzazioni dei cani può migliorare notevolmente il modo in cui gli esseri umani interpretano e rispondono ai bisogni emotivi e fisici dei cani, migliorando così la loro cura e prevenendo situazioni potenzialmente pericolose.
Intelligenza Artificiale
Tutela dei whistleblower e sicurezza AI: ex dipendenti OpenAI preoccupati
Tempo di lettura: 2 minuti. Whistleblower e sicurezza dell’Intelligenza Artificiale sono parte delle preoccupazioni espresse da ex dipendenti di OpenAI
Tredici ex dipendenti di OpenAI, in una lettera aperta, hanno denunciato la mancanza di garanzie per i whistleblower chi segnala problemi di sicurezza legati all’intelligenza artificiale (IA).
La lettera aperta
La lettera, firmata da tredici ex dipendenti OpenAI (sei dei quali hanno scelto di rimanere anonimi) e sostenuta da Geoffrey Hinton, pioniere dell’intelligenza artificiale precedentemente in forza a Google, sottolinea la necessità per le aziende del settore di adottare principi di apertura nei confronti di critiche e controlli, soprattutto in un momento storico in cui crescono le preoccupazioni sulla sicurezza dell’IA.
Principi per una maggiore trasparenza
In assenza di un efficace controllo governativo, la lettera propone che le aziende del settore IA si impegnino a rispettare principi di critica aperta. Questi principi includono:
- Evitare la creazione e l’applicazione di clausole di non concorrenza che limitino la libertà di parola dei dipendenti
- Garantire un processo “verificabilmente” anonimo per segnalare problemi
- Consentire a dipendenti, attuali e precedenti, di sollevare pubblicamente preoccupazioni
- Impegno a non ritorcere contro i whistleblower (coloro che segnalano irregolarità)
Preoccupazioni e rischi legati all’IA
Gli autori della lettera riconoscono il potenziale positivo dell’IA per la società, ma evidenziano anche i rischi associati, come:
- Radicamento delle disuguaglianze
- Diffusione di manipolazione e disinformazione
- Estinzione umana (come scenario estremo)
Sebbene la preoccupazione per macchine in grado di conquistare il mondo attiri molta attenzione, i problemi più concreti dell’IA odierna riguardano:
- Violazioni del copyright
- Condivisione involontaria di immagini problematiche e illegali
- Capacità di imitare le sembianze delle persone e indurre in errore il pubblico
Protezioni inefficaci per i whistleblower
La lettera sostiene che le attuali tutele per i whistleblower siano “insufficienti” perché principalmente incentrate su attività illegali, trascurando questioni legate all’IA dalla stessa OpenAI che spesso ricadono in zone grigie non ancora regolamentate.
Il Dipartimento del Lavoro degli Stati Uniti specifica che le leggi a tutela dei whistleblower proteggono i lavoratori che segnalano violazioni riguardanti salari, discriminazione, sicurezza, frode e mancato riconoscimento di ferie. Ciò significa che i datori di lavoro non possono licenziare, sospendere, ridurre le ore o declassare i dipendenti che segnalano irregolarità.
“Alcuni di noi temono ragionevolmente ritorsioni, data la storia di tali casi in tutto il settore. Non siamo i primi a incontrare o parlare di questi problemi”, si legge nella lettera.
Mancanza di controlli di sicurezza nell’IA
Le aziende che operano nel campo dell’IA, in particolare OpenAI, sono state criticate per la carente supervisione in materia di sicurezza. Google ha difeso il suo strumento di ricerca basato sull’IA, AI Overviews, nonostante le segnalazioni di risultati pericolosi, seppur divertenti. Anche Microsoft è stata oggetto di polemiche per il suo Copilot Designer, che generava “immagini sessualizzate di donne in scene violente”.
Di recente, diversi ricercatori di OpenAI si sono dimessi dopo lo scioglimento del team “Superalignment”, che si occupava dei rischi a lungo termine dell’IA, e le dimissioni del co-fondatore Ilya Sutskever, che si era fatto portavoce della sicurezza all’interno dell’azienda. Un ex ricercatore, Jan Leike, ha affermato che “la cultura e i processi di sicurezza sono stati messi in secondo piano rispetto a prodotti dal facile appeal” in OpenAI. OpenAI ha attualmente un nuovo team per la sicurezza guidato dal CEO Sam Altman.
- Inchieste1 settimana fa
Truffa lavoro Online: analisi metodo Mazarsiu e consigli
- Tech1 settimana fa
Samsung One UI 7: sguardo sul futuro dei dispositivi Galaxy
- Economia1 settimana fa
AMD potrebbe utilizzare i Chip a 3nm di Samsung Foundry
- Robotica1 settimana fa
Due Fotocamere e AI: sistema innovativo per la sicurezza in Auto
- Economia5 giorni fa
Anche Temu diventa VLOP e affronta regole più rigide in europa
- L'Altra Bolla5 giorni fa
L’Astroturfing Politico su LinkedIn: la denuncia di Pasquale Aiello
- Robotica1 settimana fa
3D-MuPPET traccia gli animali senza marcatori
- Economia4 giorni fa
Primo trimestre 2024: Samsung è il più venduto in 38 Paesi