Intelligenza Artificiale
AI AlphaFold 3 predice l’interazione delle molecole della vita
Tempo di lettura: < 1 minuto. AlphaFold 3 di Google DeepMind: modello AI che trasforma la comprensione delle molecole biologiche e accelera la ricerca farmaceutica e genomica.
In un recente articolo pubblicato su Nature, Google DeepMind ha introdotto AlphaFold 3, un modello AI rivoluzionario che predice la struttura e le interazioni delle molecole della vita con una precisione senza precedenti e che migliora del 50% le previsioni delle interazioni tra proteine e altri tipi di molecole rispetto ai metodi esistenti, e per alcune interazioni cruciali, la precisione delle previsioni è raddoppiata.
Caratteristiche e potenzialità
AlphaFold 3 si basa sui successi di AlphaFold 2, che nel 2020 ha rappresentato un importante progresso nella predizione della struttura delle proteine. Ora, con AlphaFold 3, il focus si espande a una vasta gamma di biomolecole, aprendo nuove strade per la scienza, dalla progettazione di materiali biorenewable e lo sviluppo di colture più resilienti, fino all’accelerazione della ricerca farmaceutica e genomica.
Accesso e impiego
La maggior parte delle capacità è accessibile gratuitamente tramite il AlphaFold Server, uno strumento di ricerca facile da usare. Inoltre, Isomorphic Labs sta già collaborando con aziende farmaceutiche per applicare AlphaFold 3 a sfide reali di progettazione farmaceutica e sviluppare nuovi trattamenti trasformativi per i pazienti.
Impatto scientifico
AlphaFold è stato utilizzato da milioni di ricercatori in tutto il mondo per scoperte in aree che includono vaccini contro la malaria, trattamenti contro il cancro e design di enzimi. Ha accumulato oltre 20,000 citazioni e ricevuto numerosi riconoscimenti, tra cui il recente Breakthrough Prize in Life Sciences. Con queste innovazioni, AlphaFold 3 si posiziona come una pietra miliare nella ricerca biomolecolare, offrendo strumenti potenti per esplorare nuove frontiere nella scienza e nella medicina.
Intelligenza Artificiale
Perché l’analisi del sentiment necessita di rilevare il sarcasmo?
Tempo di lettura: 2 minuti. Scopri come un nuovo algoritmo multimodale sviluppato dall’Università di Groningen migliora il rilevamento del sarcasmo, integrando analisi del testo, riconoscimento delle emozioni e emoticon.
Oscar Wilde una volta disse che il sarcasmo è la forma più bassa di spirito, ma la più alta forma di intelligenza; nessun algoritmo però vi è arrivato a riconoscerlo. Questa affermazione riflette la complessità nell’uso e nella comprensione del sarcasmo, noto per essere difficile da trasmettere correttamente anche di persona, e ancor più tramite testo. Le sottili variazioni di tono che indicano il sarcasmo possono facilmente confondere sia gli esseri umani che gli algoritmi informatici, limitando l’efficacia degli assistenti virtuali e degli strumenti di analisi dei contenuti.
Nuovo approccio multimodale per il rilevamento del sarcasmo
Xiyuan Gao, Shekhar Nayak e Matt Coler del Laboratorio di Tecnologia del Parlato presso l’Università di Groningen, Campus Fryslân, hanno sviluppato un algoritmo multimodale per migliorare il rilevamento del sarcasmo, analizzando vari aspetti delle registrazioni audio per aumentare la precisione. Gao ha presentato il loro lavoro il 16 maggio 2024, come parte di una riunione congiunta della Società Acustica d’America e dell’Associazione Acustica Canadese.
Caratteristiche dell’algoritmo
L’algoritmo si basa su due approcci complementari: l’analisi del sentimento utilizzando il testo e il riconoscimento delle emozioni tramite l’audio. Questo metodo integrato permette di ottenere una visione più completa del sarcasmo espresso nel parlato umano.
- Parametri acustici: Il team ha estratto parametri come tono, velocità del parlato ed energia dal discorso.
- Trascrizione del parlato: Utilizzando il riconoscimento automatico del parlato, il discorso è stato trascritto in testo per l’analisi del sentimento.
- Integrazione degli emoticon: Ad ogni segmento del discorso sono stati assegnati emoticon che riflettono il contenuto emotivo.
Combinando questi segnali multimodali in un algoritmo di machine learning, l’approccio sfrutta i punti di forza delle informazioni uditive e testuali insieme agli emoticon per un’analisi completa.Fonte: Acoustics.org
Potenziali miglioramenti e applicazioni future
Il team è ottimista riguardo alle prestazioni dell’algoritmo, ma sta già cercando modi per migliorarlo ulteriormente. Gao ha sottolineato l’importanza di integrare meglio le espressioni e i gesti che evidenziano gli elementi sarcastici nel parlato e l’obiettivo di includere più lingue e adottare tecniche emergenti di riconoscimento del sarcasmo.
Questo approccio può essere utilizzato non solo per identificare il sarcasmo, ma anche in molti altri campi:
- Analisi del sentiment: Tradizionalmente focalizzata sul testo, può beneficiare del riconoscimento del sarcasmo per applicazioni come la rilevazione di discorsi di odio online e l’estrazione delle opinioni dei clienti.
- Riconoscimento delle emozioni: Basato sul parlato, può essere applicato all’assistenza sanitaria assistita dall’intelligenza artificiale.
Intelligenza Artificiale
Android 15 integra Gemini AI: nuove funzionalità e miglioramenti
Tempo di lettura: 2 minuti. Google integra Gemini AI in Android 15, con nuove funzionalità di ricerca, assistente contestuale e miglioramenti on-device per privacy e efficienza
Google ha annunciato una serie di nuove funzionalità AI integrate nel sistema operativo Android 15, offrendo uno sguardo su cosa dovrà competere il sistema operativo dell’iPhone di Apple entro la fine dell’anno. Android 15 è stato progettato con l’IA al suo centro, e Gemini rappresenta una parte fondamentale dell’esperienza Android a livello di sistema.
Caratteristiche principali di Gemini AI su Android 15
Barra di ricerca AI e Circle to Search
Una delle nuove funzionalità è una barra di ricerca alimentata dall’IA che può essere utilizzata per rispondere a domande e cercare informazioni. La funzione Circle to Search permette di risolvere problemi di matematica e fisica o di ottenere aiuto con i compiti.
Assistente AI contestuale
Gemini serve come assistente AI su Android, sostituendo Google Assistant. Questo assistente può essere richiamato come overlay su qualsiasi app in uso, offrendo supporto contestuale in tempo reale. Può creare immagini per testi e social media, rispondere a domande su video in riproduzione, interpretare PDF, siti web e altri contenuti, fornendo riassunti e traduzioni.
Privacy e elaborazione on-device
Google utilizza l’IA on-device per alcune funzionalità al fine di mantenere i dati sensibili privati, simile alla strategia di Apple. Gemini Nano, l’IA on-device di Google, genera risposte intelligenti nelle app di messaggistica e riassume memo vocali. Gemini Nano con Multimodalità arriverà sui telefoni Pixel entro la fine dell’anno, introducendo nuove funzionalità come TalkBack per aiutare utenti ciechi e ipovedenti a interpretare meglio il mondo circostante. Un’altra funzione in sviluppo è lo screening delle chiamate, che ascolta attivamente le chiamate e avvisa gli utenti se sembrano truffe.
Modelli Gemini 1.5 Flash e Pro
Google ha anche annunciato Gemini 1.5 Flash, una versione leggera del modello AI Gemini Pro. Gemini Flash è più efficiente, meno costoso e ha una latenza inferiore, ideale per distribuzioni su larga scala. Questo modello eccelle in riassunti, applicazioni di chat, didascalie di immagini e video, e estrazione di dati da documenti lunghi.
Gemini 1.5 Pro è stato migliorato e può seguire istruzioni sempre più complesse e sfumate, inclusa l’interpretazione di documenti fino a 1.500 pagine o un’ora di contenuti video. Gli utenti possono interagire con Gemini in Google Messages, e gli abbonati a Gemini Advanced possono sperimentare una nuova esperienza conversazionale mobile.
Project Astra
Project Astra è un altro sforzo di Google che si concentra su agenti AI utili nella vita quotidiana. Durante una demo, Google ha mostrato prototipi di agenti in grado di identificare oggetti, fornire contesto sulle informazioni dalla fotocamera e richiamare una sequenza temporale di eventi per trovare un oggetto perso.
Prossimi annunci
Google fornirà ulteriori informazioni sulle nuove funzionalità in arrivo su Android 15 entro questa settimana.
Intelligenza Artificiale
Perchè Google ha chiamato la sua AI “Gemini”?
Tempo di lettura: 2 minuti. Google spiega l’origine del nome “Gemini” per le sue funzionalità AI, ispirato alla mitologia greca, alla costellazione dei Gemelli e al Project Gemini della NASA.
Dal Google I/O 2023, “Gemini” è diventato il nome che raggruppa tutte le funzionalità AI di Google. Questa settimana, Google ha ufficialmente spiegato l’origine del nome.
Origini e significato del nome “Gemini”
Inizialmente, il progetto aveva il nome provvisorio “Titan”, ispirato alla mitologia greca e alla luna più grande di Saturno. Tuttavia, Jeff Dean, co-leader tecnico di Gemini, non era un grande fan di questo nome, ma esso gli ha dato l’idea di un nome legato allo spazio.
Così, Google ha scelto “Gemini”, che in latino significa “gemelli”. In astronomia, Gemelli è una costellazione associata ai gemelli mitologici greci Castore e Polluce, i cui nomi sono stati dati alle sue due stelle più brillanti. Questo significato duplice si adattava perfettamente al modello AI di Google.
Il team di Google ha trovato che la personalità duale del segno zodiacale dei Gemelli, capace di adattarsi rapidamente, connettersi con un’ampia gamma di persone e vedere le cose da molteplici prospettive, fosse ideale per il momento in cui Google stava unendo i team di DeepMind e Google Research “Brain”.
L’importanza della collaborazione tra i team
Jeff Dean ha spiegato che lo sforzo di Gemini è nato dal desiderio di avvicinare i team che lavoravano sulla modellazione del linguaggio. La metafora dei gemelli rappresentava bene questa fusione: i membri del team legacy di Brain e di DeepMind hanno iniziato a lavorare insieme su questo ambizioso progetto multimodale.
Riferimento al Project Gemini della NASA
Il nome “Gemini” è anche un omaggio al Project Gemini della NASA, attivo dal 1965 al 1968, che ha testato tecnologie cruciali per il successo del programma Apollo. Oriol Vinyals, co-leader tecnico, ha trovato che l’enorme sforzo richiesto per l’addestramento dei modelli linguistici di grandi dimensioni risuonava con lo spirito dei lanci di razzi del Project Gemini.
Evoluzione e denominazione dei modelli
Google ha anche considerato di dare ai modelli nomi di stelle, ma attualmente i nomi utilizzati sono Nano, Flash, Pro e Ultra. L’intervista ha rivelato che la decisione di utilizzare “Gemini” anche come nome per le funzionalità AI visibili agli utenti è stata presa per trasmettere il continuo miglioramento, la creatività e l’innovazione che i team di ricerca di Google porteranno direttamente agli utenti.
- Robotica1 settimana fa
Come controllare dei Robot morbidi ? MIT ha un’idea geniale
- Inchieste6 giorni fa
Melinda lascia la Bill Gates Foundation e ritira 12,5 Miliardi di Dollari
- L'Altra Bolla6 giorni fa
Discord celebra il nono compleanno con aggiornamenti e Giveaway
- Inchieste5 giorni fa
Terrore in Campania: dati sanitari di SynLab nel dark web
- Economia1 settimana fa
Ban in Germania per alcuni prodotti Motorola e Lenovo
- Smartphone4 giorni fa
Samsung Galaxy S25 Ultra: Quattro fotocamere in Arrivo
- Smartphone6 giorni fa
Samsung Galaxy S25 Ultra avrà una Fotocamera rispetto all’S24
- Economia1 settimana fa
Guerra dei Chip: gli USA colpiscono la ricerca cinese nella Entity List