Intelligenza Artificiale
Apple OpenELM: modelli di linguaggio Open Source
Tempo di lettura: 2 minuti. Apple presenta OpenELM, una nuova famiglia di modelli di linguaggio efficienti e open-source, puntando a miglioramenti significativi
In anticipo rispetto al debutto di iOS 18 alla WWDC di giugno, Apple ha rilasciato una nuova famiglia di modelli di linguaggio open-source denominata OpenELM (Open-source Efficient Language Models). Questo movimento segna un importante passo avanti nelle iniziative di ricerca e sviluppo AI di Apple, ponendo una particolare enfasi sulla efficienza e l’accessibilità.
OpenELM: caratteristiche e innovazioni
OpenELM si distingue per il suo approccio innovativo nell’allocare efficientemente i parametri all’interno di ciascun layer del modello transformer, risultando in una maggiore accuratezza con una minore quantità di dati di addestramento. Ad esempio, con un budget di parametri di circa un miliardo, OpenELM ha mostrato un miglioramento dell’accuratezza del 2,36% rispetto a modelli precedenti, come OLMo, pur richiedendo la metà dei token di pre-addestramento.
Contributi di OpenELM alla Comunità Open Source
A differenza di pratiche precedenti che si limitavano a fornire solo i pesi del modello e il codice di inferenza, e ad addestrare su set di dati privati, Apple ha deciso di includere nell’uscita di OpenELM l’intero framework per l’addestramento e la valutazione del modello su dataset pubblicamente disponibili. Questo include log di addestramento, diversi checkpoint, e configurazioni di pre-addestramento. Inoltre, è stato rilasciato il codice per convertire i modelli per l’utilizzo nella libreria MLX, facilitando l’inferenza e il fine-tuning su dispositivi Apple.
Implicazioni per iOS 18 e la Privacy
Il rilascio di OpenELM è solo l’ultima delle iniziative di Apple nel campo dell’intelligenza artificiale, in preparazione per iOS 18 che includerà una serie di nuove funzionalità AI. Si prevede che le funzionalità AI di iOS 18 siano alimentate da un modello di linguaggio completamente on-device, offrendo vantaggi in termini di privacy e velocità.
Il lancio di OpenELM da parte di Apple non solo rafforza la sua posizione nel settore AI ma offre anche strumenti preziosi alla comunità di ricerca aperta, incoraggiando ulteriori sviluppi e innovazioni. Con questi avanzamenti, Apple continua a delineare il futuro dell’intelligenza artificiale, concentrando gli sforzi su privacy, efficienza e accessibilità.
Per info sui modelli e codici di applicazioni consultare ARVIX e Huggingface
Intelligenza Artificiale
Android 15 integra Gemini AI: nuove funzionalità e miglioramenti
Tempo di lettura: 2 minuti. Google integra Gemini AI in Android 15, con nuove funzionalità di ricerca, assistente contestuale e miglioramenti on-device per privacy e efficienza
Google ha annunciato una serie di nuove funzionalità AI integrate nel sistema operativo Android 15, offrendo uno sguardo su cosa dovrà competere il sistema operativo dell’iPhone di Apple entro la fine dell’anno. Android 15 è stato progettato con l’IA al suo centro, e Gemini rappresenta una parte fondamentale dell’esperienza Android a livello di sistema.
Caratteristiche principali di Gemini AI su Android 15
Barra di ricerca AI e Circle to Search
Una delle nuove funzionalità è una barra di ricerca alimentata dall’IA che può essere utilizzata per rispondere a domande e cercare informazioni. La funzione Circle to Search permette di risolvere problemi di matematica e fisica o di ottenere aiuto con i compiti.
Assistente AI contestuale
Gemini serve come assistente AI su Android, sostituendo Google Assistant. Questo assistente può essere richiamato come overlay su qualsiasi app in uso, offrendo supporto contestuale in tempo reale. Può creare immagini per testi e social media, rispondere a domande su video in riproduzione, interpretare PDF, siti web e altri contenuti, fornendo riassunti e traduzioni.
Privacy e elaborazione on-device
Google utilizza l’IA on-device per alcune funzionalità al fine di mantenere i dati sensibili privati, simile alla strategia di Apple. Gemini Nano, l’IA on-device di Google, genera risposte intelligenti nelle app di messaggistica e riassume memo vocali. Gemini Nano con Multimodalità arriverà sui telefoni Pixel entro la fine dell’anno, introducendo nuove funzionalità come TalkBack per aiutare utenti ciechi e ipovedenti a interpretare meglio il mondo circostante. Un’altra funzione in sviluppo è lo screening delle chiamate, che ascolta attivamente le chiamate e avvisa gli utenti se sembrano truffe.
Modelli Gemini 1.5 Flash e Pro
Google ha anche annunciato Gemini 1.5 Flash, una versione leggera del modello AI Gemini Pro. Gemini Flash è più efficiente, meno costoso e ha una latenza inferiore, ideale per distribuzioni su larga scala. Questo modello eccelle in riassunti, applicazioni di chat, didascalie di immagini e video, e estrazione di dati da documenti lunghi.
Gemini 1.5 Pro è stato migliorato e può seguire istruzioni sempre più complesse e sfumate, inclusa l’interpretazione di documenti fino a 1.500 pagine o un’ora di contenuti video. Gli utenti possono interagire con Gemini in Google Messages, e gli abbonati a Gemini Advanced possono sperimentare una nuova esperienza conversazionale mobile.
Project Astra
Project Astra è un altro sforzo di Google che si concentra su agenti AI utili nella vita quotidiana. Durante una demo, Google ha mostrato prototipi di agenti in grado di identificare oggetti, fornire contesto sulle informazioni dalla fotocamera e richiamare una sequenza temporale di eventi per trovare un oggetto perso.
Prossimi annunci
Google fornirà ulteriori informazioni sulle nuove funzionalità in arrivo su Android 15 entro questa settimana.
Intelligenza Artificiale
Perchè Google ha chiamato la sua AI “Gemini”?
Tempo di lettura: 2 minuti. Google spiega l’origine del nome “Gemini” per le sue funzionalità AI, ispirato alla mitologia greca, alla costellazione dei Gemelli e al Project Gemini della NASA.
Dal Google I/O 2023, “Gemini” è diventato il nome che raggruppa tutte le funzionalità AI di Google. Questa settimana, Google ha ufficialmente spiegato l’origine del nome.
Origini e significato del nome “Gemini”
Inizialmente, il progetto aveva il nome provvisorio “Titan”, ispirato alla mitologia greca e alla luna più grande di Saturno. Tuttavia, Jeff Dean, co-leader tecnico di Gemini, non era un grande fan di questo nome, ma esso gli ha dato l’idea di un nome legato allo spazio.
Così, Google ha scelto “Gemini”, che in latino significa “gemelli”. In astronomia, Gemelli è una costellazione associata ai gemelli mitologici greci Castore e Polluce, i cui nomi sono stati dati alle sue due stelle più brillanti. Questo significato duplice si adattava perfettamente al modello AI di Google.
Il team di Google ha trovato che la personalità duale del segno zodiacale dei Gemelli, capace di adattarsi rapidamente, connettersi con un’ampia gamma di persone e vedere le cose da molteplici prospettive, fosse ideale per il momento in cui Google stava unendo i team di DeepMind e Google Research “Brain”.
L’importanza della collaborazione tra i team
Jeff Dean ha spiegato che lo sforzo di Gemini è nato dal desiderio di avvicinare i team che lavoravano sulla modellazione del linguaggio. La metafora dei gemelli rappresentava bene questa fusione: i membri del team legacy di Brain e di DeepMind hanno iniziato a lavorare insieme su questo ambizioso progetto multimodale.
Riferimento al Project Gemini della NASA
Il nome “Gemini” è anche un omaggio al Project Gemini della NASA, attivo dal 1965 al 1968, che ha testato tecnologie cruciali per il successo del programma Apollo. Oriol Vinyals, co-leader tecnico, ha trovato che l’enorme sforzo richiesto per l’addestramento dei modelli linguistici di grandi dimensioni risuonava con lo spirito dei lanci di razzi del Project Gemini.
Evoluzione e denominazione dei modelli
Google ha anche considerato di dare ai modelli nomi di stelle, ma attualmente i nomi utilizzati sono Nano, Flash, Pro e Ultra. L’intervista ha rivelato che la decisione di utilizzare “Gemini” anche come nome per le funzionalità AI visibili agli utenti è stata presa per trasmettere il continuo miglioramento, la creatività e l’innovazione che i team di ricerca di Google porteranno direttamente agli utenti.
Intelligenza Artificiale
ChatGPT piena interazione con Google Drive e OneDrive
Tempo di lettura: < 1 minuto. ChatGPT ora consente agli utenti di caricare file direttamente da Google Drive e OneDrive, migliorando l’analisi dei dati e la visualizzazione dei grafici.
OpenAI ha annunciato una nuova funzionalità per ChatGPT che consente agli utenti di caricare file direttamente dai loro account Google Drive o OneDrive. Questa funzione, disponibile per gli utenti a pagamento di ChatGPT nelle prossime settimane, semplifica il processo di analisi dei dati, eliminando la necessità di scaricare e ricaricare i file.
Dettagli della nuova funzionalità
Con l’accesso a questa nuova funzione, gli utenti di ChatGPT Plus, Enterprise e Teams dovranno solo concedere l’accesso al chatbot ai loro account Google Drive o OneDrive. Secondo un post sul blog di OpenAI, questa integrazione permette a ChatGPT di leggere rapidamente file Excel, Word, PowerPoint e i loro equivalenti di Google.
Miglioramenti nell’analisi dei dati
La funzione di analisi dei dati migliorata è disponibile solo tramite GPT-4o, la versione più veloce e migliorata di GPT-4, che alimenta la versione a pagamento del chatbot. OpenAI ha anche potenziato la capacità di ChatGPT di comprendere i dataset da istruzioni scritte in linguaggio naturale. Gli utenti possono chiedere al chatbot di eseguire codici Python per l’analisi, unire o pulire dataset e creare grafici dalle informazioni sui file.
Interazioni con tabelle e grafici
ChatGPT ora consente agli utenti di interagire con le tabelle e i grafici che crea, espandendo la visualizzazione delle tabelle e personalizzando la visualizzazione dei dati, ad esempio cambiando i colori o facendo domande aggiuntive sulle celle. Attualmente, ChatGPT supporta grafici a barre, lineari, a torta e a dispersione per visualizzazioni interattive e genererà versioni statiche per i tipi di grafici che non supporta ancora.
Privacy e sicurezza dei dati
OpenAI ha ribadito che non addestrerà modelli di intelligenza artificiale con i dati caricati dagli utenti di ChatGPT Enterprise e Teams, e gli abbonati a ChatGPT Plus possono scegliere di non partecipare all’addestramento.
- Robotica1 settimana fa
Come controllare dei Robot morbidi ? MIT ha un’idea geniale
- Inchieste5 giorni fa
Melinda lascia la Bill Gates Foundation e ritira 12,5 Miliardi di Dollari
- L'Altra Bolla5 giorni fa
Discord celebra il nono compleanno con aggiornamenti e Giveaway
- Economia1 settimana fa
Chi sarà il successore di Tim Cook in Apple?
- Inchieste4 giorni fa
Terrore in Campania: dati sanitari di SynLab nel dark web
- Economia1 settimana fa
Ban in Germania per alcuni prodotti Motorola e Lenovo
- Economia1 settimana fa
Guerra dei Chip: gli USA colpiscono la ricerca cinese nella Entity List
- Smartphone6 giorni fa
Samsung Galaxy S25 Ultra avrà una Fotocamera rispetto all’S24