Intelligenza Artificiale
Microsoft trasforma tutti in “Ingegneri dei Prompt” con Copilot Microsoft 365
Tempo di lettura: 2 minuti. Copilot di Microsoft 365 mira a trasformare ogni utente in un “ingegnere dei prompt”, migliorando l’uso dell’IA nelle app di Office.
Microsoft sta introducendo nuove funzionalità per Copilot, il servizio a pagamento che aggiunge un assistente AI alle app di Office, progettato per aiutare gli utenti a creare prompt migliori per l’IA generativa. Tra le nuove aggiunte ci sono funzionalità di auto-completamento dei prompt e di riscrittura, previste per i prossimi mesi.
Dettagli delle funzionalità
Auto-Completamento dei Prompt: Quando inizi a creare un prompt, Copilot offrirà presto di completarlo con dettagli aggiuntivi per migliorare i risultati finali di ciò che stai generando o delle domande che stai ponendo. Ad esempio, se inizi a digitare “riassumi”, Copilot potrebbe suggerire di riassumere le ultime 10 email non lette nella tua casella di posta.
Riscrittura dei Prompt: Copilot includerà una nuova funzione chiamata “elabora il tuo prompt” che riscriverà qualsiasi prompt tu crei, aiutando a ottenere il massimo dall’azione desiderata su un file, anche quando non sei completamente sicuro del livello di dettaglio necessario.
Implementazione nelle imprese
Copilot per Microsoft 365 includerà anche una nuova interfaccia chat “Catch Up” che evidenzierà prossimi incontri e mostrerà documenti e altre informazioni rilevanti che ti aiuteranno a prepararti per l’incontro. Inoltre, gli abbonati potranno creare, pubblicare e gestire prompt nel Copilot Lab, personalizzabili per singoli team aziendali, facilitando la condivisione di prompt utili tra i colleghi.
Contesto e impatto
Queste funzionalità sono state rivelate insieme all’ultimo Work Trend Index annuale di Microsoft, un rapporto congiunto tra Microsoft e LinkedIn sullo stato dell’IA sul lavoro. Microsoft sostiene che il 75% delle persone sta già utilizzando l’IA sul lavoro e che il 78% degli utilizzatori di IA porta i propri strumenti di IA al lavoro, invece di aspettare che le organizzazioni distribuiscano gli strumenti.
Considerazioni Finali
Con queste innovazioni, Microsoft si posiziona come leader nell’evoluzione del posto di lavoro moderno, sottolineando l’importanza crescente dell’IA in contesti professionali e il suo impegno a rendere queste tecnologie accessibili e utili per una vasta gamma di utenti. Queste novità riflettono l’impegno continuo di Microsoft nel fornire strumenti che potenziano l’utente nel manipolare e sfruttare l’IA per ottimizzare il lavoro e la produttività quotidiana.
Intelligenza Artificiale
Perché l’analisi del sentiment necessita di rilevare il sarcasmo?
Tempo di lettura: 2 minuti. Scopri come un nuovo algoritmo multimodale sviluppato dall’Università di Groningen migliora il rilevamento del sarcasmo, integrando analisi del testo, riconoscimento delle emozioni e emoticon.
Oscar Wilde una volta disse che il sarcasmo è la forma più bassa di spirito, ma la più alta forma di intelligenza; nessun algoritmo però vi è arrivato a riconoscerlo. Questa affermazione riflette la complessità nell’uso e nella comprensione del sarcasmo, noto per essere difficile da trasmettere correttamente anche di persona, e ancor più tramite testo. Le sottili variazioni di tono che indicano il sarcasmo possono facilmente confondere sia gli esseri umani che gli algoritmi informatici, limitando l’efficacia degli assistenti virtuali e degli strumenti di analisi dei contenuti.
Nuovo approccio multimodale per il rilevamento del sarcasmo
Xiyuan Gao, Shekhar Nayak e Matt Coler del Laboratorio di Tecnologia del Parlato presso l’Università di Groningen, Campus Fryslân, hanno sviluppato un algoritmo multimodale per migliorare il rilevamento del sarcasmo, analizzando vari aspetti delle registrazioni audio per aumentare la precisione. Gao ha presentato il loro lavoro il 16 maggio 2024, come parte di una riunione congiunta della Società Acustica d’America e dell’Associazione Acustica Canadese.
Caratteristiche dell’algoritmo
L’algoritmo si basa su due approcci complementari: l’analisi del sentimento utilizzando il testo e il riconoscimento delle emozioni tramite l’audio. Questo metodo integrato permette di ottenere una visione più completa del sarcasmo espresso nel parlato umano.
- Parametri acustici: Il team ha estratto parametri come tono, velocità del parlato ed energia dal discorso.
- Trascrizione del parlato: Utilizzando il riconoscimento automatico del parlato, il discorso è stato trascritto in testo per l’analisi del sentimento.
- Integrazione degli emoticon: Ad ogni segmento del discorso sono stati assegnati emoticon che riflettono il contenuto emotivo.
Combinando questi segnali multimodali in un algoritmo di machine learning, l’approccio sfrutta i punti di forza delle informazioni uditive e testuali insieme agli emoticon per un’analisi completa.Fonte: Acoustics.org
Potenziali miglioramenti e applicazioni future
Il team è ottimista riguardo alle prestazioni dell’algoritmo, ma sta già cercando modi per migliorarlo ulteriormente. Gao ha sottolineato l’importanza di integrare meglio le espressioni e i gesti che evidenziano gli elementi sarcastici nel parlato e l’obiettivo di includere più lingue e adottare tecniche emergenti di riconoscimento del sarcasmo.
Questo approccio può essere utilizzato non solo per identificare il sarcasmo, ma anche in molti altri campi:
- Analisi del sentiment: Tradizionalmente focalizzata sul testo, può beneficiare del riconoscimento del sarcasmo per applicazioni come la rilevazione di discorsi di odio online e l’estrazione delle opinioni dei clienti.
- Riconoscimento delle emozioni: Basato sul parlato, può essere applicato all’assistenza sanitaria assistita dall’intelligenza artificiale.
Intelligenza Artificiale
Android 15 integra Gemini AI: nuove funzionalità e miglioramenti
Tempo di lettura: 2 minuti. Google integra Gemini AI in Android 15, con nuove funzionalità di ricerca, assistente contestuale e miglioramenti on-device per privacy e efficienza
Google ha annunciato una serie di nuove funzionalità AI integrate nel sistema operativo Android 15, offrendo uno sguardo su cosa dovrà competere il sistema operativo dell’iPhone di Apple entro la fine dell’anno. Android 15 è stato progettato con l’IA al suo centro, e Gemini rappresenta una parte fondamentale dell’esperienza Android a livello di sistema.
Caratteristiche principali di Gemini AI su Android 15
Barra di ricerca AI e Circle to Search
Una delle nuove funzionalità è una barra di ricerca alimentata dall’IA che può essere utilizzata per rispondere a domande e cercare informazioni. La funzione Circle to Search permette di risolvere problemi di matematica e fisica o di ottenere aiuto con i compiti.
Assistente AI contestuale
Gemini serve come assistente AI su Android, sostituendo Google Assistant. Questo assistente può essere richiamato come overlay su qualsiasi app in uso, offrendo supporto contestuale in tempo reale. Può creare immagini per testi e social media, rispondere a domande su video in riproduzione, interpretare PDF, siti web e altri contenuti, fornendo riassunti e traduzioni.
Privacy e elaborazione on-device
Google utilizza l’IA on-device per alcune funzionalità al fine di mantenere i dati sensibili privati, simile alla strategia di Apple. Gemini Nano, l’IA on-device di Google, genera risposte intelligenti nelle app di messaggistica e riassume memo vocali. Gemini Nano con Multimodalità arriverà sui telefoni Pixel entro la fine dell’anno, introducendo nuove funzionalità come TalkBack per aiutare utenti ciechi e ipovedenti a interpretare meglio il mondo circostante. Un’altra funzione in sviluppo è lo screening delle chiamate, che ascolta attivamente le chiamate e avvisa gli utenti se sembrano truffe.
Modelli Gemini 1.5 Flash e Pro
Google ha anche annunciato Gemini 1.5 Flash, una versione leggera del modello AI Gemini Pro. Gemini Flash è più efficiente, meno costoso e ha una latenza inferiore, ideale per distribuzioni su larga scala. Questo modello eccelle in riassunti, applicazioni di chat, didascalie di immagini e video, e estrazione di dati da documenti lunghi.
Gemini 1.5 Pro è stato migliorato e può seguire istruzioni sempre più complesse e sfumate, inclusa l’interpretazione di documenti fino a 1.500 pagine o un’ora di contenuti video. Gli utenti possono interagire con Gemini in Google Messages, e gli abbonati a Gemini Advanced possono sperimentare una nuova esperienza conversazionale mobile.
Project Astra
Project Astra è un altro sforzo di Google che si concentra su agenti AI utili nella vita quotidiana. Durante una demo, Google ha mostrato prototipi di agenti in grado di identificare oggetti, fornire contesto sulle informazioni dalla fotocamera e richiamare una sequenza temporale di eventi per trovare un oggetto perso.
Prossimi annunci
Google fornirà ulteriori informazioni sulle nuove funzionalità in arrivo su Android 15 entro questa settimana.
Intelligenza Artificiale
Perchè Google ha chiamato la sua AI “Gemini”?
Tempo di lettura: 2 minuti. Google spiega l’origine del nome “Gemini” per le sue funzionalità AI, ispirato alla mitologia greca, alla costellazione dei Gemelli e al Project Gemini della NASA.
Dal Google I/O 2023, “Gemini” è diventato il nome che raggruppa tutte le funzionalità AI di Google. Questa settimana, Google ha ufficialmente spiegato l’origine del nome.
Origini e significato del nome “Gemini”
Inizialmente, il progetto aveva il nome provvisorio “Titan”, ispirato alla mitologia greca e alla luna più grande di Saturno. Tuttavia, Jeff Dean, co-leader tecnico di Gemini, non era un grande fan di questo nome, ma esso gli ha dato l’idea di un nome legato allo spazio.
Così, Google ha scelto “Gemini”, che in latino significa “gemelli”. In astronomia, Gemelli è una costellazione associata ai gemelli mitologici greci Castore e Polluce, i cui nomi sono stati dati alle sue due stelle più brillanti. Questo significato duplice si adattava perfettamente al modello AI di Google.
Il team di Google ha trovato che la personalità duale del segno zodiacale dei Gemelli, capace di adattarsi rapidamente, connettersi con un’ampia gamma di persone e vedere le cose da molteplici prospettive, fosse ideale per il momento in cui Google stava unendo i team di DeepMind e Google Research “Brain”.
L’importanza della collaborazione tra i team
Jeff Dean ha spiegato che lo sforzo di Gemini è nato dal desiderio di avvicinare i team che lavoravano sulla modellazione del linguaggio. La metafora dei gemelli rappresentava bene questa fusione: i membri del team legacy di Brain e di DeepMind hanno iniziato a lavorare insieme su questo ambizioso progetto multimodale.
Riferimento al Project Gemini della NASA
Il nome “Gemini” è anche un omaggio al Project Gemini della NASA, attivo dal 1965 al 1968, che ha testato tecnologie cruciali per il successo del programma Apollo. Oriol Vinyals, co-leader tecnico, ha trovato che l’enorme sforzo richiesto per l’addestramento dei modelli linguistici di grandi dimensioni risuonava con lo spirito dei lanci di razzi del Project Gemini.
Evoluzione e denominazione dei modelli
Google ha anche considerato di dare ai modelli nomi di stelle, ma attualmente i nomi utilizzati sono Nano, Flash, Pro e Ultra. L’intervista ha rivelato che la decisione di utilizzare “Gemini” anche come nome per le funzionalità AI visibili agli utenti è stata presa per trasmettere il continuo miglioramento, la creatività e l’innovazione che i team di ricerca di Google porteranno direttamente agli utenti.
- Robotica1 settimana fa
Come controllare dei Robot morbidi ? MIT ha un’idea geniale
- Inchieste6 giorni fa
Melinda lascia la Bill Gates Foundation e ritira 12,5 Miliardi di Dollari
- L'Altra Bolla6 giorni fa
Discord celebra il nono compleanno con aggiornamenti e Giveaway
- Inchieste5 giorni fa
Terrore in Campania: dati sanitari di SynLab nel dark web
- Economia1 settimana fa
Ban in Germania per alcuni prodotti Motorola e Lenovo
- Smartphone4 giorni fa
Samsung Galaxy S25 Ultra: Quattro fotocamere in Arrivo
- Smartphone7 giorni fa
Samsung Galaxy S25 Ultra avrà una Fotocamera rispetto all’S24
- Economia1 settimana fa
Guerra dei Chip: gli USA colpiscono la ricerca cinese nella Entity List