Tech
iOS 16: raggiunge l’81% pochi giorni prima dell’annuncio di iOS 17
Tempo di lettura: 2 minuti. Pochi giorni prima dell’atteso annuncio di iOS 17, Apple rivela che l’adozione di iOS 16 ha raggiunto l’81% tra gli utenti iPhone.
Mentre Apple si prepara a presentare la prossima grande aggiornamento del suo sistema operativo mobile al WWDC 2023, la società condivide dati significativi: l’81% degli utenti iPhone ha adottato iOS 16.
Distribuzione di iOS 16: Un grande successo
Secondo quanto riportato sul sito web degli sviluppatori Apple, l’81% di tutti i dispositivi iOS esegue iOS 16, rilasciato al pubblico a settembre 2022. Il 13% dei dispositivi utilizza ancora iOS 15, che continua a ricevere patch di sicurezza, mentre solo il 6% dei dispositivi esegue versioni più vecchie del sistema operativo. Quando si tratta di iPad, il 71% di tutti gli iPad utilizza iPadOS 16, mentre il 20% esegue iPadOS 15 e il 9% versioni precedenti del sistema operativo.
Apple fornisce anche dati filtrati per i dispositivi rilasciati negli ultimi quattro anni. iOS 16 è installato sul 90% degli iPhone 11 e successivi, e solo il 2% di questi dispositivi non è stato aggiornato a iOS 15 o iOS 16. iPadOS 16 è eseguito sul 76% degli iPad rilasciati negli ultimi quattro anni, e solo il 6% di questi modelli esegue ancora software precedenti a iPadOS 15.
Confronto con Android: iOS ha un vantaggio visibile
iOS sembra avere un netto vantaggio rispetto ad Android per quanto riguarda l’adozione delle versioni del sistema operativo. Android è molto più frammentato poiché il sistema operativo è installato su un’ampia varietà di dispositivi prodotti da diversi costruttori. L’ultima versione, Android 13, è installata solo sul 12% di tutti i dispositivi Android. La maggior parte dei dispositivi esegue ancora Android 11, rilasciato nel 2020.
Per gli sviluppatori, ciò significa che possono concentrarsi sull’aggiunta di nuove funzionalità alle loro app senza preoccuparsi che la maggior parte degli utenti non le riceva. Avere gli ultimi aggiornamenti installati è anche importante a causa delle patch di sicurezza. Naturalmente, per Google è difficile garantire che la maggior parte degli utenti riceva questi aggiornamenti, dato che l’azienda ha poco o nessun controllo sui dispositivi di terze parti che eseguono Android.
Tech
Samsung Galaxy S24 FE avrà un display più grande?
Tempo di lettura: 2 minuti. Samsung Galaxy S24 FE: display da 6.7 pollici più grande nella storia della serie e prestazioni flagship a un prezzo più accessibile.
Il Samsung Galaxy S24 FE sta suscitando grande interesse con il possibile cambiamento radicale nella dimensione del suo display. Secondo recenti rapporti trapelati da Weibo, il nuovo modello FE sarà caratterizzato da uno schermo più grande, segnando una significativa deviazione dalle versioni precedenti della serie FE.
Cambiamenti nel Display
A differenza del Galaxy S23 FE, che aveva uno schermo da 6.1 pollici, il Galaxy S24 FE potrebbe vantare un display da 6.7 pollici. Questo lo renderebbe il dispositivo FE più grande mai rilasciato da Samsung, offrendo un’esperienza visiva simile a quella di un Galaxy S24 Plus ma a un prezzo più accessibile.
Specifiche tecniche
Le specifiche tecniche del Galaxy S24 FE includono potenzialmente un chipset Snapdragon 8 Gen 3 o un Exynos 2400, a seconda della regione di vendita. Questi potenti processori sono gli stessi utilizzati nella lineup S24 attuale, suggerendo che il S24 FE potrebbe offrire prestazioni paragonabili ai modelli di punta a un costo inferiore. Inoltre, il telefono potrebbe arrivare con 12GB di RAM LPDDR5X e fino a 256GB di memoria interna UFS 4.0, assicurando velocità e capacità di storage eccellenti.
Capacità della Batteria
Nonostante l’aumento delle dimensioni dello schermo, il Galaxy S24 FE dovrebbe mantenere una batteria competitiva con una capacità di 4500 mAh. Questo dovrebbe garantire una buona durata della batteria, rendendolo adeguato per l’uso quotidiano senza frequenti ricariche.
Considerazioni sul Mercato
L’aumento delle dimensioni dello schermo del Galaxy S24 FE potrebbe attrarre una nuova fascia di consumatori interessati a dispositivi più grandi ma che sono costretti a considerare alternative più economiche rispetto ai modelli flagship. Tuttavia, questo cambiamento potrebbe anche alienare alcuni fan della serie FE che preferiscono dispositivi più compatti.
Il Samsung Galaxy S24 FE sembra pronto a rompere la tradizione della serie FE con un display significativamente più grande. Questa mossa potrebbe sia espandere il suo appeal che sfidare le aspettative esistenti, posizionandolo come una scelta intrigante per i consumatori alla ricerca di un equilibrio tra funzionalità premium e accessibilità.
Tech
Benvenuto Meta Llama 3: le reazioni di Nvidia, Amazon e Google
Tempo di lettura: 4 minuti. Meta Llama 3 è ora disponibile su Google Cloud Vertex AI e Amazon SageMaker JumpStart, offrendo avanzate capacità di personalizzazione e accelerazione dell’inferenza grazie alle ottimizzazioni NVIDIA.
Meta Llama 3, il potente modello di linguaggio di Meta, è ora disponibile su più piattaforme cloud, rendendolo accessibile agli sviluppatori di tutto il mondo per una vasta gamma di applicazioni AI: ecco le reazioni di Google, Amazon ed NVIDIA al nuovo arrivato in casa Zuckerberg.
Matrice Digitale l’ha già provato nonostante non sia ancora disponibile in italia
Google Cloud Vertex AI
Google Cloud ha annunciato l’integrazione di Meta Llama 3 nel suo Vertex AI, offrendo agli sviluppatori strumenti avanzati per personalizzare il modello con i propri dati. Questa integrazione permette di affinare il modello utilizzando tecniche di tuning supervisionate e rinforzo attraverso feedback umano. Gli sviluppatori possono anche valutare i modelli affinati direttamente in Model Garden di Vertex AI o utilizzare lo strumento di valutazione comparativa, Auto SxS. Con supporto per hardware all’avanguardia, come TPU e GPU, Google Cloud Vertex AI facilita l’ottimizzazione e il deployment di Llama 3 per casi d’uso specifici.
Amazon SageMaker JumpStart
Parallelamente, Amazon ha reso disponibili i modelli Llama 3 attraverso SageMaker JumpStart, permettendo di deployare e eseguire inferenze facilmente. Con opzioni di due dimensioni di modello, 8B e 70B, Llama 3 supporta una vasta gamma di casi d’uso, migliorando capacità di ragionamento, generazione di codice e seguimento di istruzioni. Gli sviluppatori possono utilizzare SageMaker per deployare i modelli in ambienti isolati di rete e personalizzarli per addestramenti e deployment specifici, mantenendo la sicurezza dei dati sotto il controllo VPC.
Disponibilità su Amazon SageMaker JumpStart
Amazon SageMaker JumpStart facilita il deployment e l’utilizzo dei modelli di Meta Llama 3, rendendoli accessibili attraverso un ambiente di rete isolato e sicuro. Con due varianti del modello, da 8B e 70B, Llama 3 è ideale per una vasta gamma di applicazioni, dalle task di ragionamento e generazione di codice fino al seguire istruzioni complesse.
Caratteristiche e Funzionalità
L’architettura di Llama 3 si basa su un transformer decoder-only con un nuovo tokenizer che migliora la performance del modello. Le caratteristiche include:
- Flessibilità: I modelli possono essere addestrati con tecniche di fine-tuning per adattarsi a specifici dati e necessità.
- Valutazione e personalizzazione: Con SageMaker, gli sviluppatori possono personalizzare e valutare i modelli affinati direttamente all’interno dell’ambiente SageMaker, utilizzando strumenti come SageMaker Pipelines e Debugger.
- Sicurezza dei dati: Il deployment sotto i controlli VPC di AWS garantisce che i dati restino protetti durante l’uso dei modelli.
Implementazione e Utilizzo
Il deployment di Llama 3 attraverso SageMaker JumpStart è semplice e intuitivo, offrendo agli utenti la possibilità di sviluppare i modelli con pochi clic. Inoltre, gli sviluppatori possono sfruttare notebook di esempio per guidarli attraverso l’intero processo di deployment e inferenza.
Regioni AWS Disponibili
I modelli Llama 3 sono disponibili per il deployment in SageMaker Studio nelle regioni AWS di N. Virginia, Ohio, Oregon, Irlanda e Tokyo, assicurando così una vasta copertura geografica e prestazioni ottimali.
NVIDIA e l’Accelerazione dell’Inferenza
NVIDIA ha ottimizzato Llama 3 per accelerare l’inferenza su tutte le sue piattaforme hardware. Grazie al supporto per le GPU NVIDIA H100 Tensor Core, Llama 3 può essere eseguito in modo efficiente su cloud, data center, dispositivi edge e PC. Queste ottimizzazioni permettono a Llama 3 di supportare un maggior numero di utenti simultaneamente, rendendolo ideale per applicazioni che richiedono alta scalabilità e bassa latenza.
Dettagli sulle Ottimizzazioni
Meta Llama 3 è stato addestrato su un cluster di computer che incorpora 24,576 GPU NVIDIA H100 Tensor Core, connesse attraverso una rete NVIDIA Quantum-2 InfiniBand. Questo imponente hardware ha permesso a Meta di ottimizzare la rete, il software e le architetture dei modelli per il loro modello di linguaggio di punta, Llama 3.
Applicazioni Pratiche di Llama 3
Le versioni di Llama 3, accelerate su GPU NVIDIA, sono ora disponibili per l’uso nel cloud, nei data center, al bordo della rete e sui PC. Gli sviluppatori possono accedere a Llama 3 tramite un microservizio NVIDIA NIM con un’API standard, che può essere distribuito ovunque. Inoltre, le aziende possono personalizzare Llama 3 con i loro dati utilizzando il framework open source NVIDIA NeMo, parte della piattaforma NVIDIA AI Enterprise.
Performance e Utilizzo
Le pratiche ottimali per il deployment di un LLM per un chatbot prevedono un equilibrio tra bassa latenza, buona velocità di lettura e uso ottimale della GPU per ridurre i costi. Per esempio, un singolo GPU NVIDIA H200 Tensor Core può generare circa 3,000 token al secondo, sufficienti per servire circa 300 utenti simultanei. Un server NVIDIA HGX con otto GPU H200 può quindi fornire 24,000 token al secondo, supportando più di 2,400 utenti contemporaneamente.
Impatto sui Dispositivi Edge
Per i dispositivi edge, la versione di Llama 3 con otto miliardi di parametri ha generato fino a 40 token al secondo su Jetson AGX Orin e 15 token al secondo su Jetson Orin Nano. Questo mostra il potenziale di Llama 3 di operare efficacemente anche in ambienti con risorse limitate.
L’accessibilità di Meta Llama 3 su piattaforme come Google Cloud Vertex AI e Amazon SageMaker JumpStart, insieme alle ottimizzazioni di NVIDIA, apre nuove possibilità per l’implementazione di AI generativa. Gli sviluppatori hanno ora gli strumenti e le risorse necessarie per integrare capacità di AI avanzate nei loro prodotti e servizi, spingendo ulteriormente i confini dell’innovazione nel campo dell’intelligenza artificiale.
Tech
Clonezilla Live aggiornato contro Backdoor XZ e con Linux 6.7
Tempo di lettura: 2 minuti. Clonezilla Live 3.1.2-22 è ora disponibile con importanti aggiornamenti di sicurezza contro la backdoor XZ e miglioramenti di sistema con il nuovo kernel Linux 6.7.
Clonezilla Live, il sistema popolare per il cloning e l’imaging dei dischi, ha rilasciato una nuova versione che include importanti aggiornamenti di sicurezza e funzionalità. La versione 3.1.2-22 di Clonezilla Live si presenta con il kernel Linux 6.7 e implementa misure critiche per proteggere contro la recente vulnerabilità della backdoor XZ.
Dettagli dell’aggiornamento
L’aggiornamento più rilevante in Clonezilla Live 3.1.2-22 è la correzione della vulnerabilità legata alla backdoor XZ. Questa problematica di sicurezza, presente nella versione 5.6.0 degli xz-utils, permetteva agli attaccanti di compromettere i server SSH remotamente. Per mitigare il rischio, Clonezilla ha retrocesso gli xz-utils alla versione 5.4.5, che non è affetta da questa vulnerabilità.
Miglioramenti e funzionalità aggiuntive
Oltre alla correzione di sicurezza, Clonezilla Live 3.1.2-22 introduce una serie di miglioramenti e nuove funzionalità:
- Kernel aggiornato: Il passaggio al kernel Linux 6.7.9-2, proveniente dai repository di Debian Sid, migliora il supporto hardware e aumenta la stabilità generale del sistema.
- Strumenti aggiunti: Inclusione di strumenti come
powermgmt-base
epdsh
nel sistema live, oltre all’aggiornamento del pacchettoezio
alla versione 2.0.11. - Gestione dei log: Supporto aggiunto per la rotazione dei file di log relativi a Clonezilla e la ricezione di messaggi in un nuovo formato dai client.
- Miglioramenti vari: Correzioni di bug e aggiornamenti di configurazione per migliorare l’usabilità e la compatibilità.
Implicazioni e raccomandazioni
Questa versione di Clonezilla Live rappresenta un aggiornamento critico per tutti gli utenti che utilizzano il software per le loro attività di imaging e clonazione di dischi. È vivamente consigliato eliminare qualsiasi versione precedente del software e adottare la 3.1.2-22 per garantire la massima sicurezza e performance.
Con l’integrazione del nuovo kernel e la correzione della vulnerabilità degli xz-utils, Clonezilla Live 3.1.2-22 si posiziona come una scelta affidabile e sicura per gli utenti che necessitano di un potente strumento di clonazione e backup del disco. L’impegno continuo nello sviluppo e nel mantenimento della sicurezza dimostra l’importanza di rimanere aggiornati con le ultime versioni del software. Scaricalo qui
- Inchieste2 settimane fa
Lavender: come l’intelligenza artificiale ha aiutato Israele nell’uccidere innocenti in 20 secondi
- Inchieste2 settimane fa
Piracy Shield: calano i blocchi degli IP “innocenti” nell’attesa dell’Ecatombe
- Inchieste2 settimane fa
Piracy Shield: Capitanio (AGCom) risponde alla nostra inchiesta
- Notizie2 settimane fa
NIS2: webinar gratuito rivolto alle imprese in balia del provvedimento
- Economia2 settimane fa
Amazon, licenziamenti nell’unità di cloud computing
- Economia1 settimana fa
TSMC riceve 11,6 miliardi e produrrà chip negli Stati Uniti
- Notizie2 settimane fa
Post sull’Intelligenza Artificiale diffondono malware sui social
- Economia1 settimana fa
Tensioni USA-Cina per l’investimento in TSMC e intanto altri 6,6 miliardi per Samsung