Google AI Overview ha le allucinazioni: quale sarà il suo futuro?

di Michele Sesti matricedigitale.it
0 commenti 3 minuti di lettura
Google AI Overviews

Recentemente, Google ha implementato una nuova funzionalità chiamata AI Overview nelle ricerche, che mira a fornire risposte generate dall’intelligenza artificiale alle query degli utenti, ma tuttavia, questa funzione ha prodotto risultati variabili, con alcuni errori che vanno dal bizzarro al pericoloso con le allucinazioni già viste in altri modelli. Ecco un’analisi di questi problemi e delle risposte di Google.

Problemi di allucinazioni con AI Overview

Gli utenti hanno riscontrato che AI Overview, una funzione lanciata da Google per migliorare le risposte nelle ricerche, ha fornito consigli inaccurati e, in alcuni casi, pericolosi. Alcuni esempi includono:

  • Consigli di Cucina: Un utente che cercava di far aderire il formaggio alla pizza è stato consigliato di aggiungere colla (consiglio estratto da un vecchio post su Reddit).
  • Salute e Sicurezza: Un altro utente ha ricevuto il suggerimento di mangiare una piccola pietra al giorno, tratto da un articolo satirico di The Onion.
  • Dichiarare che il pollo deve essere cotto a soli 102 gradi Fahrenheit.Affermazioni errate come l’esistenza di un “fluido per frecce” o suggerire di aggiungere olio per spegnere un incendio causato dall’olio.
  • Rischi per la Salute: In un caso estremo, un utente ha ricevuto il consiglio di bere urina ogni 24 ore e di lasciare un cane in una macchina calda, entrambi pericolosi e inaccurati.
  • Negare l’esistenza di paesi in Africa che iniziano con la lettera “K”.

Questi esempi mostrano che AI Overview può interpretare erroneamente il contenuto di fonti non affidabili o satiriche, portando a risultati che possono essere non solo sbagliati, ma anche dannosi.

Risposta di Google

Un portavoce di Google ha dichiarato che l’azienda sta prendendo “azioni rapide” per correggere gli errori e utilizzare questi esempi per migliorare i loro sistemi. Google sostiene che la maggior parte delle risposte fornite da AI Overview sono di alta qualità e includono link per approfondire ulteriormente sul web. Tuttavia, ammette che molti errori sono derivati da query insolite o esempi manipolati.

Riconoscimento del Problema da Parte di Pichai

Nell’intervista, Pichai ha ammesso che le “allucinazioni” prodotte dalla funzione “AI Summary” sono “difetti intrinseci” nei grandi modelli di linguaggio (LLM) che costituiscono il nucleo di questa tecnologia. Ha dichiarato che, nonostante gli sforzi continui degli ingegneri di Google per affrontare le varie risposte strane e incorrette generate dalla funzione, il problema rimane irrisolto.

Pichai ha anche sottolineato che “solo perché la funzione AI Summary a volte sbaglia non significa che non sia utile”. Ha affermato che Google ha fatto progressi nel migliorare le metriche di accuratezza fattuale della funzione rispetto all’anno scorso e che l’industria nel suo complesso sta migliorando, sebbene il problema non sia ancora risolto.

Problemi di Accuratezza e Analisi

Il modello di AI di Google funziona sintetizzando i contenuti dai risultati principali della ricerca, ma non sempre verifica l’accuratezza delle informazioni. Questo può portare a situazioni in cui consigli pericolosi vengono presentati come risposte valide. La mancanza di analisi critica del contenuto da parte dell’AI è una delle principali critiche mosse contro AI Overview.

Impatto sul Web Aperto

Un altro punto critico è che l’AI Overview potrebbe minare il web aperto. Gli autori di contenuti accurati e investigativi potrebbero perdere incentivo a scrivere se le loro informazioni vengono semplicemente riassunte e presentate da AI, senza che gli utenti visitino effettivamente le loro pagine e su questo argomento Matrice Digitale è uscita con una inchiesta molto dura sul tema.

Prospettive Future

Google sta lavorando per migliorare AI Overview dalle allucinazioni, ma alcuni suggeriscono che la funzione dovrebbe essere temporaneamente rimossa fino a quando non sarà più affidabile. Il rischio di danni causati da informazioni sbagliate è troppo alto per essere ignorato.

Articoli correlati

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies