Categorie
Tech

Google nega di aver addestrato il chatbot Bard sui dati di Gmail privati

Tempo di lettura: 3 minuti. Il gigante della tecnologia smentisce le accuse di utilizzare dati privati per migliorare il proprio chatbot IA

Tempo di lettura: 3 minuti.

Google ha recentemente smentito le voci secondo cui il suo chatbot Bard sarebbe stato addestrato utilizzando testi provenienti da account Gmail privati. Un portavoce ha confermato a The Register che l’azienda non utilizza dati personali per migliorare le performance del chatbot.

La scoperta dell’origine dei dati di addestramento

Un ricercatore di intelligenza artificiale ha interrogato Bard sulla provenienza dei suoi dati di addestramento e ha scoperto che il chatbot menzionava dati interni di Gmail. Blake Lamoine, ex dipendente di Google licenziato per aver divulgato segreti aziendali e per aver sostenuto che il modello linguistico LaMDA fosse senziente, ha affermato che Bard fosse effettivamente addestrato sui testi di Gmail.

La risposta di Google In seguito a queste accuse, Google ha rilasciato una dichiarazione sostenendo che Bard, come tutti i modelli linguistici di grandi dimensioni, può a volte generare risposte inaccurate o fuorvianti, ma che l’azienda non utilizza dati personali da Gmail o altre applicazioni private per migliorare il chatbot.

L’arrivo di Bard e la concorrenza con Bing Google ha lanciato Bard questa settimana, invitando gli utenti negli Stati Uniti e nel Regno Unito a unirsi alla lista d’attesa per provare il chatbot. Finora, Bard non sembra generare testi tanto incoerenti quanto quelli prodotti da Bing di Microsoft, ma può ancora rispondere a richieste inappropriate e inventare informazioni false.

L’effetto sul traffico web di Bing e Google

Il lancio del chatbot alimentato da GPT-4 di Microsoft ha portato ad un aumento del 15,8% delle visite al sito di Bing. Nel frattempo, Google è rimasta indietro, lanciando Bard soltanto questa settimana. Questo vantaggio iniziale ha dato un impulso al traffico web di Microsoft, che ora cerca di mantenere la crescita e attirare gli utenti di Google.

Le limitazioni dei modelli linguistici di grandi dimensioni I modelli linguistici di grandi dimensioni, come ChatGPT, si dimostrano incapaci di superare esami come quelli per analisti finanziari certificati, in quanto non riescono a distinguere tra fatti e finzione e non sono in grado di ragionare. Tuttavia, il modello GPT-4 di OpenAI potrebbe comportarsi meglio, avendo superato esami come quello per l’iscrizione all’albo degli avvocati e altri test simili.

Databricks e il modello linguistico Dolly

Databricks ha creato un modello linguistico di grandi dimensioni chiamato Dolly, che è una sorta di clone dei modelli più recenti Alpaca e del più vecchio GPT-J. Il team di Databricks sostiene che chiunque possa dare a un modello linguistico datato capacità simili a ChatGPT, addestrandolo in soli 30 minuti su una macchina, utilizzando dati di addestramento di alta qualità.

Benchmark e valutazione dei modelli IA

Due ricercatori dell’Università di Princeton hanno avvertito che l’utilizzo di domande d’esame per valutare le performance dei modelli linguistici potrebbe non essere il metodo migliore. I modelli potrebbero aver già memorizzato le risposte alle domande se sono presenti nei loro dati di addestramento. I benchmark sono spesso criticati per ridurre una valutazione multidimensionale a un singolo numero e, quando utilizzati per confrontare esseri umani e bot, possono produrre disinformazione.

L’IA nella sceneggiatura cinematografica

La Writers Guild of America, un sindacato che rappresenta sceneggiatori di film e serie TV, sostiene l’uso di strumenti IA per creare sceneggiature. Gli scrittori dovrebbero essere autorizzati a utilizzare software di testo generativo per produrre sceneggiature, con gli esseri umani che ricevono il pieno merito del lavoro svolto. L’intelligenza artificiale potrebbe essere utilizzata per generare trame o dialoghi che verrebbero poi modificati dagli scrittori o per ispirare il loro lavoro creativo.

Proposta della WGA per l’uso dell’IA nella scrittura

Secondo una proposta della WGA, i testi generati dall’IA non saranno classificati come “materiale letterario” o “materiale di origine”. In questo modo, gli studi televisivi e cinematografici non dovranno preoccuparsi di questioni di accreditamento e di possibili compensi alle aziende che hanno sviluppato il software utilizzato per scrivere un manoscritto. Gli scrittori professionisti otterrebbero il pieno credito per il loro lavoro e riceverebbero una compensazione adeguata. Attualmente, la proposta è in discussione tra la WGA e l’Alliance of Motion Picture and Television Producers, un gruppo commerciale che rappresenta centinaia di studi televisivi e cinematografici negli Stati Uniti.

Di Livio Varriale

Giornalista e scrittore: le sue specializzazioni sono in Politica, Crimine Informatico, Comunicazione Istituzionale, Cultura e Trasformazione digitale. Autore del saggio sul Dark Web e il futuro della società digitale “La prigione dell’umanità” e di “Cultura digitale”. Appassionato di Osint e autore di diverse ricerche pubblicate da testate Nazionali. Attivista contro la pedopornografia online, il suo motto è “Coerenza, Costanza, CoScienza”.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version