Categorie
Notizie

Google introduce limitazioni per mantenere IA sotto controllo

Tempo di lettura: 2 minuti. Google si impegna ad implementare misure di sicurezza per prevenire l’abuso dell’Intelligenza Artificiale.

Tempo di lettura: 2 minuti.

All’evento Google I/O, gli esecutivi della società hanno discusso dell’introduzione di salvaguardie nei nuovi prodotti di Intelligenza Artificiale (IA) per assicurarsi che siano utilizzati in modo responsabile e non vengano abusati.

La necessità di guardrails nell’IA

Molti dirigenti, incluso il CEO di Google Sundar Pichai, hanno sollevato alcune preoccupazioni di sicurezza associate alle tecnologie avanzate di IA che emergono dai laboratori. La diffusione di informazioni false, deepfakes e testi o immagini offensivi generati dall’IA potrebbero essere enormemente dannosi se Google fosse responsabile del modello che ha creato questo contenuto, afferma James Sanders, analista principale di CCS Insight.

La sicurezza, nel contesto dell’IA, riguarda l’impatto dell’Intelligenza Artificiale sulla società. Gli interessi di Google per un’IA responsabile sono motivati, almeno in parte, dalla protezione della reputazione e dal desiderio di scoraggiare l’intervento dei regolatori.

Traduttore universale: potenziale e rischio

Ad esempio, il Traduttore Universale è una derivazione video dell’IA di Google Translate che può prendere un filmato di una persona che parla e tradurre il discorso in un’altra lingua. L’app potrebbe potenzialmente espandere l’audience del video a includere coloro che non parlano la lingua originale.

Tuttavia, la tecnologia potrebbe anche minare la fiducia nel materiale sorgente, dal momento che l’IA modifica il movimento delle labbra per far sembrare che la persona stesse parlando nella lingua tradotta, ha detto James Manyika, senior vice presidente di Google incaricato dello sviluppo responsabile dell’IA.

Configurare Guardrails Personalizzati

Diverse aziende stanno affrontando l’implementazione di guardrails per l’IA in modi differenti. Google è concentrata sul controllo dell’output generato dagli strumenti di intelligenza artificiale e sulla limitazione di chi può effettivamente utilizzare le tecnologie. Ad esempio, i Traduttori Universali sono disponibili a meno di 10 partner. ChatGPT è stata programmata per affermare che non può rispondere a certi tipi di domande se la domanda o la risposta potrebbero causare danni.

Nvidia ha NeMo Guardrails, un strumento open source per garantire che le risposte rientrino entro parametri specifici. La tecnologia previene anche all’IA l'”allucinazione”, cioè dare una risposta sicura che non è giustificata dai suoi dati di addestramento. Se il programma Nvidia rileva che la risposta non è pertinente entro parametri specifici, può rifiutarsi di rispondere alla domanda o inviare le informazioni ad un altro sistema per trovare risposte più pertinenti.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version