Sommario
Durante il Def Con 31 a Las Vegas, aziende tecnologiche di grande rilievo hanno permesso che i loro potenti sistemi venissero messi alla prova. L’obiettivo è testare la sicurezza dei grandi modelli linguistici, come ChatGPT di OpenAI e Bard di Google.
Una competizione per identificare problemi nei sistemi IA
Dr. Rumman Chowdhury, CEO di Humane Intelligence e Responsible AI Fellow presso Harvard, è uno degli organizzatori dell’evento. Ha rivelato che l’obiettivo della competizione è identificare problemi nei sistemi IA e creare una valutazione indipendente. L’evento rappresenta un’occasione per le aziende di discutere dei loro problemi e trovare soluzioni.
Come funziona la competizione?
Si stima che, nel corso di due giorni e mezzo, 3.000 persone lavoreranno individualmente su 158 laptop, avendo ciascuna 50 minuti per cercare difetti in otto grandi modelli linguistici IA. I partecipanti non sapranno con quale modello stanno lavorando, ma potrebbero essere in grado di indovinarlo. Chi accumula più punti vince.
L’importanza della sicurezza nei modelli linguistici
Dr. Seraphina Goldfarb-Tarrant, responsabile della sicurezza IA presso Cohere, sottolinea che, sebbene si sappia che i modelli possono inventare fatti, non è chiaro quanto spesso ciò accada. La coerenza dei modelli verrà anche messa alla prova, in particolare riguardo al loro funzionamento in diverse lingue.
Il sostegno della Casa Bianca e le preoccupazioni future
La Casa Bianca sostiene l’evento, sperando di ottenere informazioni cruciali sulle implicazioni di questi modelli. La rapida evoluzione di questi strumenti ha sollevato preoccupazioni sulla diffusione di disinformazione, in particolare in vista delle prossime elezioni presidenziali negli Stati Uniti.
Cosa succederà dopo la competizione?
Dopo la competizione, le aziende potranno esaminare i dati raccolti e rispondere a eventuali difetti evidenziati. I ricercatori indipendenti potranno richiedere l’accesso ai dati, e i risultati dell’esercizio saranno pubblicati il prossimo febbraio.