Economia
Cos’è l’Ingegneria dei Prompt? A cosa serve?
Tempo di lettura: 4 minuti. L’ingegneria dei prompt serve a ottimizzare modelli di linguaggio Natural Language Processing (NLP). Scopriamo cosa significa e come funziona.

L’ingegneria dei prompt è diventata un metodo potente per ottimizzare i modelli di linguaggio nel campo del Natural Language Processing (NLP). Consiste nella creazione di prompt efficaci, spesso definiti come istruzioni o domande, per guidare il comportamento e l’output dei modelli di intelligenza artificiale (IA). Grazie alla sua capacità di potenziare la funzionalità e la gestione dei modelli di linguaggio, l’ingegneria dei prompt ha attirato molta attenzione. In questo articolo, esploreremo il concetto di ingegneria dei prompt, la sua importanza e il suo funzionamento.
Comprendere l’ingegneria dei prompt
L’ingegneria dei prompt coinvolge la creazione di domande o istruzioni precise e informative che permettono agli utenti di ottenere output desiderati dai modelli di IA. Questi prompt servono come input precisi che guidano il comportamento della modellazione del linguaggio e la generazione di testo. Gli utenti possono modificare e controllare l’output dei modelli di IA strutturando attentamente i prompt, aumentandone così l’utilità e l’affidabilità.
Storia dell’ingegneria dei prompt
In risposta alla complessità e alle crescenti capacità dei modelli di linguaggio, l’ingegneria dei prompt è cambiata nel tempo. Sebbene l’ingegneria dei prompt non abbia una lunga storia, le sue fondamenta possono essere rintracciate nella ricerca iniziale sul NLP e nella creazione di modelli di linguaggio IA. Ecco una breve panoramica della storia dell’ingegneria dei prompt:
Era pre-transformer (prima del 2017)
L’ingegneria dei prompt era meno comune prima dello sviluppo di modelli basati su transformer come il generative pre-trained transformer (GPT) di OpenAI. Modelli di linguaggio precedenti come le reti neurali ricorrenti (RNN) e le reti neurali convoluzionali (CNN) mancano di conoscenza contestuale e adattabilità, limitando il potenziale per l’ingegneria dei prompt.
Pre-training e l’emergere dei transformer (2017)
L’introduzione dei transformer, in particolare con il paper “Attention Is All You Need” di Vaswani et al. nel 2017, ha rivoluzionato il campo del NLP. I transformer hanno reso possibile il pre-training di modelli di linguaggio su larga scala e insegnare loro come rappresentare parole e frasi nel contesto. Tuttavia, durante questo periodo, l’ingegneria dei prompt era ancora una tecnica relativamente inesplorata.
Fine-tuning e l’ascesa di GPT (2018)
Un punto di svolta importante per l’ingegneria dei prompt si è verificato con l’introduzione dei modelli GPT di OpenAI. I modelli GPT hanno dimostrato l’efficacia del pre-training e del fine-tuning su specifici task a valle. Per una varietà di scopi, ricercatori e professionisti hanno iniziato a utilizzare tecniche di ingegneria dei prompt per guidare il comportamento e l’output dei modelli GPT.
Avanzamenti nelle tecniche di ingegneria dei prompt (2018-presente)
Man mano che la comprensione dell’ingegneria dei prompt cresceva, i ricercatori hanno iniziato a sperimentare diversi approcci e strategie. Questo includeva la progettazione di prompt ricchi di contesto, l’uso di template basati su regole, l’inclusione di istruzioni di sistema o utente, e l’esplorazione di tecniche come il tuning del prefisso. L’obiettivo era migliorare il controllo, mitigare i bias e migliorare le prestazioni complessive dei modelli di linguaggio.
Contributi della comunità e esplorazione (2018-presente)
Man mano che l’ingegneria dei prompt guadagnava popolarità tra gli esperti di NLP, accademici e programmatori hanno iniziato a scambiarsi idee, lezioni apprese e migliori pratiche. I forum di discussione online, le pubblicazioni accademiche e le librerie open-source hanno contribuito in modo significativo allo sviluppo dei metodi di ingegneria dei prompt.
Ricerca in corso e direzioni future (presente e oltre)
L’ingegneria dei prompt continua ad essere un’area attiva di ricerca e sviluppo. I ricercatori stanno esplorando modi per rendere l’ingegneria dei prompt più efficace, interpretabile e user-friendly. Tecniche come le ricompense basate su regole, i modelli di ricompensa e gli approcci con l’uomo nel ciclo vengono indagati per affinare le strategie di ingegneria dei prompt.
Significato
L’ingegneria dei prompt è essenziale per migliorare l’usabilità e l’interpretabilità dei sistemi di IA. Ha una serie di benefici, tra cui:
Controllo migliorato
Gli utenti possono dirigere il modello di linguaggio per generare risposte desiderate dando istruzioni chiare attraverso i prompt. Questo grado di supervisione può aiutare a garantire che i modelli di IA forniscono risultati che rispettano gli standard o i requisiti prestabiliti.
Riduzione del bias nei sistemi di IA
L’ingegneria dei prompt può essere utilizzata come strumento per ridurre il bias nei sistemi di IA. I bias nel testo generato possono essere individuati e ridotti progettando attentamente i prompt, portando a risultati più giusti ed equi.
Modifica del comportamento del modello
I modelli di linguaggio possono essere modificati per mostrare comportamenti desiderati utilizzando l’ingegneria dei prompt. Di conseguenza, i sistemi di IA possono diventare esperti in compiti o domini specifici, migliorando la loro precisione e affidabilità in particolari casi d’uso.
Come funziona l’ingegneria dei prompt
L’ingegneria dei prompt utilizza un processo metodico per creare prompt potenti. Ecco alcune azioni cruciali:
Specificare il compito
Stabilire l’obiettivo preciso o l’obiettivo che si desidera che il modello di linguaggio raggiunga. Qualsiasi compito di NLP, tra cui il completamento del testo, la traduzione e il riassunto, può essere coinvolto.
Identificare gli input e gli output
Definire chiaramente gli input richiesti dal modello di linguaggio e gli output desiderati che ci si aspetta dal sistema.
Creare prompt informativi
Creare prompt che comunicano chiaramente il comportamento atteso al modello. Queste domande dovrebbero essere chiare, brevi e appropriate per lo scopo dato. Trovare i migliori prompt può richiedere tentativi ed errori e revisioni.
Iterare e valutare
Mettere alla prova i prompt creati alimentandoli nel modello di linguaggio e valutando i risultati. Rivedere i risultati, cercare difetti e modificare le istruzioni per migliorare le prestazioni.
Calibrazione e fine-tuning
Tenere conto dei risultati della valutazione durante la calibrazione e il fine-tuning dei prompt. Questa procedura comporta apportare piccole modifiche per ottenere il comportamento del modello richiesto, assicurando che si allinei con il compito e i requisiti previsti.
Economia
Lugano, Bitcoin e USDT per pagamenti fiscali

La città di Lugano, in Svizzera, ha annunciato di accettare Bitcoin e Tether (USDT) come opzioni di pagamento per le tasse e altri servizi comunali. I residenti e le imprese di Lugano possono ora utilizzare entrambe le valute per pagare qualsiasi fattura emessa dalla città, attraverso un processo semplificato abilitato dalla società svizzera di criptovalute Bitcoin Suisse.
Dettagli dell’iniziativa di Lugano
Questa mossa fa parte del “Piano B” di Lugano, una collaborazione con Tether per trasformare l’infrastruttura finanziaria della città utilizzando la tecnologia Bitcoin. Il Piano B mira ad integrare soluzioni blockchain nelle operazioni comunali quotidiane. Oltre all’espansione dei pagamenti in criptovaluta annunciata oggi, Lugano intende introdurre i pagamenti in cripto in altre aree della vita civica.
Supporto Tecnico da Bitcoin Suisse
Bitcoin Suisse supporta l’adozione di pagamenti in criptovaluta da parte di Lugano fornendo la struttura tecnica per accettare Bitcoin e Tether. Sfruttando la tecnologia Swiss QR-Bill, il sistema consente ai residenti di Lugano di scansionare semplicemente un codice sulla loro fattura e pagare l’importo desiderato con il loro portafoglio cripto mobile preferito.
Iniziative Precedenti in Svizzera
Il mese scorso, Polygon ha annunciato un’app di pagamento chiamata MyLugano che consentirà ai residenti di Lugano di pagare tasse, multe di parcheggio e servizi pubblici utilizzando criptovalute. Nel 2021, il cantone della ‘valle delle cripto’ di Zug, in Svizzera, ha iniziato ad accettare Bitcoin ed ETH per i pagamenti delle tasse dopo essersi associato con la società locale Bitcoin Suisse per convertire i pagamenti delle tasse in criptovalute in franchi svizzeri.
Economia
Perchè c’è un’altra causa legale contro Elon Musk?

Alan Rosa, ex dirigente della sicurezza di Twitter, ha intentato una causa contro Elon Musk e X Corp., sostenendo di essere stato licenziato illegalmente per aver obiettato ai tagli di bilancio attuati poco dopo l’acquisto del social network da parte di Musk.
Dettagli della causa
Rosa, che è stato licenziato il 6 dicembre 2022, era il capo della Global Information Technology e Information Security di Twitter e lavorava principalmente da remoto dal New Jersey. Secondo la causa, presentata presso il Tribunale Distrettuale degli Stati Uniti per il Distretto del New Jersey, Twitter ha rifiutato di pagare la sua parte delle spese di arbitrato nonostante fosse stato ordinato da JAMS (Judicial Arbitration and Mediation Services) di farlo.
Preoccupazioni per la Conformità FTC
Rosa era preoccupato che i tagli al personale di Twitter potessero influenzare la conformità dell’azienda con un decreto di consenso del 2022 emesso dalla Federal Trade Commission (FTC). La causa afferma che Musk era costantemente disinteressato al decreto di consenso FTC e alle obbligazioni di Twitter sotto di esso. La FTC sta attualmente indagando se il social network di proprietà di Musk, ora ufficialmente chiamato X, stia rispettando i requisiti di privacy e sicurezza del regolamento.
Allegazioni di Rosa
Rosa sostiene di essere stato licenziato in rappresaglia per aver obiettato alle attività dei difensori che riteneva illegali. Afferma inoltre che Twitter inizialmente gli aveva promesso un pacchetto di liquidazione insieme al suo bonus e alla compensazione azionaria, ma in seguito ha ritirato la promessa, sostenendo che il suo pacchetto di liquidazione era in attesa a causa di un’indagine sul suo comportamento durante l’impiego.
Richieste di Rosa
La causa di Rosa include accuse di violazione del contratto, licenziamento illegittimo, terminazione illegale secondo l’Atto di Protezione dei Dipendenti Coscienziosi del New Jersey, rappresaglia, violazioni delle leggi sul lavoro di New York e California e violazione del Worker Adjustment and Retraining Notification (WARN) Act. Rosa chiede un processo con giuria e cerca danni compensativi, punitivi e per sofferenza emotiva.
Economia
Regno Unito, Microsoft e OpenAI rischiano?

L’Autorità di Concorrenza e Mercati (CMA) del Regno Unito sta esaminando la partnership di alto valore tra Microsoft e OpenAI, per valutare se possa essere considerata una fusione. Questa indagine segue le recenti turbolenze all’interno di OpenAI, nota per essere la creatrice di ChatGPT.
Cambiamenti e Confusione in OpenAI
Il mese scorso, OpenAI ha subito un periodo di caos quando il suo capo, Sam Altman, è stato improvvisamente licenziato. Dopo il licenziamento di Altman, Microsoft gli ha offerto un lavoro alla guida di un nuovo team di ricerca avanzata sull’IA, prima che fosse reintegrato in OpenAI a seguito di un appello dei dipendenti. Questi eventi hanno messo in luce come la concorrenza commerciale stia plasmando lo sviluppo dei sistemi di intelligenza artificiale e la velocità con cui la tecnologia sta avanzando.
Indagine della CMA
La CMA sta valutando se la partnership abbia comportato un “acquisizione di controllo”, se sia avvenuta una fusione effettiva e se ciò possa influenzare la concorrenza nel Regno Unito. L’organismo ha chiesto commenti a terze parti sulla collaborazione e potrebbe avviare un’indagine se lo ritiene necessario.
Risposta di Microsoft e OpenAI
In risposta all’annuncio, Microsoft ha affermato che la sua partnership con OpenAI ha “favorito maggiore innovazione e concorrenza nell’IA”. Brad Smith, vicepresidente e presidente di Microsoft, ha aggiunto che l’unica cosa cambiata è che ora avranno un osservatore non votante nel consiglio di amministrazione di OpenAI. Microsoft ha anche contestato le notizie secondo cui possiede una quota in OpenAI, affermando che i dettagli dell’accordo sono confidenziali, ma ha diritto a una quota degli utili.

Un portavoce di OpenAI ha dichiarato: “La nostra partnership con Microsoft ci consente di perseguire la nostra ricerca e sviluppare strumenti di IA sicuri e vantaggiosi per tutti, rimanendo indipendenti e operando in modo competitivo.”
Sicurezza dell’IA e Futuro
Smith ha negato che il recente dramma in OpenAI fosse dovuto a preoccupazioni sulla sicurezza della tecnologia in sviluppo. Ha affermato che le paure che l’IA possa superare gli umani nel prossimo anno sono infondate e che ci vorranno anni, se non decenni, per vedere un’intelligenza artificiale generale dove i computer sono più potenti delle persone.
Fondi Significativi e Missione di OpenAI
Altman, co-fondatore di OpenAI, è diventato il volto del rivoluzionario chatbot ChatGPT dopo il suo lancio lo scorso anno. Ha ottenuto un significativo aumento di finanziamenti da Microsoft, aiutando a catapultare l’azienda.

Helen Toner, un’accademica e ora ex membro del consiglio di amministrazione di OpenAI, ha dichiarato che il licenziamento di Altman era dovuto a una “mancanza di fiducia” nell’esecutivo, sottolineando che la missione no-profit di OpenAI – garantire che l’intelligenza artificiale generale benefici tutta l’umanità – viene prima di tutto.
- Inchieste1 settimana fa
OpenAI: un anno di sorprese, innovazione e montagne russe
- Inchieste1 settimana fa
Elon Musk visita Israele e dice “vaffanculo” ai big sponsor
- L'Altra Bolla7 giorni fa
X apre i dati agli studiosi UE per studiare i rischi sistemici
- L'Altra Bolla6 giorni fa
X in fallimento sotto la gestione di Elon Musk?
- Tech1 settimana fa
Cinnamon 6.0: arriva il supporto iniziale a Wayland
- Tech1 settimana fa
Samsung Galaxy Z Fold 6 e Flip 6: display più grandi
- L'Altra Bolla1 settimana fa
Threads di Instagram da dicembre arriva in Europa?
- L'Altra Bolla1 settimana fa
Meta, la tutela dei minori sui suoi Social non è efficace