#2 Come l'IA può supportare il lavoro del professionista
Approfondiamo il Prompt Engineering
In un contesto lavorativo in continua evoluzione, dove la digitalizzazione ha ormai preso il sopravvento, il Prompt Engineering emerge come nuovo e potente strumento per il professionista che vuole rimanere all’avanguardia. Questo settore innovativo dell'intelligenza artificiale si tiene al passo con la rivoluzione digitale, ottimizzando i Large Language Models, straordinariamente abili nel manipolare vaste quantità di testo per eseguire attività sofisticate quali rispondere a domande complesse, effettuare calcoli aritmetici e generare testi su misura.
Saper decifrare le potenzialità dei Large Language Models è fondamentale per utilizzarli al massimo del loro potenziale, migliorando non solo l'efficienza ma anche la qualità del proprio lavoro. Il Prompt Engineering entra in gioco proprio in questo contesto, fornendovi chiavi di lettura, metodi e tecniche per interagire in maniera efficace e sicura con questi modelli basati sull'intelligenza artificiale.
Ma il Prompt Engineering non si limita alla progettazione di semplici prompt. È un ambito molto più vasto che include una serie di strumenti, competenze e tecniche progettate per migliorare la vostra interazione con i Large Language Models, rendendo il vostro lavoro non solo più efficiente, ma anche più sicuro e all'avanguardia.
Conoscere e apprezzare il Prompt Engineering significa elevare il proprio valore professionale. Rappresenta l'occasione per sfruttare al meglio le possibilità offerte dai Large Language Models, rendendo ad esempio il lavoro più preciso, efficiente. Esiste una vasta gamma di risorse che il mondo del Prompt Engineering ha da offrire. Il futuro del successo professionale potrebbe dipendere anche da questo.
Cos'è un Large Language Model
Un Large Language Model è un modello di intelligenza artificiale progettato per lavorare con testi, comprendendo il significato e generando risposte o nuovi testi basati su tali input. Questi modelli sono chiamati large (grandi) non solo per la vastità dei dati con cui vengono addestrati, spesso miliardi di miliardi di parole, ma anche per la dimensione del modello stesso, cioè, la quantità di parametri che il modello utilizza per fare le sue previsioni ( anche qui sull’ordine dei miliardi di parametri).
Grazie alla loro capacità di lavorare con grandi quantità di dati, i Large Language Models hanno un'ampia gamma di applicazioni. Possono essere usati per rispondere a domande, completare delle frasi, tradurre testi in altre lingue, generare codice di programmazione, e molto altro. I Large Language Models possono generare risposte basate sul contesto della richiesta, imitando la comprensione umana della lingua, anche se è importante sottolineare che queste macchine non capiscono la lingua nel modo in cui gli esseri umani lo fanno.
L'ingegnerizzazione del prompt gioca un ruolo cruciale quando si interagisce con i Large Language Models. Un prompt ben progettato può guidare il modello a fornire risposte utili e pertinenti, mentre un prompt scarso o mal formulato può portare a risposte inaccurate o fuorvianti.
Per approfondire come funzionano gli LLM in modo visuale e intuitivo il Financial Times ha fatto un fantastico lavoro : https://ig.ft.com/generative-ai/
La Sequenza Massima di una Chat con un LLM
Uno degli aspetti chiave da considerare quando si lavora con i Large Language Models è la lunghezza massima di una conversazione o di un testo che il modello può gestire. Questo limite è espresso in termini di "token". Un token può essere una singola parola, una parte di una parola o addirittura un singolo carattere, a seconda della lingua e del modello specifico.
I Large Language Models hanno una lunghezza massima di token che possono gestire in un singolo input. Per esempio, per alcuni modelli, questo limite potrebbe essere 2048 token. Questo significa che l'intera conversazione, incluse le risposte del modello e le richieste dell'utente, deve rientrare in questo limite. Se una conversazione supera la lunghezza massima, sarà necessario troncarla o abbreviarla in qualche modo.
Quando si progettano prompt e risposte per i Large Language Models, è importante tenere a mente questo limite. In generale, è meglio cercare di formulare prompt che siano concisi e chiari, per ottenere il massimo dai modelli senza rischiare di superare il limite di token.
Se una conversazione o un compito richiede di superare il limite di token, potrebbe essere necessario dividere il compito in segmenti più piccoli e gestirli separatamente.
Se serve avere una idea, per convertire il proprio testo in numero di token è disponibile il tokenizzatore di Openai qui : https://platform.openai.com/tokenizer
La Precisione delle Risposte degli LLM
Nonostante le incredibili capacità dei Large Language Models (LLM), è importante sottolineare che le risposte fornite da questi modelli non sono sempre accurate. Questo è dovuto a una serie di fattori, tra cui la natura stessa dei modelli, la qualità dei dati di addestramento e le limitazioni intrinseche dell'intelligenza artificiale.
I LLM sono, in sostanza, modelli di previsione. Sono progettati per prevedere la prossima parola o frase in una sequenza di testo, basandosi su ciò che hanno "imparato" durante la fase di addestramento. Tuttavia, queste previsioni non sono sempre corrette. Anche se i modelli sono stati addestrati su enormi quantità di dati, non hanno la capacità di comprendere il contesto o il significato in modo umano. Non possono fare inferenze logiche o applicare il buon senso come farebbe un essere umano.
Inoltre, la qualità dei dati di addestramento gioca un ruolo cruciale nella precisione delle risposte dei LLM. Se i dati di addestramento sono inaccurati, fuorvianti o parziali, le risposte del modello rispecchieranno queste stesse caratteristiche. Ad esempio, se un modello è stato addestrato principalmente su testi scientifici, potrebbe non essere in grado di fornire risposte accurate su argomenti letterari o storici.
Infine, ci sono limitazioni intrinseche nell'intelligenza artificiale che possono influire sulla precisione delle risposte. Ad esempio, i LLM non hanno la capacità di ragionare o di comprendere il mondo nel modo in cui gli esseri umani lo fanno. Non possono fare inferenze basate su esperienze passate o applicare il ragionamento critico a nuove situazioni. Inoltre, non hanno la capacità di comprendere o interpretare le emozioni umane, il che può portare a risposte che sembrano insensibili o inappropriate.
Per queste ragioni, è importante approcciare le risposte dei LLM con un certo grado di scetticismo. Mentre questi modelli possono essere strumenti potenti e utili, non dovrebbero essere considerati infallibili. È sempre importante verificare le risposte fornite dai LLM e, se possibile, consultare altre fonti per confermare l'accuratezza delle informazioni.
Costruzione di Base dei Prompt
I prompt sono strumenti essenziali nella gestione e nel controllo dei Large Language Models. Forniscono il modello con informazioni iniziali che può utilizzare per generare le risposte o completare i task richiesti.
È possibile ottenere risultati diversi a seconda di come viene strutturato il prompt e le informazioni che vengono incluse. Un prompt può contenere istruzioni, domande o includere dettagli come un contesto, degli input o degli esempi.
Ad esempio, puoi utilizzare un prompt per far completare una frase al modello, come “Il cielo è....” In base a come formulerà il prompt, il modello potrebbe finire la frase con “azzurro” o “pieno di stelle”. Se vuoi una risposta più specifica, potresti aggiungere ulteriori istruzioni, come “Completa la frase 'Il cielo è...' con una descrizione del tempo odierno” e il modello potrebbe rispondere “Il cielo è sereno”, offrendo un completamento della frase più mirato.
L'obiettivo di utilizzare efficientemente i prompt è quello di generare risposte più accurate o legate al contesto.
I prompt possono essere utilizzati in un'ampia varietà di compiti, come già accennato, ad esempio :
lettura/sintesi/comprensione dei testi per scrematura
riscrittura dei testi sulla base di istruzioni sul come riscrivere
risoluzione di problemi forniti i dati
scrivere mail
formattare testi
analisi dei dati
Prova i tuoi prompt
Come provare i LLM ? Ce ne sono disponibili online diversi.
Chatbot con piani gratuiti e a pagamento:
Chatbot con inclusa la ricerca via internet
Chatbot con piano a consumo con chiave api key di openai:
Chatbot con modelli open source:
Ricerca e chat con articoli di ricerca scientifica:
Trucchi per la creazione di prompt
Elementi base del Prompt
Un prompt ben costruito solitamente contiene quattro elementi fondamentali: un'istruzione, il contesto, i dati di input e l'indicatore dell'output.
- Istruzione: Questo è il task specifico che desideriamo che il modello esegua. Può essere un'azione diretta, come “riassumi il seguente testo” o “rispondi alla seguente domanda”.
- Contesto: Le informazioni esterne che possiamo fornire al modello per migliorare la qualità della risposta. Questo potrebbe includere dettagli sulla situazione specifica, sul destinatario della risposta, una ricerca via internet, o qualsiasi altra informazione pertinente.
- Input: Questo è l'elemento di base che il modello utilizzerà per creare una risposta. In molti casi, si tratta della domanda o del problema specifico che vogliamo sollevare.
- Indicatore dell'Output: Fornisce indicazioni sul tipo o sul formato della risposta che ci aspettiamo dal modello. Ad esempio, potrebbe delineare il tono che la risposta dovrebbe avere o specificare se la risposta dovrebbe essere un elenco, un paragrafo o un singolo fatto conciso.
Non sempre sarà necessario includere tutti questi elementi in ogni prompt. La loro utilità dipenderà dallo specifico task che stiamo assegnando al modello.
Impostazioni di Base
I Large Language Models offrono una serie di parametri di configurazione che incidono sulle risposte fornite. Questi parametri, se sfruttati adeguatamente, possono migliorare la precisione dei risultati o stimolare la creatività del modello.
Uno dei parametri principali nei Large Language Models è il parametro di temperatura. Questo parametro controlla il livello di casualità incorporato nelle predizioni del modello. Se si vuole che le risposte siano più basate sui fatti e precise, si può impostare una temperatura bassa. Al contrario, se si desidera stimolare la creatività e la variabilità dei risultati, si può optare per un valore di temperatura più elevato. Normalmente il valore di default è impostato sul valore medio.
Un altro parametro chiave è il Top_P
, che determina quanto sia deterministico il modello nel generare risposte. Se si è alla ricerca di risposte esatte o fattuali, si può tenere questo parametro basso. Se si desiderano risposte più diverse, si può incrementare il valore di questo parametro. Tuttavia, la raccomandazione generale è di non modificare entrambi i parametri contemporaneamente, ma scegliere di agire su uno solo per volta.
Per iniziare è sufficiente sapere cosa sono questi due parametri anche se è importante sapere che ce ne sono altri. Per una trattazione più completa si rimanda a https://michaelehab.medium.com/the-secrets-of-large-language-models-parameters-how-they-affect-the-quality-diversity-and-32eb8643e631
Consigli Generali
La costruzione di un prompt efficace è un'arte che richiede esercizio e sperimentazione. Qui ci sono alcuni consigli generali che possono aiutare a guidare questo processo.
- Comincia Semplice: Inizia con istruzioni il più semplici possibili e aggiungi dettagli o contesto solo se necessario per ottenere risultati migliori.
- Rompi i Task Complessi: Se hai un grande compito da chiedere al LLM che richiede l'esecuzione di più sotto compiti, potrebbe essere utile dividerlo in più compiti piccoli. Questo permette al modello di concentrarsi su una singola fase del processo alla volta.
- Sii Chiaro e Preciso: Più dettagliate e descrittive sono le istruzioni fornite nel prompt, migliori saranno i risultati. Fornisci sempre indicazioni chiare su cosa desideri che il modello faccia.
- Fornisci il Formato Desiderato: Se hai un formato specifico in mente per l'output, specifica questo nel prompt. Questo aiuterà a guidare il modello nella generazione della risposta.
- Evita Negazioni: Cerca di dare istruzioni positive su cosa il modello dovrebbe fare, piuttosto che cosa non dovrebbe fare. I modelli rispondono meglio a questo genere di istruzioni.
- Sperimenta: Non esiste una formula universale per un prompt perfetto. Non esitare a provare diverse formulazioni e impostazioni per vedere cosa funziona meglio in ogni situazione specifica.
Il Prompt Engineering è un campo emergente. Con pratica e pazienza, potrai sviluppare la competenza per creare prompt efficaci che aiutano i Large Language Models a fornire i risultati desiderati.
L'Importanza della Formattazione
Quando si lavora con i Large Language Models, la formattazione del tuo prompt può fare una grande differenza nel risultato. In sostanza, la formattazione fornisce un quadro strutturale, guidando il modello su come rispondere nel modo più appropriato.
Per esempio, si può utilizzare una formattazione Q&A (domanda e risposta), che fornisce al modello un contesto utile e predispone il modello a rispondere in maniera appropriata. Questa formattazione può essere particolarmente utile se si vuole che il modello risponda a una serie specifica di domande.
Oltre alla formattazione delle domande e delle risposte, può essere utile utilizzare dei separatori visivi per distinguere chiaramente le diverse parti del prompt. Ad esempio, si possono utilizzare tre hashtag consecutivi per indicare una pausa o un cambio di argomento.
Accanto a questo, l'uso di un linguaggio preciso e univoco può aiutare a migliorare i risultati. Evitare ambiguità e fare istruzioni chiare e dirette può portare a risposte più accurate.
Infine, se si cerca un particolare formato di output, è probabile che fornire esempi di quel formato all'interno del prompt possa aiutare il modello a comprendere ciò che si sta cercando.
Nel complesso, uno sforzo consapevole sulla formattazione può notevolmente migliorare l'efficacia dei tuoi prompt, portando a risposte più utili e appropriate dai Large Language Models.
Salvarsi i prompt
Nell'ambito del Prompt Engineering, può essere molto utile sfruttare le estensioni o gli strumenti che aiutano a risparmiare tempo, automatizzando il processo di inserimento dei prompt che vengono utilizzati frequentemente. Un esempio di tali strumenti è Text Blaze.
Text Blaze è un'estensione di browser che permette di creare degli shortcut per testi frequentemente utilizzati, riducendo così il tempo di digitazione e prevenendo errori o omissioni. Questo risulta particolarmente utile quando si lavora con prompt ripetitivi o complessi che richiedono un formato o una struttura specifica.
Per utilizzare Text Blaze, è sufficiente installare l'estensione sul proprio browser e configurare gli shortcut desiderati. Una volta impostato, basta digitare l'abbreviazione scelta e Text Blaze sostituisce automaticamente l'abbreviazione con il blocco di testo completo. Questo può essere un risparmiatore di tempo enorme e aiuta a garantire la coerenza e l'accuratezza dei prompt.
Inoltre, Text Blaze permette anche di includere la data, l'ora e altre variabili nei testi, il che può essere utile per la personalizzazione dei prompt. Infine, l'estensione offre funzioni avanzate come testo condizionale e loop nei testi, aprendo ulteriori possibilità per l'automazione del testo.
Nell'utilizzare estensioni come Text Blaze, è importante sempre controllare e revisionare i prompt generati, per assicurarsi che rispondano adeguatamente alle esigenze del task che si sta svolgendo. Ricorda, la chiarezza e la precisione sono fondamentali quando si lavora con Large Language Models.
Esempi di applicazioni nei contesti aziendali
L'implementazione dei Large Language Models (LLM) nei sistemi gestionali aziendali crea una serie di opportunità capaci di rivoluzionare vari aspetti organizzativi e operativi. Questi modelli, infatti, permettono di gestire un'ampia gamma di compiti automatizzati, che vanno dalla gestione del servizio clienti alla raccolta e analisi dati, con conseguente risparmio di tempo e maggior precisione nei risultati. In questo capitolo esamineremo vari casi d'uso dei LLM nei sistemi aziendali, suddividendo gli esempi in base alle quattro macro-categorie che ne identificano la funzionalità: Riassumere, Inferire, Trasformare ed Espandere.
Riassumere con i LLM
I Large Language Models sono in grado di sintetizzare contenuti sia testuali sia visivi, compresi video. Questa funzionalità si rivela particolarmente utile per estrapolare informazioni essenziali da un grande volume di dati, come ad esempio le recensioni dei prodotti o i feedback dei clienti. Grazie al Prompt Engineering, è possibile creare istruzioni specifiche per far sì che i modelli analizzino e riassumano più recensioni dello stesso prodotto oppure più recensioni di prodotti diversi. E' anche possibile concentrarsi su specifici aspetti dei dati di input per la sintesi. Ad esempio, potremmo voler riassumere il feedback dei clienti per comprendere meglio la qualità del prodotto o individuare eventuali problemi operativi e, anche in questo caso, creare processi automatizzati basati su queste risposte.
Inferire con i LLM
L'inferenza consiste nell'analisi dei dati di input per estrarre etichette, nomi o sentiment. I Large Language Models, quindi, permettono di identificare entità o concetti specifici presenti nei dati, come ad esempio il sentimento del cliente da recensioni o l'argomento principale da articoli. Grazie alla progettazione attenta dei prompt, i LLM possono non solo analizzare le informazioni ma anche automatizzare il processo di risposta. Questa capacità garantisce un risparmio di tempo considerevole e una maggiore efficacia nell'analisi dei dati.
Trasformare con i LLM
I Large Language Models consentono la trasformazione del testo in un formato diverso. Sono quindi in grado di tradurre lingue, correggere ortografia e grammatica, trasformare il formato o il tono, tutto attraverso l'uso dei prompt. Questa capacità di trasformazione è molto versatile e può essere applicata a diversi casi d'uso come, la traduzione del sito web dell'azienda in diverse lingue o la correzione automatica di errori grammaticali in e-mail o documenti.
Espandere con i LLM
L'espansione riguarda l'utilizzo dei Large Language Models per generare contenuti più ampi a partire da un input più breve. Attraverso i prompt, i LLM possono creare una vasta gamma di contenuti, tra cui articoli, blog, storie, poesie, e persino immagini e video. Questa caratteristica offre un ampio ventaglio di possibilità applicative, dalla diagnosi nell'ambito sanitario all'aiuto nella preparazione di colloqui di lavoro, migliorando la versatilità e l'efficacia dei sistemi gestionali aziendali.
Esempio con creazione di un ICP e Persona
Nel mondo del marketing , la creazione di un Ideal Customer Profile (ICP) e di una Persona è un passaggio fondamentale per definire e comprendere il proprio target di riferimento. Questi strumenti permettono di identificare le caratteristiche, i bisogni e le aspettative dei potenziali clienti, fornendo un quadro di riferimento per lo sviluppo di strategie di marketing efficaci.
Ad esempio, nel prompt di seguito si ricerca il modo di ottenere informazioni dettagliate e personalizzate su un argomento specifico. L'utente può interagire con l'IA passo dopo passo, guidando la conversazione e ottenendo risposte su misura. In questo caso, l'obiettivo del prompt è aiutare l'utente a creare un ICP e una Persona per il suo business B2B , sfruttando le competenze e le conoscenze di esperti nel campo.
Per usarlo copiare incollare la domanda ( Q ) nella chat, aspettare che il chatbot fornisca la risposta (A) quindi procedere con tutte le altre domande. Quando si è arrivati in fondo si otterrà un concentrato di consigli per il miglioramento della propria proposta di valore.
Al passaggio 5 sostituire «proposta di valore» con la propria proposta di valore.
Al passaggio 12 sostituire «azienda» con il nome della propria azienda.
Al passaggio 14 sostituire «messaggio al Persona» con il messaggio da inviare al Persona.
Prompt:
Q1: Chi sono le persone migliori e di riferimento che fanno lo sviluppo di ICP ( Ideal Customer Profile ) e Persona per B2B SaaS?
A1:
Q2: Cosa direbbero per costituire un ICP e una Persona perfetti?
A2:
Q3: Fai sì che tre di loro abbiano un dibattito ad alto livello per migliorare questo, per aggiungere o eliminare cose. Non correggerlo, solo fai il dibattito .
A3:
Q4: Ora prendi quel dibattito e aggiorna l'ICP e la Persona.
A4:
Q5: Sto per incollare il testo grezzo della mia proposta di valore;
```
<<proposta di valore>>
```
A5:
Q6: Puoi creare l'ICP e la Persona per me?
A6:
Q7: Ora, fai finta di essere quella Persona. Puoi descrivermi il tuo ruolo in grande dettaglio?
A7:
Q8: Per favore, descrivi cosa ti passa per la mente, settimanalmente, trimestralmente, annualmente.
A8:
Q9: Ora, descrivi come cambia questo nei tuoi primi 3 mesi, 6 mesi, 1 anno, e 2 anni sul lavoro.
A9:
Q10: C'è qualcosa di più che abbiamo perso, pensando al tuo ruolo, qualche punto chiave che dovremmo considerare?
A10:
Q11: Ci sono altre persone ben conosciute, molto simili a te?
A11:
Q12: Mettete loro e te in una stanza e fate un dibattito tra voi sul problema che <<mia azienda>> risolve e ditemi le cose principali che l'azienda dovrebbe dire loro per convincerli a rispondere.
A12:
Q13: Dato che vieni contattato tutto il tempo, fornisci modi più strani e insoliti che nessuno ha mai pensato per parlare direttamente con te.
A13:
Q14: Ora, ecco un messaggio
```
<<messaggio al Persona>>
```
Puoi valutarlo in base a tutto quello che sai sull'azienda? Riunisci entrambi gli esperti e capisci cosa non va, cosa non funziona, quali problemi mancano, o se il messaggio è convenzionale, spiega perché. Non risparmiare dettagliando e argomentando, scrivi nel modo più chiaro e istruttivo possibile. Sto cercando gli argomenti più forti per migliorare.
A14:
Conclusioni
Il potenziale dei Large Language Models nello svolgimento di compiti automatizzati all'interno dei sistemi gestionali aziendali è immenso. Questi modelli, infatti, non si limitano a risolvere piccoli problemi specifici, ma sono in grado di affrontare compiti complessi che comportano numerose fasi e permettono di risparmiare in termini di tempo e risorse ma, soprattutto, consentono di aumentare l'efficienza dei sistemi aziendali. Grazie al Prompt Engineering, le organizzazioni possono utilizzare i LLM al massimo del loro potenziale, ottenendo risultati ottimali e operando in maniera più efficace.