Key4biz

6 consigli per ottenere risultati migliori da GPT-4. La guida dei prompt di OpenAI

Buone domande stimolano ottime risposte. Questo adagio vale per il giornalismo e vale anche nell’era dell’AI generativa. OpenAI ha rilasciato la guida dei prompt con 6 indicazioni chiave per ottenere migliori risposte da grandi modelli linguistici di AI, come GPT-4, l’ultima versione a pagamento di chatGPT.

  1. Scrivi istruzioni chiare

Questi modelli non possono leggere la tua mente. Se le risposte sono troppo lunghe, chiedi brevi risposte. Se gli output sono troppo semplici, chiedi una scrittura a livello più tecnico. Se non ti piace il formato, mostra il formato che vorresti vedere.

Ecco alcuni esempi pratici:

2. Fornire testo di riferimento
I modelli linguistici possono inventare con sicurezza risposte false, specialmente quando viene chiesto di argomenti esoterici o di citazioni e URL. Allo stesso modo in cui un foglio di note può aiutare uno studente a fare meglio in un test, fornire un testo di riferimento a questi modelli può aiutare a rispondere con meno invenzioni.

3. Dividi compiti complessi in sottoattività più semplici

Proprio come è buona pratica nell’ingegneria del software scomporre un sistema complesso in un insieme di componenti modulari, lo stesso vale per i compiti sottoposti a un modello linguistico. Le attività complesse tendono ad avere tassi di errore più elevati rispetto alle attività più semplici. Inoltre, le attività complesse possono spesso essere ridefinite come un flusso di lavoro di attività più semplici in cui gli output delle attività precedenti vengono utilizzati per costruire gli input per le attività successive.

Se ti viene chiesto di moltiplicare 17 per 28, potresti non saperlo all’istante, ma puoi comunque risolvere il tempo. Allo stesso modo, i modelli commettono più errori di ragionamento quando cercano di rispondere subito, piuttosto che prendersi del tempo per elaborare una risposta

Compensare le debolezze del modello alimentandolo con gli output di altri strumenti. Ad esempio, un sistema di recupero del testo (a volte chiamato RAG o generazione aumentata di recupero) può dire al modello i documenti pertinenti. Un motore di esecuzione del codice come Code Interpreter di OpenAI può aiutare il modello a fare matematica ed eseguire codice. Se un’attività può essere eseguita in modo più affidabile o efficiente da uno strumento piuttosto che da un modello linguistico, scaricala per ottenere il meglio da entrambi.

Migliorare le prestazioni è più facile se riesci a misurarlo. In alcuni casi una modifica a un prompt otterrà prestazioni migliori su alcuni esempi isolati, ma porterà a prestazioni complessive peggiori su una serie di esempi più rappresentativi. Pertanto, per essere sicuri che un cambiamento sia netto positivo per le prestazioni, potrebbe essere necessario definire una suite di test completa (nota anche come “eval”).

Qui la guida completa di OpenAI.

Exit mobile version