Tecniche di prompting (da Internazionale)
Come aggirare i limiti imposti dai programmi di intelligenza artificiale
I modelli di intelligenza artificiale che generano linguaggio umano, dopo essere stati addestrati, testati e raffinati, di solito passano attraverso una fase di ulteriore miglioramento che prevede l’inserimento al loro interno di istruzioni, linee guida generali che evitano che la macchina produca contenuti inappropriati, illegali o contenuti che possano essere ritenuti sensibili o offensivi a seconda del contesto. Poi gli strumenti ricevono anche un controllo a valle degli output, prima che vengano proposti a chi li sta usando. Queste regole si chiamano, in gergo divulgativo, guardrail. E il processo di inserimento dei guardrail è continuo e reiterato.
Leggi tutto: https://www.internazionale.it/notizie/alberto-puliafito/2024/10/02/limiti-intelligenza-artificiale
Come si danno i comandi alle intelligenze artificiali
La settimana scorsa abbiamo parlato di intelligenze artificiali che dicono parolacce e del motivo per cui è importante provare a superare i limiti imposti alle macchine generative di linguaggio, di immagini, di contenuti in generale.
Questo ha generato curiosità in molte persone sulle tecniche che si usano, in generale, per dare comandi alle intelligenze artificiali. E anche, ovviamente, sulle tecniche che si usano per la manipolazione dei large language model e per sfidarne i limiti.
Le tecniche di manipolazione discendono direttamente dai metodi usati generalmente per interagire con le ia: è proprio da questi che ha senso iniziare, perché, una volta compresi, sarà più facile applicarli a tutti i modelli e anche fare i test per metterli alla prova.
Leggi tutto: https://www.internazionale.it/notizie/alberto-puliafito/2024/10/07/come-dare-comandi-intelligenza-artificiale
Come si manipola un’intelligenza artificiale?
La settimana scorsa abbiamo parlato di alcune tecniche di prompting, cioè di comandi dati alle macchine di intelligenza artificiale usando il linguaggio naturale. C’è un’ultima tecnica che si può aggiungere all’elenco: il negative prompting o prompting negativo. Consiste nel dire al chatbot quello che non vogliamo che faccia, per escludere stili, dettagli o contenuti indesiderati da immagini generate o testi prodotti dall’ia. Per esempio, in modelli di generazione di immagini, un comando negativo potrebbe essere: “evita sfondi sfocati”, o ancora “niente farfalle”. In modelli che generano testo si potrebbe chiedere “evita gli anglicismi”.
Leggi tutto: https://www.internazionale.it/notizie/alberto-puliafito/2024/10/14/manipolare-intelligenza-artificiale
Commenti
Posta un commento