Tecniche di prompting (da Internazionale)

 Come aggirare i limiti imposti dai programmi di intelligenza artificiale

I modelli di intelligenza artificiale che generano linguaggio umano, dopo essere stati addestrati, testati e raffinati, di solito passano attraverso una fase di ulteriore miglioramento che prevede l’inserimento al loro interno di istruzioni, linee guida generali che evitano che la macchina produca contenuti inappropriati, illegali o contenuti che possano essere ritenuti sensibili o offensivi a seconda del contesto. Poi gli strumenti ricevono anche un controllo a valle degli output, prima che vengano proposti a chi li sta usando. Queste regole si chiamano, in gergo divulgativo, guardrail. E il processo di inserimento dei guardrail è continuo e reiterato.

Leggi tutto: https://www.internazionale.it/notizie/alberto-puliafito/2024/10/02/limiti-intelligenza-artificiale


Come si danno i comandi alle intelligenze artificiali

La settimana scorsa abbiamo parlato di intelligenze artificiali che dicono parolacce e del motivo per cui è importante provare a superare i limiti imposti alle macchine generative di linguaggio, di immagini, di contenuti in generale.

Questo ha generato curiosità in molte persone sulle tecniche che si usano, in generale, per dare comandi alle intelligenze artificiali. E anche, ovviamente, sulle tecniche che si usano per la manipolazione dei large language model e per sfidarne i limiti.

Le tecniche di manipolazione discendono direttamente dai metodi usati generalmente per interagire con le ia: è proprio da questi che ha senso iniziare, perché, una volta compresi, sarà più facile applicarli a tutti i modelli e anche fare i test per metterli alla prova.

Leggi tutto: https://www.internazionale.it/notizie/alberto-puliafito/2024/10/07/come-dare-comandi-intelligenza-artificiale


Come si manipola un’intelligenza artificiale?

La settimana scorsa abbiamo parlato di alcune tecniche di prompting, cioè di comandi dati alle macchine di intelligenza artificiale usando il linguaggio naturale. C’è un’ultima tecnica che si può aggiungere all’elenco: il negative prompting o prompting negativo. Consiste nel dire al chatbot quello che non vogliamo che faccia, per escludere stili, dettagli o contenuti indesiderati da immagini generate o testi prodotti dall’ia. Per esempio, in modelli di generazione di immagini, un comando negativo potrebbe essere: “evita sfondi sfocati”, o ancora “niente farfalle”. In modelli che generano testo si potrebbe chiedere “evita gli anglicismi”.

Leggi tutto: https://www.internazionale.it/notizie/alberto-puliafito/2024/10/14/manipolare-intelligenza-artificiale

Commenti

Post popolari in questo blog

Dove trovare raccolte di dati (dataset) utilizzabili gratuitamente

AI Will Transform the Global Economy. Let’s Make Sure It Benefits Humanity. - IFM blog

Building a high-performance data and AI organization - MIT report 2023