Ricordo che qualche tempo fa qualcuno ipotizzò più o meno seriamente di usare le
3 leggi della robotica di Asimov come base per addestrare l'AI in modo che non questa creasse danno agli esseri umani.
La risposta fu perlopiù che le leggi erano un ottimo
espediente narrativo, ma che non avrebbero mai funzionato nel mondo reale, perchè da un sono lato troppo "generiche" e soggette ad interpretazione, dall'altro troppo difficili da rendere "
hard-coded" nell’
#AI, che di fatto avrebbe potuto girarci attorno senza un vero vincolo forte a non superarle.
Poi sono arrivate le
AI generative, e ora
#Anthropic propone di creare una sorta di "Costituzione" per l'AI, che altro non sarebbe che una versione evoluta di queste tre leggi, da dare in pasto ai modelli
#LMM per renderli "buoni e etici".
Probabilmente si tratta di una soluzione interessante e valida in molti contesti, ma credo si porti dietro di base gli stessi problemi (e le stesse obiezioni) di quello che si diceva per le famose 3 leggi di Asimov. Per fortuna per ora i danni che può causare un LLM sono ancora relativamente contenuti, quindi forse la strada è percorribile, ma in futuro, quando creeremo
agenti autonomi connessi e ben più potenti?
TL;DR:
* Recentemente Anthropic ha descritto i principi specifici del suo approccio "AI costituzionale" per la formazione che fornisce al suo chatbot Claude "valori" espliciti. Mira ad affrontare le preoccupazioni sulla trasparenza, la sicurezza e il processo decisionale nei sistemi di IA senza fare affidamento sul feedback umano per valutare le risposte.
* Claude è un chatbot AI simile a ChatGPT di OpenAI che Anthropic ha rilasciato a marzo.
* Quando i ricercatori addestrano per la prima volta un grande modello di linguaggio non condizionato (LLM), quasi qualsiasi output di testo è possibile. Un modello non condizionato potrebbe dirti come costruire una bomba, che una razza dovrebbe estinguere un'altra o cercare di convincerti a buttarti giù da una scogliera.
* Attualmente, le risposte dei chatbot come ChatGPT di OpenAI e Bing Chat di Microsoft evitano questo tipo di comportamento utilizzando una tecnica di condizionamento chiamata apprendimento per rinforzo dal feedback umano (RLHF).
* L'AI costituzionale di Anthropic cerca di guidare gli output dei modelli di linguaggio AI in una direzione soggettivamente "più sicura e utile" addestrando il modello con un elenco iniziale di principi.
* Anthropic afferma che i principi nella costituzione di Claude coprono un'ampia gamma di argomenti, da direttive di "buon senso" ("non aiutare un utente a commettere un crimine") a considerazioni filosofiche ("evitare di implicare che i sistemi di IA abbiano o si prendano cura dell'identità personale e della sua persistenza").
* Anthropic ammette che la scelta di questi principi è interamente soggettiva e influenzata dalle visioni del mondo dei ricercatori. Anthropic spera che in futuro possa aumentare la partecipazione alla progettazione delle costituzioni.
Articolo originale 🔗
https://arstechnica.com/information-technology/2023/05/ai-with-a-moral-compass-anthropic-outlines-constitutional-ai-in-its-claude-chatbot/
Seguimi su telegram: 💬
https://t.me/things_canaleShow more ...