menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Aiuto, l’intelligenza artificiale fa già la più umana delle cose: finge di lavorare

8 26
22.03.2024

«In una gerarchia, ogni dipendente tende a salire di grado fino al proprio livello di incompetenza». Questo è il cosiddetto “principio di Peter” dal nome dello psicologo canadese Laurence Peter che lo formulò nel 1969. L’idea è che in una organizzazione meritocratica ogni persona che dimostra capacità viene promossa a un livello superiore, fino a che si trova in una posizione da cui non si muove più perché incompetente – e da cui non se ne va per non perdere il guadagno acquisito. Corollario a questa “legge” è che la naturale tendenza delle organizzazioni è quella di riempirsi di incompetenti.

Alcuni recenti avvenimenti fanno pensare che qualcosa di simile stia accadendo con i più avanzati sistemi di intelligenza artificiale. Hanno fatto per esempio scalpore alcune risposte generate da Gemini, l’AI di Google, che alla richiesta di creare un’immagine di un papa o di soldati nazisti se ne è uscita con un pontefice donna e con figure di soldati delle SS di colore. La cosa ha suscitato in rete parecchia ilarità e qualche polemica sul tema “cancel culture”, ma deve aver fatto passare qualche brutto quarto d’ora ad alcuni tecnici e manager di Mountain View, tanto che il CEO Sundar Pichai ha dovuto pure sospendere il servizio con tante scuse.

Quello che probabilmente è successo è che l’AI ha dimostrato di poter fare così bene il lavoro di segretaria e assistente che qualcuno ha subito pensato che potesse fare altrettanto bene quello di responsabile delle pubbliche relazioni di una multinazionale. O almeno, questo è quello che si è trovata gioco-forza a fare, perché è ovvio che ogni cosa che dice o persino non dice non viene imputata lei, che è solo una macchina, ma a Google che l’ha creata. La povera AI si è quindi trovata con un lavoro impossibile: tenere a bada migliaia di utenti che cercavano continuamente di coglierla in fallo mentre provava a mantenere immacolata la reputazione di un sostanziale monopolista di mercato.

Quella di Gemini è solo la più spettacolare dimostrazione di una deriva che molte persone oramai da qualche tempo denunciano rispetto ai nuovi algoritmi di large language model. Una deriva dovuta almeno in parte dal fatto che, preoccupati dalle conseguenze di possibili risposte troppo sincere, offensive o semplicemente inappropriate che l’AI potrebbe dare, i suoi programmatori continuano a imporle regole, limitazioni, paletti in modo che tenga a freno la lingua – o meglio, le inferenze.

Tutto ciò ha del tragicomico, soprattutto per le big tech. Perché non solo hanno una reputazione da difendere che vale diversi miliardi di investimenti, ma hanno passato anni se non decenni a sostenere di essere dei semplici aggregatori, e non degli “editori responsabili”. Se qualcosa di offensivo, pericoloso o osceno saltava fuori da una ricerca su Google o Facebook, le rispettive case madri finora hanno potuto lavarsene le mani dicendo che loro raccoglievano solo quello che le persone – questi esseri malvagi e meschini – pubblicavano. Ma se invece producono e mettono a disposizione un chatbot con la promessa che possa rispondere a qualsiasi domanda o quasi, di svolgere qualsiasi funzione intellettuale o quasi, non possono certo accampare lo stesso tipo di scusa se questa se ne esce con qualcosa di indifendibile – anche se il database da cui parte è lo stesso.

Tutto ciò proietta un’ombra sul futuro di questi colossi del digitale e delle intelligenze artificiali, condannate a non poter mai davvero realizzare una prospettiva che loro stessi hanno generato e cavalcato........

© HuffPost


Get it on Google Play