«In una gerarchia, ogni dipendente tende a salire di grado fino al proprio livello di incompetenza». Questo è il cosiddetto “principio di Peter” dal nome dello psicologo canadese Laurence Peter che lo formulò nel 1969. L’idea è che in una organizzazione meritocratica ogni persona che dimostra capacità viene promossa a un livello superiore, fino a che si trova in una posizione da cui non si muove più perché incompetente – e da cui non se ne va per non perdere il guadagno acquisito. Corollario a questa “legge” è che la naturale tendenza delle organizzazioni è quella di riempirsi di incompetenti.

Alcuni recenti avvenimenti fanno pensare che qualcosa di simile stia accadendo con i più avanzati sistemi di intelligenza artificiale. Hanno fatto per esempio scalpore alcune risposte generate da Gemini, l’AI di Google, che alla richiesta di creare un’immagine di un papa o di soldati nazisti se ne è uscita con un pontefice donna e con figure di soldati delle SS di colore. La cosa ha suscitato in rete parecchia ilarità e qualche polemica sul tema “cancel culture”, ma deve aver fatto passare qualche brutto quarto d’ora ad alcuni tecnici e manager di Mountain View, tanto che il CEO Sundar Pichai ha dovuto pure sospendere il servizio con tante scuse.

Quello che probabilmente è successo è che l’AI ha dimostrato di poter fare così bene il lavoro di segretaria e assistente che qualcuno ha subito pensato che potesse fare altrettanto bene quello di responsabile delle pubbliche relazioni di una multinazionale. O almeno, questo è quello che si è trovata gioco-forza a fare, perché è ovvio che ogni cosa che dice o persino non dice non viene imputata lei, che è solo una macchina, ma a Google che l’ha creata. La povera AI si è quindi trovata con un lavoro impossibile: tenere a bada migliaia di utenti che cercavano continuamente di coglierla in fallo mentre provava a mantenere immacolata la reputazione di un sostanziale monopolista di mercato.

Quella di Gemini è solo la più spettacolare dimostrazione di una deriva che molte persone oramai da qualche tempo denunciano rispetto ai nuovi algoritmi di large language model. Una deriva dovuta almeno in parte dal fatto che, preoccupati dalle conseguenze di possibili risposte troppo sincere, offensive o semplicemente inappropriate che l’AI potrebbe dare, i suoi programmatori continuano a imporle regole, limitazioni, paletti in modo che tenga a freno la lingua – o meglio, le inferenze.

Tutto ciò ha del tragicomico, soprattutto per le big tech. Perché non solo hanno una reputazione da difendere che vale diversi miliardi di investimenti, ma hanno passato anni se non decenni a sostenere di essere dei semplici aggregatori, e non degli “editori responsabili”. Se qualcosa di offensivo, pericoloso o osceno saltava fuori da una ricerca su Google o Facebook, le rispettive case madri finora hanno potuto lavarsene le mani dicendo che loro raccoglievano solo quello che le persone – questi esseri malvagi e meschini – pubblicavano. Ma se invece producono e mettono a disposizione un chatbot con la promessa che possa rispondere a qualsiasi domanda o quasi, di svolgere qualsiasi funzione intellettuale o quasi, non possono certo accampare lo stesso tipo di scusa se questa se ne esce con qualcosa di indifendibile – anche se il database da cui parte è lo stesso.

Tutto ciò proietta un’ombra sul futuro di questi colossi del digitale e delle intelligenze artificiali, condannate a non poter mai davvero realizzare una prospettiva che loro stessi hanno generato e cavalcato attraendo svariati miliardi di investimenti: quella di un servizio generale e generalista, portatore di conoscenza e moralità. Ma, d’altra parte, può forse anche proiettare una luce su cosa sia esattamente il lavoro e perché lo facciamo – quanto meno, nella sua ipertrofica e caleidoscopica forma contemporanea.

Il fatto è questo: che il lavoro, specialmente oggi, non ha primariamente a che fare con la “produzione” di qualcosa: sia esso un oggetto, un dato, un servizio. Meglio ancora, non ha a che fare con la qualità o la verità di quello che produce; insomma col suo valore oggettivo. La funzione fondamentale del lavoro è servire l’altro, l’essere umano. Questo a volte va di pari passo con la creazione e diffusione della qualità, dell’efficacia, della verità, ma non sempre. Insomma, poiché la funzione del lavoro è rispondere ai bisogni e ai desideri delle persone (“Come posso esserti utile oggi?” è spesso la prima frase dei chatbot), spesso è più importante fingere di lavorare che lavorare davvero.

Questo non è così facile da intuire nel settore primario o secondario, e in particolare se questi producono beni di prima necessità e funzionali al sostentamento. Ma è facilmente riscontrabile nel terziario, nei servizi – i quali, in una economia avanzata come la nostra, occupano tre persone su quattro e costituiscono l’80% circa del valore aggiunto. Non è così importante che tu mi dia quello che mi serve o che risolva un mio problema: la cosa fondamentale è che tu mi dia l’impressione di averlo fatto. O in alternativa, tu mi dia la giustificazione per aver tentato di risolvere il problema o soddisfare l’esigenza a cui qualcun altro mi ha dato l’incombenza di rispondere.

Questa idea è talmente contraria al nostro pensiero comune, e tanto inconfessabile rispetto all’imperativo morale in noi tutti inculcato di dimostrarci bravi, efficienti e responsabili, che non riusciamo a riconoscerla nemmeno quando ci sbattiamo il naso contro. Le aziende che fatturano di più sono affollate di persone che non si sa bene a quale titolo stiano dove stanno o che beneficio concreto portino; il web è saturo di persone che lavorano come pazze nel creare contenuti che nessuno o quasi guarderà; il mercato del lavoro è pieno di figure che ci servono come il pane ma che trattiamo male e paghiamo peggio, così come di professioni perlopiù inutili che però onoriamo profondamente – durante i lockdown manager, contabili, analisti, marketer si sono fermati: qualcuno ha notato grosse differenze?

È forse a questo scenario che la AI si sta lentamente abituando – cioè, la stiamo allenando noi. Non tanto a fornirci le risposte alla vita, all’universo e a tutto quanto, ma a darci pacche sulle spalle, cadere nei nostri tranelli, unirsi a una conversazione tanto vacua quanto necessaria alla nostra dignità. Non a lavorare davvero, ma a fingere di lavorare. Non a toglierci il lavoro, ma a crearne altro di poco o per nulla utile. Non ad aiutarci, ma a farci sentire meno soli. Perché il lavoro è in fondo un fenomeno sociale e politico prima che economico e produttivo. Capirlo vuol dire – forse senza troppe esagerazioni – capire il nostro tempo. E forse anche trovare un modo di trattare il lavoro in maniera diversa; ripensarlo in un senso più umano e generativo. Un cambiamento quanto mai urgente e necessario, perché se noi non possiamo fare a meno del lavoro, probabilmente il lavoro può fare a meno di noi.

Segui i temi Commenta con i lettori I commenti dei lettori

Suggerisci una correzione

«In una gerarchia, ogni dipendente tende a salire di grado fino al proprio livello di incompetenza». Questo è il cosiddetto “principio di Peter” dal nome dello psicologo canadese Laurence Peter che lo formulò nel 1969. L’idea è che in una organizzazione meritocratica ogni persona che dimostra capacità viene promossa a un livello superiore, fino a che si trova in una posizione da cui non si muove più perché incompetente – e da cui non se ne va per non perdere il guadagno acquisito. Corollario a questa “legge” è che la naturale tendenza delle organizzazioni è quella di riempirsi di incompetenti.

Alcuni recenti avvenimenti fanno pensare che qualcosa di simile stia accadendo con i più avanzati sistemi di intelligenza artificiale. Hanno fatto per esempio scalpore alcune risposte generate da Gemini, l’AI di Google, che alla richiesta di creare un’immagine di un papa o di soldati nazisti se ne è uscita con un pontefice donna e con figure di soldati delle SS di colore. La cosa ha suscitato in rete parecchia ilarità e qualche polemica sul tema “cancel culture”, ma deve aver fatto passare qualche brutto quarto d’ora ad alcuni tecnici e manager di Mountain View, tanto che il CEO Sundar Pichai ha dovuto pure sospendere il servizio con tante scuse.

Quello che probabilmente è successo è che l’AI ha dimostrato di poter fare così bene il lavoro di segretaria e assistente che qualcuno ha subito pensato che potesse fare altrettanto bene quello di responsabile delle pubbliche relazioni di una multinazionale. O almeno, questo è quello che si è trovata gioco-forza a fare, perché è ovvio che ogni cosa che dice o persino non dice non viene imputata lei, che è solo una macchina, ma a Google che l’ha creata. La povera AI si è quindi trovata con un lavoro impossibile: tenere a bada migliaia di utenti che cercavano continuamente di coglierla in fallo mentre provava a mantenere immacolata la reputazione di un sostanziale monopolista di mercato.

Quella di Gemini è solo la più spettacolare dimostrazione di una deriva che molte persone oramai da qualche tempo denunciano rispetto ai nuovi algoritmi di large language model. Una deriva dovuta almeno in parte dal fatto che, preoccupati dalle conseguenze di possibili risposte troppo sincere, offensive o semplicemente inappropriate che l’AI potrebbe dare, i suoi programmatori continuano a imporle regole, limitazioni, paletti in modo che tenga a freno la lingua – o meglio, le inferenze.

Tutto ciò ha del tragicomico, soprattutto per le big tech. Perché non solo hanno una reputazione da difendere che vale diversi miliardi di investimenti, ma hanno passato anni se non decenni a sostenere di essere dei semplici aggregatori, e non degli “editori responsabili”. Se qualcosa di offensivo, pericoloso o osceno saltava fuori da una ricerca su Google o Facebook, le rispettive case madri finora hanno potuto lavarsene le mani dicendo che loro raccoglievano solo quello che le persone – questi esseri malvagi e meschini – pubblicavano. Ma se invece producono e mettono a disposizione un chatbot con la promessa che possa rispondere a qualsiasi domanda o quasi, di svolgere qualsiasi funzione intellettuale o quasi, non possono certo accampare lo stesso tipo di scusa se questa se ne esce con qualcosa di indifendibile – anche se il database da cui parte è lo stesso.

Tutto ciò proietta un’ombra sul futuro di questi colossi del digitale e delle intelligenze artificiali, condannate a non poter mai davvero realizzare una prospettiva che loro stessi hanno generato e cavalcato attraendo svariati miliardi di investimenti: quella di un servizio generale e generalista, portatore di conoscenza e moralità. Ma, d’altra parte, può forse anche proiettare una luce su cosa sia esattamente il lavoro e perché lo facciamo – quanto meno, nella sua ipertrofica e caleidoscopica forma contemporanea.

Il fatto è questo: che il lavoro, specialmente oggi, non ha primariamente a che fare con la “produzione” di qualcosa: sia esso un oggetto, un dato, un servizio. Meglio ancora, non ha a che fare con la qualità o la verità di quello che produce; insomma col suo valore oggettivo. La funzione fondamentale del lavoro è servire l’altro, l’essere umano. Questo a volte va di pari passo con la creazione e diffusione della qualità, dell’efficacia, della verità, ma non sempre. Insomma, poiché la funzione del lavoro è rispondere ai bisogni e ai desideri delle persone (“Come posso esserti utile oggi?” è spesso la prima frase dei chatbot), spesso è più importante fingere di lavorare che lavorare davvero.

Questo non è così facile da intuire nel settore primario o secondario, e in particolare se questi producono beni di prima necessità e funzionali al sostentamento. Ma è facilmente riscontrabile nel terziario, nei servizi – i quali, in una economia avanzata come la nostra, occupano tre persone su quattro e costituiscono l’80% circa del valore aggiunto. Non è così importante che tu mi dia quello che mi serve o che risolva un mio problema: la cosa fondamentale è che tu mi dia l’impressione di averlo fatto. O in alternativa, tu mi dia la giustificazione per aver tentato di risolvere il problema o soddisfare l’esigenza a cui qualcun altro mi ha dato l’incombenza di rispondere.

Questa idea è talmente contraria al nostro pensiero comune, e tanto inconfessabile rispetto all’imperativo morale in noi tutti inculcato di dimostrarci bravi, efficienti e responsabili, che non riusciamo a riconoscerla nemmeno quando ci sbattiamo il naso contro. Le aziende che fatturano di più sono affollate di persone che non si sa bene a quale titolo stiano dove stanno o che beneficio concreto portino; il web è saturo di persone che lavorano come pazze nel creare contenuti che nessuno o quasi guarderà; il mercato del lavoro è pieno di figure che ci servono come il pane ma che trattiamo male e paghiamo peggio, così come di professioni perlopiù inutili che però onoriamo profondamente – durante i lockdown manager, contabili, analisti, marketer si sono fermati: qualcuno ha notato grosse differenze?

È forse a questo scenario che la AI si sta lentamente abituando – cioè, la stiamo allenando noi. Non tanto a fornirci le risposte alla vita, all’universo e a tutto quanto, ma a darci pacche sulle spalle, cadere nei nostri tranelli, unirsi a una conversazione tanto vacua quanto necessaria alla nostra dignità. Non a lavorare davvero, ma a fingere di lavorare. Non a toglierci il lavoro, ma a crearne altro di poco o per nulla utile. Non ad aiutarci, ma a farci sentire meno soli. Perché il lavoro è in fondo un fenomeno sociale e politico prima che economico e produttivo. Capirlo vuol dire – forse senza troppe esagerazioni – capire il nostro tempo. E forse anche trovare un modo di trattare il lavoro in maniera diversa; ripensarlo in un senso più umano e generativo. Un cambiamento quanto mai urgente e necessario, perché se noi non possiamo fare a meno del lavoro, probabilmente il lavoro può fare a meno di noi.

QOSHE - Aiuto, l’intelligenza artificiale fa già la più umana delle cose: finge di lavorare - Riccardo Maggiolo
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Aiuto, l’intelligenza artificiale fa già la più umana delle cose: finge di lavorare

8 26
22.03.2024

«In una gerarchia, ogni dipendente tende a salire di grado fino al proprio livello di incompetenza». Questo è il cosiddetto “principio di Peter” dal nome dello psicologo canadese Laurence Peter che lo formulò nel 1969. L’idea è che in una organizzazione meritocratica ogni persona che dimostra capacità viene promossa a un livello superiore, fino a che si trova in una posizione da cui non si muove più perché incompetente – e da cui non se ne va per non perdere il guadagno acquisito. Corollario a questa “legge” è che la naturale tendenza delle organizzazioni è quella di riempirsi di incompetenti.

Alcuni recenti avvenimenti fanno pensare che qualcosa di simile stia accadendo con i più avanzati sistemi di intelligenza artificiale. Hanno fatto per esempio scalpore alcune risposte generate da Gemini, l’AI di Google, che alla richiesta di creare un’immagine di un papa o di soldati nazisti se ne è uscita con un pontefice donna e con figure di soldati delle SS di colore. La cosa ha suscitato in rete parecchia ilarità e qualche polemica sul tema “cancel culture”, ma deve aver fatto passare qualche brutto quarto d’ora ad alcuni tecnici e manager di Mountain View, tanto che il CEO Sundar Pichai ha dovuto pure sospendere il servizio con tante scuse.

Quello che probabilmente è successo è che l’AI ha dimostrato di poter fare così bene il lavoro di segretaria e assistente che qualcuno ha subito pensato che potesse fare altrettanto bene quello di responsabile delle pubbliche relazioni di una multinazionale. O almeno, questo è quello che si è trovata gioco-forza a fare, perché è ovvio che ogni cosa che dice o persino non dice non viene imputata lei, che è solo una macchina, ma a Google che l’ha creata. La povera AI si è quindi trovata con un lavoro impossibile: tenere a bada migliaia di utenti che cercavano continuamente di coglierla in fallo mentre provava a mantenere immacolata la reputazione di un sostanziale monopolista di mercato.

Quella di Gemini è solo la più spettacolare dimostrazione di una deriva che molte persone oramai da qualche tempo denunciano rispetto ai nuovi algoritmi di large language model. Una deriva dovuta almeno in parte dal fatto che, preoccupati dalle conseguenze di possibili risposte troppo sincere, offensive o semplicemente inappropriate che l’AI potrebbe dare, i suoi programmatori continuano a imporle regole, limitazioni, paletti in modo che tenga a freno la lingua – o meglio, le inferenze.

Tutto ciò ha del tragicomico, soprattutto per le big tech. Perché non solo hanno una reputazione da difendere che vale diversi miliardi di investimenti, ma hanno passato anni se non decenni a sostenere di essere dei semplici aggregatori, e non degli “editori responsabili”. Se qualcosa di offensivo, pericoloso o osceno saltava fuori da una ricerca su Google o Facebook, le rispettive case madri finora hanno potuto lavarsene le mani dicendo che loro raccoglievano solo quello che le persone – questi esseri malvagi e meschini – pubblicavano. Ma se invece producono e mettono a disposizione un chatbot con la promessa che possa rispondere a qualsiasi domanda o quasi, di svolgere qualsiasi funzione intellettuale o quasi, non possono certo accampare lo stesso tipo di scusa se questa se ne esce con qualcosa di indifendibile – anche se il database da cui parte è lo stesso.

Tutto ciò proietta un’ombra sul futuro di questi colossi del digitale e delle intelligenze artificiali, condannate a non poter mai davvero realizzare una prospettiva che loro stessi hanno generato e cavalcato........

© HuffPost


Get it on Google Play