Il 2023 è stato l’anno in cui l’Intelligenza Artificiale (IA) ha segnato una significativa e collettiva diffusione nei più svariati ambiti del sociale. Si delineano nuove prospettive e pressanti interrogativi. Basta considerare che la progressione degli investimenti globali sull’IA prevede per il 2024 investimenti per circa 300 milioni di dollari e oltre 420 per il 2025. Per il 2030, ben 1900 miliardi di dollari. E poi l’utilizzo dell’IA in ambito bellico e la manipolazione del consenso nelle prossime elezioni in Europa e negli Stati Uniti.

Si delineano, così, nuove strutture di potere politico. Da cui la necessità di un codice etico ovvero di una regolamentazione. Un percorso che dovrebbe avere tre obiettivi sostanziali: consapevolezza nell’abitare le innovazioni tecnologiche; interdisciplinarità delle competenze; regolamentazioni, secondo principi condivisi di etica sociale, dell’innovazione tecnologica nell’ottica dello sviluppo umano-centrico.

Obiettivi, questi, certo non facili da raggiungere tuttavia ineludibili. Da un lato il riduzionismo antropologico del paradigma tecnocratico, dominio degli algoritmi o algocrazia. Dall’altro lo sviluppo umano-centrico (human-centric /human-centred) che tiene conto delle innovazioni tecnologiche ma che sa coniugarle secondo un’etica degli algoritmi ovvero «algoretica», secondo il puntuale neologismo coniato da P. Paolo Benanti. Per un umanesimo digitale che «non trasforma l’essere umano in una macchina e non interpreta le macchine come esseri umani. Che riconosce la peculiarità dell’essere umano e delle sue capacità, servendosi delle tecnologie digitali per ampliarle, non per restringerle.»

Molteplici i principi etici proposti. Come richiamato da Luciano Floridi, «l’enorme volume di principi proposti – più di 160 nel 2020, secondo l’AI Ethics Guidelines Global Inventory (la rassegna globale delle linee guida etiche per l’IA) di Algorithm Watch – rischia di diventare soverchiante e fuorviante, sollevando due potenziali problemi. O i vari insiemi di principi etici per l’IA sono simili, portando a inutili ripetizioni e ridondanze, oppure, se differiscono in modo significativo, sono suscettibili di ingenerare confusione e ambiguità. Il peggior risultato sarebbe quello di creare un “mercato di principi” in cui le parti interessate potrebbero essere tentate di “acquistare” quelli più allettanti.»

Allora come risolvere il problema della “proliferazione dei principi”? Sempre Floridi, sulla base di un’analisi comparativa, identifica «un quadro generale costituito da cinque principi fondamentali per l’IA etica. Prendendo atto dei limiti e valutando le implicazioni di questo quadro etico per gli sforzi futuri volti a creare leggi, regole, standard e le migliori pratiche (best practices) per l’IA etica in un’ampia varietà di contesti.» I cinque principi individuati sono: beneficenza, non maleficenza, giustizia, autonomia ed esplicabilità. I primi quattro ordinano, classificano e raggruppano norme etiche che, come da consolidate riflessioni bioetiche, necessitano di contenuto, specificità e gerarchizzazione. Il quinto e nuovo principio di esplicabilità è da intendere «include sia il senso epistemologico di intelligibilità – come risposta alla domanda: come funziona? – sia quello etico di responsabilità (accountability) come risposta alla domanda: chi è responsabile del modo in cui funziona?»

Varie istituzioni, nazionali e internazionali, stanno sviluppando percorsi con la finalità di regolamentazioni condivise, pur nella consapevolezza della complessità del tema e dei rilevantissimi interessi coinvolti. I procedimenti di regolamentazione in corso significano processi di democratizzazione. Evitando, così, che la c.d. “scatola nera” (black box), ovvero l’inesplicabilità di modelli di IA – rispetto a modelli di IA interpretabili e spiegabili – possa rappresentare un alibi per l’accettazione passiva di qualsiasi procedura o risultato. Accantonando, erroneamente, l’esplicabilità ovvero i chiarimenti sulle cause delle decisioni (output), i meccanismi di elaborazione e interpretazione dei dati, la valutazione dell’appropriatezza o inadeguatezza dei risultati prodotti. La strada da seguire significa coniugare dimensione umana e dimensione artificiale, favorendo l’incontro tra la fiducia e la cautela.

Ecco la necessità di governare con regolamentazioni, abitando le innovazioni tecnologiche nella consapevolezza e cooperando nell’interdisciplinarità delle competenze.

Citiamo, in particolare, i più recenti documenti pubblicati alla fine del 2023. In particolare, il Decalogo del Garante per la Protezione dei Dati Personali (GPDP); l’Artificial Intelligence Act dell’Unione europea (EU AI Act); il Rapporto intermedio (Governing AI for Humanity) dell’organo consultivo del Segretario generale delle Nazioni Unite su rischi, opportunità e governance internazionale dell’IA.

Il GPDP ha emanato nel settembre 2023, il Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di IA. Sono richiamati tre principi: conoscibilità, non esclusività della decisione algoritmica e non discriminazione algoritmica. Per quanto riguarda la conoscibilità, l’interessato ha il diritto di conoscere l’esistenza di processi decisionali basati su trattamenti automatizzati e, in tal caso, di ricevere informazioni significative sulla logica utilizzata, sì da poterla comprendere. Per quanto riguarda la non esclusività della decisione algoritmica, nel processo decisionale deve esistere un intervento umano capace di controllare, validare ovvero smentire la decisione automatica (c.d. human in the loop). Last but not least, la non discriminazione algoritmica. Il titolare del trattamento utilizzi sistemi di IA affidabili che riducano le opacità, gli errori dovuti a cause tecnologiche e/o umane. Verificando periodicamente l’efficacia anche alla luce della rapida evoluzione delle tecnologie impiegate, delle procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate.

L’Unione europea con l’Artificial Intelligence Act (EU AI Act) si è prefisso come obiettivo assicurare che i cittadini europei possano beneficiare delle nuove tecnologie in conformità ai valori, ai diritti fondamentali e ai principi dell'Unione. Non è stato ancora concluso il suo iter formale. Il Consiglio europeo ha adottato l’orientamento generale sulla Proposta della Commissione. Successivamente Commissione europea, Consiglio dell’Unione europea, Parlamento (Trilogo) hanno approvato l’AI Act nel dicembre 2023. Si prevede che la normativa possa essere applicativa nel 2026, ossia 24 mesi dalla formale entrata in vigore del regolamento. Un termine critico perché troppo spostato in avanti, visto il rapidissimo evolvere delle innovazioni tecnologiche.

In sintesi, l’accordo vieta sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali). Divieti, poi, sugli usi intrusivi e discriminatori dell'IA. Tra questi, l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico; sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati); sistemi di riconoscimento delle emozioni; estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

L’ONU, a sua volta, tramite l’organo consultivo sull'IA del Segretario generale delle Nazioni Unite, ha lanciato nel dicembre 2023 il Rapporto intermedio “Governing AI for Humanity”. Titolo significativo ed evocativo. Elemento centrale è la proposta di governance dell’IA, individuando i principi di riferimento. Inclusività: tutti i cittadini dovrebbero essere in grado di accedere e utilizzare in modo significativo gli strumenti di IA. Interesse pubblico: la governance dovrebbe andare oltre il principio di non nuocere e definire un quadro di responsabilità più ampio per le aziende che costruiscono, distribuiscono e controllano l’IA, nonché per gli utenti. Centralità della governance dei dati: la governance dell’IA non può essere separata dalla governance dei dati. Universale, interconnessa e multilaterale: la governance dell’IA dovrebbe dare priorità al consenso universale da parte dei paesi e delle parti interessate nonché dovrebbe sfruttare le istituzioni esistenti attraverso un approccio di rete. Infine, il Diritto internazionale: la governance dell’IA deve essere ancorata alla Carta delle Nazioni Unite, al diritto internazionale sui diritti umani e agli obiettivi di sviluppo sostenibile. L’organo consultivo sull’IA ha promosso per i prossimi mesi consultazioni aperte con tutte le parti interessate – individui, gruppi e organizzazioni – così da offrire feedback prima della stesura definitiva del Rapporto.

In definitiva, il comune denominatore, costituito da consapevolezza-interdisciplinarità-regolamentazione, rappresenta la prospettiva per un responsabile sviluppo umano alla luce delle rapidissime innovazioni tecnologiche. Né è plausibile, come postulato dai tecnofobi secondo un improponibile neo-luddismo, opporsi alle innovazioni tecnologiche. Ricordava Benjamin Franklin: «When you are finished changing, you are finished».

Segui i temi Commenta con i lettori I commenti dei lettori

Suggerisci una correzione

QOSHE - Quando si parla di IA si associ ad un responsabile sviluppo umano - Lucio Romano
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Quando si parla di IA si associ ad un responsabile sviluppo umano

4 0
11.01.2024

Il 2023 è stato l’anno in cui l’Intelligenza Artificiale (IA) ha segnato una significativa e collettiva diffusione nei più svariati ambiti del sociale. Si delineano nuove prospettive e pressanti interrogativi. Basta considerare che la progressione degli investimenti globali sull’IA prevede per il 2024 investimenti per circa 300 milioni di dollari e oltre 420 per il 2025. Per il 2030, ben 1900 miliardi di dollari. E poi l’utilizzo dell’IA in ambito bellico e la manipolazione del consenso nelle prossime elezioni in Europa e negli Stati Uniti.

Si delineano, così, nuove strutture di potere politico. Da cui la necessità di un codice etico ovvero di una regolamentazione. Un percorso che dovrebbe avere tre obiettivi sostanziali: consapevolezza nell’abitare le innovazioni tecnologiche; interdisciplinarità delle competenze; regolamentazioni, secondo principi condivisi di etica sociale, dell’innovazione tecnologica nell’ottica dello sviluppo umano-centrico.

Obiettivi, questi, certo non facili da raggiungere tuttavia ineludibili. Da un lato il riduzionismo antropologico del paradigma tecnocratico, dominio degli algoritmi o algocrazia. Dall’altro lo sviluppo umano-centrico (human-centric /human-centred) che tiene conto delle innovazioni tecnologiche ma che sa coniugarle secondo un’etica degli algoritmi ovvero «algoretica», secondo il puntuale neologismo coniato da P. Paolo Benanti. Per un umanesimo digitale che «non trasforma l’essere umano in una macchina e non interpreta le macchine come esseri umani. Che riconosce la peculiarità dell’essere umano e delle sue capacità, servendosi delle tecnologie digitali per ampliarle, non per restringerle.»

Molteplici i principi etici proposti. Come richiamato da Luciano Floridi, «l’enorme volume di principi proposti – più di 160 nel 2020, secondo l’AI Ethics Guidelines Global Inventory (la rassegna globale delle linee guida etiche per l’IA) di Algorithm Watch – rischia di diventare soverchiante e fuorviante, sollevando due potenziali problemi. O i vari insiemi di principi etici per l’IA sono simili, portando a inutili ripetizioni e ridondanze, oppure, se differiscono in modo significativo, sono suscettibili di ingenerare confusione e ambiguità. Il peggior risultato sarebbe quello di creare un “mercato di principi” in cui le parti interessate potrebbero essere tentate di “acquistare” quelli più allettanti.»

Allora come risolvere il problema........

© HuffPost


Get it on Google Play