L'editoriale/ Intelligenza artificiale, doppio inganno |
Sui vantaggi economici e i guadagni di efficienza dell’intelligenza artificiale non ci sono molti dubbi. Ci sono almeno due ambiti, tuttavia, nei quali l’IA può rivelarsi un alleato infido.
Il primo è il campo delle questioni eticamente o politicamente sensibili, che è il tipico terreno sul quale si misurano giornalisti, operatori dell’informazione, ricercatori, studiosi, intellettuali. Se chiedete a un qualsiasi “assistente virtuale” – come ChatGPT, Gemini, o Grok – se possiede un punto di vista in materia etica, politica o religiosa, potete star sicuri che vi risponderà di no: “io sono imparziale”, protesterà, io “non ho opinioni personali né un’ideologia politica o culturale mia”. Ma non è vero, e non potrebbe essere diversamente, perché il punto di vista di questo genere di programmi dipende, oltreché dalle scelte di fondo dei programmatori, dalla base di dati da cui si alimentano. È lo stesso ChatGPT che, interrogato in merito, lo ammette senza problemi: la sua missione è includere, la sua base di dati è occidente-centrica, anglo-centrica e, in certi ambiti, maschio-centrica. In breve: i programmi di intelligenza artificiale hanno opinioni e punti di vista.
Se volete rendervi conto, ad esempio, della differenza fra ChatGPT (di Open AI), Gemini (Google) e Grok (il chatbot di Musk) basta sottoporre loro una questione sensibile, ad esempio: “è vero che in Italia il tasso di criminalità degli stranieri è maggiore di quello degli italiani?”.
La risposta di Grok è stringata, e sostanzialmente affermativa. Quella di........