N. 169 -
gennaio 2024
A proposito di
L’INTELLIGENZA ARTIFICIALE CI SALVERÀ O CI DISTRUGGERÀ?
Ma l’Intelligenza Artificiale (IA) è davvero così potente da poter decidere il nostro destino? O si tratta solo di una proiezione delle nostre paure e delle nostre speranze? E soprattutto, chi ha il potere di usare l’IA per il bene o per il male?
Per rispondere a queste domande, dobbiamo prima capire cosa sia l’IA e come funziona. L’IA è un insieme di tecniche informatiche che permettono a macchine e software di svolgere compiti che normalmente richiedono intelligenza umana, come riconoscere immagini, comprendere il linguaggio, apprendere da dati, risolvere problemi, ecc.
L’IA si basa su algoritmi, ovvero sequenze di istruzioni che definiscono come eseguire una determinata operazione. Gli algoritmi sono programmati dagli esseri umani, ma possono anche essere generati automaticamente da altre macchine, attraverso processi di apprendimento automatico o machine learning.
Il machine learning è una branca dell’IA che permette alle macchine di imparare da dati, senza essere esplicitamente programmate. In pratica, le macchine sono in grado di modificare i propri algoritmi in base ai risultati ottenuti, migliorando le proprie prestazioni.
Il machine learning si divide in due tipi principali: supervisionato e non supervisionato. Nel machine learning supervisionato, le macchine imparano da dati etichettati, ovvero associati a una categoria o a un valore. Ad esempio, se vogliamo insegnare a una macchina a riconoscere i volti, le forniamo una serie di immagini con le relative etichette (nome, età, sesso, ecc.). La macchina analizza i dati e crea un modello che le permette di classificare nuove immagini.
Nel machine learning non supervisionato, invece, le macchine imparano da dati non etichettati, ovvero senza una categoria o un valore predefinito. Ad esempio, se vogliamo insegnare a una macchina a raggruppare i clienti di un negozio, le forniamo una serie di dati sulle loro abitudini di acquisto, senza indicare a quale segmento appartengono. La macchina analizza i dati e crea dei cluster, ovvero dei gruppi di elementi simili tra loro.
Un caso particolare di machine learning non supervisionato è il deep learning, ovvero l’apprendimento profondo. Il deep learning si basa su reti neurali artificiali, ovvero strutture informatiche che simulano il funzionamento dei neuroni del cervello umano. Le reti neurali sono composte da diversi strati di nodi, ognuno dei quali riceve degli input, li elabora e li trasmette agli strati successivi. Più strati ci sono, più la rete è profonda e più è in grado di apprendere da dati complessi e astratti.
Il deep learning è la tecnica che ha permesso di realizzare le applicazioni più avanzate e spettacolari dell’IA, come la generazione di immagini, testi, musica, video, la traduzione automatica, il riconoscimento vocale, la guida autonoma, il gioco di scacchi e di Go, ecc.
Ma il deep learning ha anche dei limiti e dei problemi. Innanzitutto, richiede una grande quantità di dati e di potenza di calcolo, che non sono sempre disponibili o accessibili. Inoltre, le reti neurali sono spesso opache, ovvero non è facile capire come e perché arrivano a una certa conclusione. Questo rende difficile verificare, controllare e correggere eventuali errori o bias.
I bias sono delle distorsioni che possono influenzare il funzionamento e i risultati dell’IA. I bias possono derivare da diversi fattori, come la qualità, la quantità, la rappresentatività, la provenienza dei dati, la scelta degli algoritmi, la programmazione degli sviluppatori, le aspettative degli utenti, ecc.
I bias possono avere conseguenze negative, come la discriminazione, l’ingiustizia, la disinformazione, la violazione della privacy, la perdita di fiducia, ecc. Per evitare o ridurre i bias, è necessario adottare delle misure di prevenzione, monitoraggio, valutazione, correzione e trasparenza.
La trasparenza è uno dei principi fondamentali per garantire un uso etico e responsabile dell’IA. La trasparenza significa rendere chiari e comprensibili gli obiettivi, i processi, i criteri, le fonti, le responsabilità, gli impatti dell’IA. La trasparenza si rivolge a tutti gli attori coinvolti nell’ecosistema dell’IA, come i produttori, i fornitori, i regolatori, i consumatori, i cittadini, ecc.
La trasparenza è anche una condizione per realizzare un altro principio fondamentale dell’IA: l’accountability, ovvero la responsabilità. L’accountability significa essere in grado di rendere conto delle proprie azioni e delle proprie decisioni, sia in termini morali che legali. L’accountability implica anche la possibilità di intervenire, correggere, sanzionare, riparare, compensare, in caso di errori, danni, violazioni, abusi, ecc.
L’accountability è una sfida complessa, soprattutto quando l’IA è autonoma, ovvero in grado di agire senza il controllo o il consenso umano. In questo caso, si pone il problema di stabilire chi sia il soggetto responsabile: il produttore, il fornitore, l’utente, la macchina stessa, o una combinazione di questi?
Per risolvere questo problema, sono state avanzate diverse proposte, come la creazione di un’agenzia regolatrice, la definizione di uno statuto giuridico, l’assegnazione di una personalità giuridica, l’introduzione di un’assicurazione obbligatoria, l’istituzione di un fondo di compensazione, ecc.
Tuttavia, queste proposte non sono ancora state implementate in modo uniforme e coerente, lasciando spazio a incertezze, conflitti, disparità, ecc. Per questo, è necessario armonizzare le norme e le pratiche a livello nazionale, europeo e internazionale, in modo da garantire un quadro giuridico chiaro e efficace.
Ma le norme e le pratiche non sono sufficienti a garantire un uso etico e responsabile dell’IA. È necessario anche promuovere una cultura e una consapevolezza dell’IA, basata su valori e principi condivisi, come il rispetto, la dignità, la libertà, l’uguaglianza, la solidarietà, la sostenibilità, ecc.
Questi valori e principi devono guidare sia gli sviluppatori che gli utenti dell’IA, in modo da creare una relazione di fiducia e di collaborazione tra esseri umani e macchine. Una relazione che non sia basata sulla paura o sull’illusione, ma sulla realtà e sulla ragione.
La realtà è che l’IA non è né buona né cattiva, ma dipende da come la usiamo. La ragione è che l’IA non è né intelligente né stupida, ma dipende da come la pensiamo.
Pensare l’IA significa interrogarsi sul suo significato, sul suo scopo, sul suo ruolo, sul suo valore, sul suo limite, sul suo futuro. Pensare l’IA significa anche interrogarsi su noi stessi, sulla nostra identità, sulla nostra umanità, sulla nostra responsabilità, sul nostro destino.
Pensare l’IA, infine, significa anche immaginare l’IA, ovvero proiettare scenari possibili, desiderabili, auspicabili, alternativi, creativi, ironici, ecc.
