Regolamentare l’ia? Una prospettiva filosofica

9 minuti

Perché l’intelligenza artificiale (ia) ha bisogno di essere regolamentata? E, soprattutto, qual è il modo migliore per farlo? Tali temi stanno acquistando sempre più importanza nell’agenda politica europea, poiché gli effetti dell’ia sul tessuto sociale, economico e politico sono enormi. Capire perché e come limitarla è, quindi, una sfida che le democrazie occidentali devono saper affrontare per garantire lo sviluppo di un’ia etica che rispetti i diritti fondamentali del cittadino.

Di per sé, com’è ovvio, l’ia, come qualsiasi altro strumento, non può essere malvagia. I problemi emergono quando viene utilizzata in contesti sensibili. Come ha evidenziato in maniera magistrale Cathy O’Neil nel suo best-seller Armi di distruzione matematica, esistono una serie di ambiti dove l’utilizzo dell’ia rischia di aumentare esponenzialmente i casi di discriminazione e di disuguaglianza. Per esempio, quando è usata per valutare l’affidabilità creditizia di una persona o per la lettura automatica dei CV.

Un’altra serie di questioni è legata al processo decisionale dell’ia. Un primo dilemma risiede nel fatto che le scelte prese da questi sistemi sono compiute sulla base di valutazioni che risultano oscure agli stessi sviluppatori. Un altro problema, poi, sta nel fatto che spesso non è chiaro a chi vada attribuita la responsabilità per le decisioni prese dall’ia: agli sviluppatori? A chi ha fornito i dati? O all’azienda che utilizza il sistema?

L’uso di questi strumenti ha, poi, delle ripercussioni sui diritti d’autore. L’ia, infatti, in particolare i basic models, viene addestrata attraverso un’immensa mole di dati. Spesso però, all’ia vengono fornite delle opere musicali, artistiche o letterarie, create da esseri umani. Usarle senza il loro consenso potrebbe essere considerato un caso di violazione dei diritti d’autore e, se non lo fosse, quantomeno ci spinge a ripensare alla nostra concezione di copyright. In ogni caso, alcuni gruppi editoriali cercano di farsi sentire, come dimostra la recente causa intentata dal New York Times contro Open AI, la quale, secondo il NYT, avrebbe addestrato ChatGPT utilizzando milioni dei loro articoli.

Infine, se tutto questo non rappresentasse un motivo valido per regolamentare l’ia, bisogna anche ricordare i suoi possibili utilizzi distopici. Per esempio, i sistemi di social scoring in Cina permettono di valutare e di dare un punteggio alla reputazione dei cittadini. A seconda di questo punteggio, ai cittadini può essere impedito di volare o avere una connessione internet rallentata. Di preoccupante, c’è, inoltre, l’utilizzo dei sistemi di riconoscimento facciale, contesto in cui, peraltro, il tasso di imprecisione è molto elevato.

Tuttavia, se abbiamo elencato le varie ragioni per cui la nostra società dovrebbe creare delle leggi per un’ia etica, un altro problema è: come va regolamentata? Da una prospettiva etica, quali sono i principi morali che bisogna rispettare? L’etica dell’ia è una branca della filosofia che negli ultimi anni ha avuto una forte accelerazione, proprio in virtù dello sviluppo di questi strumenti informatici. Sono, inoltre, aumentati in maniera esponenziale le iniziative che hanno tentato di individuare i principi ai quali un’ia etica deve sottostare. Secondo l’AI Ethics Guidelines Global Inventory, nel 2020, queste iniziative hanno proposto un totale di 160 principi etici. Un tale numero enorme, però, rischia di essere soverchiante e fuorviante.

Ecco perché, Luciano Floridi, professore di Filosofia all’Università di Oxford specializzato in etica dell’ia, ha rilevato che, in realtà, ci sono una serie di punti in comune tra i diversi principi, i quali possono essere unificati in un unico quadro di cinque principi, di cui quattro condivisi con la bioetica. Il primo è la beneficenza, con la quale si intende il fatto che l’ia dovrebbe essere finalizzata alla promozione del benessere umano e del pianeta. Il secondo è la non maleficenza col quale si tutela la privacy e la sicurezza. C’è poi il principio dell’autonomia, che dovrebbe garantire il potere

decisionale degli esseri umani. L’ultimo principio condiviso con la bioetica è la giustizia che sostiene la possibilità attraverso l’ia di promuovere la solidarietà e la prosperità. Infine, il principio che caratterizza, secondo Floridi, la regolamentazione dell’ia è l’esplicabilità, che si riferisce al dovere di rendere intellegibili le scelte prese dalle macchine e di definire chiaramente le responsabilità.

Questi, com’è evidente, sono principi etici che, se per un verso sono vincolanti poiché difendono i diritti dei cittadini, in particolare nelle democrazie occidentali, per un altro è difficile tramutare in legge, in un contesto economico-tecnologico, come il nostro, altamente competitivo dove per stare al passo con la concorrenza non ci si pio permettere di rallentare.

L’Unione Europea (UE) è una delle poche istituzioni politiche al mondo che cerca di creare le miglior condizioni per lo sviluppo dell’ia etica. Infatti, lo scorso 8 dicembre, la Commissione europea, il Consiglio ed il Parlamento hanno approvato l’AI Act che si presenta come la prima forma di regolamentazione dell’ia a livello mondiale. Il tentativo è quello di trasformare i principi etici, descritti sopra, in leggi, attraverso la limitazione dell’uso dell’ia in contesti specifici e imponendo regole più stringenti a seconda del rischio per i foundation models come ChatGPT o Bard.

Nonostante il testo definitivo non sia ancora disponibile, alcune indiscrezioni sono emerse. Saranno vietati le applicazioni dell’ia che categorizzano le persone sulla base di aspetti sensibili come l’etnia, la religione e l’orientamento sessuale. Allo stesso modo, non è permesso il predictive policing, ossia l’utilizzo dell’ia per valutare la probabilità che alcune persone compiano un reato. Nei luoghi di lavoro e nelle istituzioni educative è proibito l’uso dei sistemi di riconoscimento delle emozioni. Mentre, i sistemi di riconoscimento facciale che raccolgono immagini facciali da Internet o da telecamere a circuito chiuso sono vietati, ma con delle eccezioni. Per esempio, il riconoscimento biometrico facciale in tempo reale potrà essere usato nelle aree pubbliche in caso di una minaccia terroristica, ricerca di vittime o di sospettati di reati gravi.

Per alcuni, così facendo l’UE sta limitando parecchio un settore, come quello dell’ia, già poco efficiente in Europa. Per altri, invece, l’AI Act rappresenta uno spartiacque che ci porterà ad avere sistemi affidabili ed etici. Tuttavia, al di là degli schieramenti, alcune questioni rimangono aperte: questa regolamentazione basta per difendere i principi etici fondamentali? Il punto più dibattuto riguarda le eccezioni all’uso dei sistemi di riconoscimento facciale. Nonostante il Parlamento Europeo fosse per un divieto totale, alla fine in alcuni casi è possibile usarlo. Da qui sorgono le preoccupazioni: se uno stato dell’UE abusasse della minaccia terroristica per avere dati sulla popolazione, che fine farebbe il principio della non maleficenza? La privacy sarebbe rispettata?

Infine, va ricordato che l’AI Act potrebbe essere operativo tra due anni. E, chissà in questo lasso di tempo quali ulteriori sconvolgimenti avrà portato l’ia.

Marco Leo

Nato e cresciuto in provincia di Viterbo. Passo il tempo a studiare filosofia, pulire casa e giocare a calcio.

Lascia un commento

Your email address will not be published.

Ultimi articoli di Marco Leo