fbpx

Un dialogo attorno ai pregi e ai difetti del recente sforzo europeo di regolamentare le intelligenze artificiali, con Francesco D’Isa (artista e filosofo) ed Emmanuele Serlenga (avvocato).

Tra promesse e paure, l’intelligenza artificiale è ormai parte del nostro mondo. L’Unione Europea, attraverso l’adozione dell’AI Act, mira a incanalare questa potente tecnologia verso uno sviluppo etico e sostenibile. Tuttavia il cammino è pieno di sfide e l’AI Act, nonostante le sue nobili intenzioni, presenta sia soluzioni che lacune. A esplorare questi temi nel dialogo che segue sono Francesco D’Isa, artista e filosofo che ha abbracciato precocemente l’IA nella sua pratica creativa, ed Emmanuele Serlenga, legale specializzato in diritto tecnologico.

Francesco D’Isa: L’AI act è realtà. Ne sono felice, perché una regolamentazione di queste tecnologie era necessaria, soprattutto nei confronti di alcuni usi potenzialmente molto rischiosi. Certo non è perfetto e su alcune parti ho dei dubbi, magari ne parleremo, ma è un buon inizio. A uno sguardo da profano mi pare che alcuni utilizzi rischiosi siano stati mitigati, nonostante alcune resistenze politiche, come quelle nell’ambito del riconoscimento facciale. Personalmente sono soddisfatto che vieti categoricamente l’uso di sistemi di categorizzazione biometrica basati su caratteristiche sensibili (come convinzioni politiche, religiose, o razza), la raccolta non mirata di immagini per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, il social scoring, e tecniche manipolative. Tu che ne pensi?

Emmanuele Serlenga: L’art. 5 comma I del testo vieta tassativamente, considerandoli rischi in nessun modo accettabili, sistemi di IA che utilizzino tecniche subliminali o tecniche manipolative o ingannevoli per distorcere il comportamento, che sfruttino la vulnerabilità di individui o gruppi di individui specifici, caratterizzazione biometrica basati su attributi con caratteristiche sensibili, social scoring, ossia di classificazione della reputazione dei cittadini, evitando così ad esempio che siano lecite campagne di denigrazione di qualsivoglia gruppo sociale basate su sistemi di IA.
Si lascia apprezzare, a mio giudizio la centralità attribuita dal legislatore europeo al diritto alla reputazione, che attiene all’identità sociale, ossia alle convinzioni e alle opinioni che gli altri soggetti, membri del gruppo di appartenenza, si fanno di una certa persona o di un gruppo di persone. Il fatto che da qualche anno i social networks abbiano ampliato la platea del gruppo di appartenenza di ognuno di noi, rende ancora più importante tutelare questo diritto ed il legislatore dell’AI ACT l’ha compreso, tenendo presente anche l’incidenza, quantomeno potenziale, di campagne denigratorie sul processo democratico. Effettivamente, questa è a mio giudizio una delle parti più riuscite e lungimiranti dell’AI ACT.

FD: Sì, anche secondo me questa è la parte più preziosa dell’IA act. È un peccato che non si menzioni l’uso militare, ma forse non è di loro competenza, sebbene sia a mio parere uno degli usi più pericolosi su cui per motivi geopolitici gli accordi purtroppo latitano…

ES: Ecco, questo è a mio avviso il più grave punctum dolens dell’AI ACT, anche perché nemmeno si vede all’orizzonte una normativa ad hoc. Peraltro la volontà del legislatore europeo di escludere l’ambito militare dall’AI ACT è stata sempre univoca fin dalla sua prima bozza.

Ciò è molto preoccupante, alla luce dei molteplici utilizzi dell’IA da ormai un ventennio in vari ambiti del settore militare: elaborazione di armi di precisione, regolamentazione e attuazione di sistemi di combattimento, ottimizzazione di trasporti e logistica, protezione dei segreti militari dagli attacchi informatici e molto altro ancora.

FD: Avevo sentito che è proprio un ambito in cui non possono legiferare, ti risulta? Le intenzioni di questo enorme lavoro mi sembrano ottime, nonostante alcune strade che reputo sbagliate. Il problema comunque è a monte: quale paese mai vorrebbe fare una legge per restare indietro nella potenza militare? Si mormorava di accordi Cina-USA per non collegare IA a bombe atomiche, una roba che davvero basterebbe il buonsenso, ma credo che persino lì non sia stato raggiunto molto. Ammetto che trovo imbarazzante come ci si preoccupi a gran voce di chi “copia le opere d’arte” (interpretazione che peraltro trovo falsa) e nessuno dei critici si muove o protesta contro l’uso militare, che ovviamente non sarà fermato dal copyright…

ES: A livello normativo, nulla avrebbe ostato a una regolamentazione dell’IA anche in ambito militare. Volendo si sarebbe potuto anche agire come avvenne nel GDPR per i trattamenti praticati dalle Forze di Polizia, ai quali fu dedicata una normativa ad hoc, ma contestuale al GDPR stesso. Invece, da subito il legislatore europeo è stato molto chiaro nell’escludere l’ambito militare dall’AI ACT. Personalmente credo che essendo l’IA utilizzata anche nel conflitto russo – ucraino che vede un massiccio impiego di risorse militari e finanziarie da parte dell’UE, essa probabilmente non ha voluto limitarsi onde non concedere vantaggi al nemico, seguendo il vecchio adagio secondo il quale in amore e in guerra è tutto permesso. È una visione che comprendo ma che non mi trova d’accordo.

 

 

FD: Vale lo stesso per me. Credo anzi che sia uno specchio interessante in cui si riflette il futuro delle AI: laddove hanno e avranno un ruolo per rendere più competitivo uno stato/azienda, i margini legali si adatteranno.

ES: È così. Considera che l’IA sta letteralmente cambiando l’approccio alla guerra, in quanto riesce ad analizzare una grande quantità di dati in poco tempo. Ad esempio l’amministratore delegato di Palantir, compagnia statunitense specializzata nelle nuove tecnologie e nell’analisi di big data, non ha nascosto il coinvolgimento della propria azienda nel conflitto in Ucraina, che ha offerto peraltro gratuitamente volendo testare il potenziale dell’IA in ambito bellico.

Credo che questa mancanza di regolamentazione nel settore militare sia l’aspetto in assoluto più inquietante dell’AI Act.

FD: Sono d’accordo con te. Un’altra parte controversa dell’IA Act è anche quella legata ai foundation models, o le intelligenze artificiali generative. Cose come ChatGPT e Midjourney, insomma. Qui secondo me c’è stata un’occasione mancata: ho letto molta enfasi sull’idea di un obbligo di indicare che un output proviene da una IA, ma è un procedimento probabilmente impossibile per le immagini e senz’altro impossibile per il testo, dove basta copiare… credo che qua ci sia proprio un po’ di wishful thinking per tranquillizzare le voci più preoccupate, anche se il terrore del materiale falso è a mio parere (e non solo) mal posto, perché l’impatto di una notizia o di un documento risiede nella narrazione che vi si costruisce attorno, molto più che nella sua attendibilità testimoniale, che sin dalla sua nascita con la fotografia è stata messa in dubbio dalle prime falsificazioni, penso alle famose fate che ingannarono Conan Doyle…

ES: Intanto, per capire la delicatezza del punto, basterà pensare che per mesi la stessa approvazione dell’AI ACT è stata a rischio proprio per la divergenza di vedute sui foundation models. Francia e Germania nel novembre 2023, avevano proposto di una sola categoria di foundation model, sostanzialmente soggetta alla sola autoregolamentazione degli operatori ed a loro si era alleata anche l’Italia. Questo approccio si scontrava però con la posizione del Parlamento Europeo, che invece preferiva una regolamentazione più incisiva.

La Commissione Europea ha dovuto quindi mediare tra i due approcci e credo abbia agito in modo ragionevole proponendo agli artt. 51ss un sistema regolamentare “scalare” in cui gli obblighi di maggior peso sono riservati solo agli operatori ritenuti più rischiosi.

Il merito maggiore dell’AI Act è, a mio giudizio, avere individuato una definizione unitaria di foundation model, che sono ora denominati dall’AI Act come “General Purpose AI Model” (“modelli GPAI”) definibili come dei modelli informatici che possono essere usati per una varietà di compiti, singolarmente o inseriti come componenti in un sistema AI.

L’AI Act individua due categorie di modelli GPAI, generici e sistemici. Questi ultimi sono dei modelli che, in virtù dei rischi sistemici che possono provocare a livello europeo, sono soggetti ad una regolamentazione più pervasiva rispetto a quelli generici che hanno in capo soltanto obblighi di trasparenza, consistenti nel garantire la disponibilità di documentazione tecnica che renda comprensibile il loro funzionamento oltre che nominare nominare un proprio rappresentante autorizzato ad interfacciarsi con le autorità competenti.

La scelta di quali siano gli uni e quali gli altri è rimessa dall’AI ACT ad una procedura gestita dalla sola Commissione, che agisce sulla base di criteri piuttosto vaghi (“Capacità di impatto elevato valutato sulla base di strumenti tecnici e metodologie adeguate”) i quali inoltre possono essere adeguati dalla stessa Commissione nel corso del tempo; senza dubbio dunque la Commissione si è ritagliata un ruolo centrale nell’economia dei modelli GPAI: vista la maggiore neutralità dagli Stati membri, almeno teorica, quindi capacità di garantire uniformità di tale Organo rispetto al Parlamento ed al Consiglio Europeo, anche questa opzione mi sembra ragionevole.

Desta invece maggiori perplessità l’obbligo in capo ai di prevedere una policy mirante al rispetto della normativa sul diritto d’autore, che però non si spinge fino a prevedere l’obbligo di una remunerazione, quindi ad oggi da questo versante la normativa appare incompiuta.

Infine, l’art. 52 comma III prevede che: “Gli utenti di un sistema di IA che genera o manipola immagini o contenuti audio o video che assomigliano notevolmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri per una persona (“deep fake”) sono tenuti a rendere noto che il contenuto è stato generato o manipolato artificialmente”.
Il principio, che cerca di salvaguardare trasparenza e obblighi di formazione, è corretto, tuttavia temo che sia una norma destinata a essere bypassata perché come affermi giustamente tu, basta poco per rendere di fatto impossibile stabilire se la genesi di quel documento o di quella foto sia nell’IA.

Continua a leggere l’articolo su L’Indiscreto.



Artness
Se questo articolo ti è piaciuto o lo hai ritenuto interessante,
iscriviti alla nostra newsletter gratuita!

Rimani aggiornato con le tendenze del mercato dell’arte italiano e internazionale

ISCRIVITI ALLA NEWSLETTER
Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Related Posts




Artness è un progetto di Thetis SRL
Ufficio operativo: Via Oliveti, 110 Centro Direzionale Olidor 54100 Massa (MS) Tel. +39 0585 091214 P.IVA 01020100457
Sede commerciale: Via Mengoni, 4 20121 Milano (MI) Tel. +39 02 40741330
E-mail: info@artness.it


Privacy Policy | Cookie Policy