La dignità della persona nell’era dell’intelligenza artificiale
La Suprema Corte di Cassazione, con sentenza 25 maggio 2021, n. 14381 (su cui mi permetto di segnalare la nota scritta per la Rivista Il lavoro nella Giurisprudenza, 2/2021, pp. 153 e ss.), ha accolto il ricorso proposto dal Garante Privacy (GPDP), ribaltando le valutazioni espresse, con sentenza, dal Tribunale di Roma in tema di prestazione del consenso a un sistema automatizzato che si avvale di un algoritmo per la valutazione oggettiva dei dati personali.
Il caso ha origine con il provvedimento, n. 488 del 2016, del Garante Privacy, che ha giudicato non corrispondente ai criteri di trasparenza e liceità il trattamento dei dati effettuata a mezzo piattaforma dell’Associazione “Mevaluate Onlus”. Siffatta infrastruttura informatica opera adunando numerose categorie di dati personali attinenti a profili di carattere penale, civile e fiscale, al fine di elaborare un “rating reputazionale ” dell’aderente. Cionondimeno, nella raccolta di tali dati risultano richiesti ulteriori risvolti attinenti alla sfera intima e personale della persona quale, a titolo esemplificativo, le attività di volontariato eventualmente svolte. Ora, preliminarmente, è doveroso considerare che, se è vero che tali dati sono raccolti sul consenso espresso dagli interessati è altrettanto vero che, affinché possa giuridicamente parlarsi di “valido consenso” è necessario che esso risponda ai requisiti normativi puntualmente disciplinati dal Reg. UE 2016/679 e, più precisamente dal combinato disposto di cui agli artt. 4, 5 e 7 della richiamata fonte europea.
Ciò posto, potrà dunque dirsi integrato il consenso lì dove questo sarà prestato “mediante un atto positivo inequivocabile con il quale l’interessato manifesta l’intenzione libera, specifica, informata e inequivocabile di accettare il trattamento dei dati personali che lo riguardano”.
Da tale punto di vista, la Corte di Cassazione censura l’argomentazione logico giuridica del Tribunale di merito che aveva avallato il modus operandi della piattaforma digitale sulla scorta delle motivazioni addotte, da parte resistente nel proprio atto difensivo, individuabili essenzialmente nella finalità di “rendere maggiormente efficienti, trasparenti e sicuri i rapporti socio-economici”. La Corte, pertanto, non accoglie la ricostruzione ed esprime il principio di diritto secondo cui “in tema di trattamento di dati personali, il consenso è validamente prestato solo se espresso liberamente e specificamente in riferimento a un trattamento chiaramente individuato; ne segue che nel caso di una piattaforma web (con annesso archivio informatico) preordinata all’elaborazione di profili reputazionali di singole persone fisiche o giuridiche, incentrata su un sistema di calcolo con alla base un algoritmo finalizzato a stabilire i punteggi di affidabilità, il requisito di consapevolezza non può considerarsi soddisfatto ove lo schema esecutivo dell’algoritmo e gli elementi di cui si compone restino ignoti o non conoscibili da parte degli interessati ”. Punto nodale della motivazione è pertanto individuabile nella scarsa trasparenza delle singole componenti dell’algoritmo che, fattualmente, investono l’intero sistema algoritmico viziando il consenso dell’interessato che, a tal punto, non può dirsi liberamente e validamente prestato risultando compromesso il processo di autodeterminazione del singolo che si espone ad un tale trattamento dei dati.
Tutto ciò considerato, la sentenza in commento risulta carente di valutazione di ulteriori profili che invece erano stati ben delineato dal Garante Privacy. I Giudici di legittimità hanno infatti omesso di valutare le ricadute sul profilo etico della persona e su come tale trattamento di dati genera violazioni della dignità della persona. Meglio dire, è sufficiente che il consenso sia “validamente prestato” secondo canoni squisitamente ed esclusivamente tecnico giuridici?
La risposta è, a parere di chi scrive, negativa.
Dietro le “macchine” vi sono menti umane che a tali sistemi informatizzati trasmettono la loro impronta. Ciò comporta che ove vi è un pregiudizio, magari su base etnica o di genere ovvero di tipo religioso o quant’altro, questo finirà con l’essere trasmesso all’algoritmo che, consequenzialmente, attribuirà un basso punteggio ad una persona sulla base di una caratteristica personale. Ecco quindi che appare superficiale limitare la liceità del trattamento nei termini sopra visti ma occorre che il legislatore, europeo e nazionale, intervenga a colmare tale lacuna individuando criteri di validazione di siffatti sistemi informatici e che tali criteri possano indefettibilmente assicurare la tutela della persona ovvero la parità di trattamento di ogni individuo in ogni ambito nel quale esso esprime la propria individualità.