{"id":606,"date":"2025-01-07T11:45:00","date_gmt":"2025-01-07T10:45:00","guid":{"rendered":"https:\/\/retina-der.uniovi.es\/?p=606"},"modified":"2025-01-12T11:19:10","modified_gmt":"2025-01-12T10:19:10","slug":"discriminazioni-algoritmiche-e-tutela-dei-consumatori-vulnerabili-nellaccesso-al-credito","status":"publish","type":"post","link":"https:\/\/retina-der.uniovi.es\/index.php\/2025\/01\/07\/discriminazioni-algoritmiche-e-tutela-dei-consumatori-vulnerabili-nellaccesso-al-credito\/","title":{"rendered":"Discriminazioni algoritmiche e tutela dei consumatori vulnerabili nell\u2019accesso al credito"},"content":{"rendered":"\n<p class=\"has-text-align-right\">di <em>Giulia Curcuruto e Paolo Inturri<\/em><\/p>\n\n\n\n<p class=\"justificado\">1. Con l\u2019espressione <em>credit scoring<\/em> ci si riferisce all\u2019impiego di metodi statistici per l\u2019elaborazione dei dati rilevanti in <em>output<\/em> numerici che indicano il profilo di rischio, affidabilit\u00e0 e puntualit\u00e0 nei pagamenti di ciascun potenziale cliente. Tipicamente, maggiore \u00e8 il punteggio ottenuto, minore \u00e8 il rischio di inadempimento.<\/p>\n\n\n\n<p class=\"justificado\">In Italia il merito creditizio viene stimato impiegando per lo pi\u00f9 modelli statistici econometrici. Tuttavia, nel biennio 2023-2024 le imprese che operano nel <em>Fintech credit <\/em>hanno investito 901 milioni di euro in progetti di sviluppo di tecnologie innovative, il 16,5% dei quali \u00e8 destinato all\u2019IA. Infatti, la capacit\u00e0 di sfruttare dati alternativi permette all\u2019IA di determinare il punteggio di credito estraendo delle variabili che non hanno una chiara relazione economica e che, pertanto, non potrebbero essere considerate da un modello basato unicamente su dati finanziari.<\/p>\n\n\n\n<p class=\"justificado\">La prassi dei Paesi in cui l\u2019IA \u00e8 gi\u00e0 in uso nel settore dell\u2019accesso al credito ha evidenziato il rischio di discriminazione che questa comporta per i consumatori appartenenti a categorie vulnerabili.<\/p>\n\n\n\n<p class=\"justificado\">2.Invero, numerosi studi economici hanno da tempo evidenziato come il rischio di discriminazione, basato su fattori quali razza, etnia e genere, sia endemico al procedimento di valutazione del merito creditizio, indipendentemente dal modello adottato.<\/p>\n\n\n\n<p class=\"justificado\">Ci\u00f2 che contraddistingue i procedimenti di<em> credit scoring<\/em> basati sull\u2019IA sono le cause della discriminazione. Infatti, determinanti in tal senso non potranno che essere le scelte adottate nelle diverse fasi di sviluppo dell\u2019algoritmo, le quali volontariamente o involontariamente possono determinare esiti discriminatori.<\/p>\n\n\n\n<p class=\"justificado\">Innanzitutto, nella fase di raccolta dei dati risulteranno fondamentali le decisioni che riguardano la composizione del <em>dataset<\/em> di addestramento. Infatti, se quest\u2019ultimo presenta dei bias, l\u2019algoritmo potrebbe riprodurli nei risultati.<\/p>\n\n\n\n<p class=\"justificado\">Nel caso in cui il <em>dataset <\/em>ricomprenda dati tradizionali i pregiudizi possono derivare da una inadeguata rappresentativit\u00e0 del campione di consumatori di riferimento.<\/p>\n\n\n\n<p class=\"justificado\">Inoltre, taluni pregiudizi possono derivare dall\u2019etichettatura dei dati di addestramento degli algoritmi di ML supervisionato, in cui l\u2019algoritmo \u00e8 addestrato alla modellazione della variabile dipendente attraverso dei dati di addestramento contrassegnati con delle <em>class label<\/em>.<\/p>\n\n\n\n<p class=\"justificado\">Infine, indipendentemente dalla tipologia di dati considerati, i risultati discriminatori possono risultare dalla selezione delle caratteristichedi <em>creditworthiness<\/em>.<\/p>\n\n\n\n<p class=\"justificado\">Ulteriori risultati discriminatori possono derivare dalla fase di sviluppo e addestramento del modello di IA, durante la quale possono verificarsi i problemi di <em>overfitting<\/em> o<em> underfitting<\/em> che non consentono gli consentono di raggiungere un grado di generalizzazione tale da assegnare dei punteggi in grado di rispecchiare l\u2019effettiva <em>creditworthiness <\/em>dei consumatori.<\/p>\n\n\n\n<p class=\"justificado\">Ancora, pu\u00f2 accadere che non venga adeguatamente considerata la tipologia di errore nei risultati generati dal modello. Durante l\u2019addestramento \u00e8 imprescindibile scegliere quali errori minimizzare ovverosia spiegare al modello se, ad esempio, sia preferibile che per errore ad un consumatore meritevole non venga concesso credito o, viceversa, che ad uno non meritevole venga concesso. I finanziatori preferiscono che venga data prevalenza ai falsi negativi, in modo da minimizzare il rischio di impresa dovuto alle insolvenze. Tuttavia, ove tale errore sia dovuto a forme di bias contenuti nei dati, la mancata considerazione della tipologia di errore si traduce in una sistematica esclusione dal credito dei consumatori danneggiati dal pregiudizio.<\/p>\n\n\n\n<p class=\"justificado\">Infine, \u00e8 anche possibile che gli effetti discriminatori si realizzino allorch\u00e9 le variabili effettivamente necessarie per valutare il merito creditizio siano al contempo <em>proxy<\/em> circa l\u2019appartenenza ad una classe di consumatori svantaggiata.<\/p>\n\n\n\n<p class=\"justificado\">L\u2019ultima fase in cui pu\u00f2 darsi luogo a fenomeni di discriminazione \u00e8 quella dell\u2019analisi dei risultati. A causa del c.d. <em>black box effect<\/em> in presenza di un risultato discriminatorio l\u2019analista non potrebbe agevolmente comprenderne le cause, e, soprattutto, potrebbe manifestare ritrosie a causa del c.d. <em>anchoring effect<\/em>.<\/p>\n\n\n\n<p class=\"justificado\">Alla luce di tutto quanto sopra affermato, emerge che i rischi di <em>output<\/em> discriminatori non possono essere cancellati del tutto secondo un modello di tutela <em>by design<\/em>, stante l\u2019ineliminabile tasso di soggettivit\u00e0 coinvolto. Il rischio \u00e8 quello di generare un ciclo di <em>feedback<\/em> in cui nel tempo la distorsione \u00e8 confermata e rinforzata. In altri termini, la negazione sistematica del credito a danno di specifici gruppi sociali causata da un modello non a regola d\u2019arte, contribuisce a determinare un bias storico nei dati, che si rifletter\u00e0 nei campioni estratti dalla popolazione, sulla base dei quali verr\u00e0 aggiornato lo stesso modello distorto.<\/p>\n\n\n\n<p class=\"justificado\">3<em>. <\/em>Per quanto riguarda il quadro normativo, \u00e8 necessario rilevare come l\u2019accertamento del grado di solvibilit\u00e0 degli aspiranti prenditori rileva, anzitutto, sul piano della disciplina prudenziale.<\/p>\n\n\n\n<p class=\"justificado\">A questo scopo, le disposizioni di vigilanza della Banca d\u2019Italia richiedono al finanziatore di acquisire, in fase precontrattuale, tutta la documentazione necessaria per effettuare un\u2019adeguata valutazione del merito di credito del prenditore e di adottare procedure di sfruttamento delle informazioni che forniscanoindicazioni circostanziate sul livello di affidabilit\u00e0 del cliente.<\/p>\n\n\n\n<p class=\"justificado\">Gli Orientamenti ABE in materia di concessione e monitoraggio dei prestiti prendono in considerazione l\u2019ipotesi in cui la concessione avvenga a seguito del trattamento automatizzato dei dati<em>.<\/em> In questi casi, gli intermediari devono dotarsi di politiche o di procedure dalle quali risultino le condizioni per l\u2019applicazione di decisioni automatizzate; devono essere in grado di comprendere il funzionamento dei modelli, i dati inseriti, le ipotesi, i limiti e i risultati; devono prevenire possibili distorsioni; devono accompagnare al modello automatizzato meccanismi di controllo del risultato e di <em>\u00aboverride\u00bb <\/em>che incorpori il giudizio di esperti. Nell\u2019ipotesi&nbsp; in cui vengano utilizzate tecnologie definite <em>innovative<\/em>, come l\u2019IA, gli enti devono, altres\u00ec, essere in grado di comprendere e prevenire i rischi specifici legati al funzionamento della tecnologia in uso.<\/p>\n\n\n\n<p class=\"justificado\">Infine, all\u2019interno della disciplina prudenziale, \u00e8 utile volgere lo sguardo al Regolamento (UE) CRR applicabile agli intermediari che utilizzano, previa autorizzazione dell\u2019autorit\u00e0 di vigilanza, modelli interni per la misurazione del rischio di credito. Difatti, fermo restando che tali norme sono applicabili soltanto ai modelli destinati al calcolo dei requisiti patrimoniali, esse forniscono indicazioni utili per lo sviluppo di buone prassi nell\u2019impiego di sistemi di IA.<\/p>\n\n\n\n<p class=\"justificado\">In particolare, l\u2019art. 174 CRR descrive le caratteristiche che devono possedere i modelli statistici e gli altri metodi automatici per l\u2019assegnazione delle esposizioni a classi o a pool relativi a debitori o ad operazioni. Pi\u00f9 in dettaglio, la norma richiede che i dati siano accurati, completi e pertinenti, nonch\u00e9 rappresentativi dell&#8217;effettiva popolazione di debitori o di esposizioni dell&#8217;ente e che il modello statistico sia combinato con la valutazione e la revisione umana<em> \u00abin modo da verificare le assegnazioni effettuate in base al modello e da assicurare che i modelli siano utilizzati in modo appropriato\u00bb <\/em>(lett. e).<\/p>\n\n\n\n<p class=\"justificado\">Vengono in rilievo anche gli articoli 124 <em>bis <\/em>e 120 <em>undecies<\/em> del testo unico bancario.<\/p>\n\n\n\n<p class=\"justificado\">Entrambe le disposizioni, pur fornendo indicazioni sulla quantit\u00e0 e la qualit\u00e0 delle informazioni da utilizzare ai fini di una corretta valutazione, non prendono in considerazione l\u2019ipotesi in cui l\u2019elaborazione dei dati avvenga in maniera automatizzata oppure ricorrendo all\u2019IA.<\/p>\n\n\n\n<p class=\"justificado\">Il vigente quadro normativo \u00e8 stato, perci\u00f2, reputato insufficiente a fornire un adeguato livello di tutela del consumatore alla luce della digitalizzazione che ha investito il mercato del credito, ragion per cui il legislatore eurounitario \u00e8 tornato sul tema con la Direttiva CCD II con la quale ha vietato di impiegare dati sensibili o provenienti dai <em>social network<\/em> e ha imposto di prevenire le condotte discriminatorie nell\u2019accesso al credito.<\/p>\n\n\n\n<p class=\"justificado\">Al di fuori dell\u2019ordinamento settoriale del credito, rivestono particolare importanza il GDPR e l\u2019AI Act.<\/p>\n\n\n\n<p class=\"justificado\">Nello specifico, il GDPR, riconosce all\u2019interessato il diritto di essere informato dell\u2019esistenza di un processo decisionale automatizzato che lo riguarda (art. 15, par. 1, lett. h). Ancora, all\u2019art. 22, prevede il diritto a non essere sottoposto ad una decisione basata unicamente sul trattamento automatizzato dei dati; nelle ipotesi in cui ci\u00f2 sia consentito al titolare deve essere riconosciuto almeno il diritto \u00ab<em>di ottenere l&#8217;intervento umano [\u2026] di esprimere la propria opinione e di contestare la decisione\u00bb<\/em>. Un\u2019interpretazione estensiva della norma, preferibile anche alla luce dell\u2019art.18, comma 8, della CCD II permetterebbe all\u2019interessato di esigere dal titolare del trattamento la \u201cspiegazione\u201d della logica sottesa alla decisione algoritmica, che, tuttavia, non pare potersi estendere ad una piena <em>disclosure <\/em>del codice coperto da segreto industriale.<\/p>\n\n\n\n<p class=\"justificado\">L\u2019AI Act, invece, classifica i sistemi di <em>credi scoring <\/em>basati sull\u2019IA come sistemi ad alto rischio<em>, <\/em>in quanto determinano l&#8217;accesso di tali persone alle risorse finanziarie o a servizi essenziali quali l&#8217;alloggio, l&#8217;elettricit\u00e0 e i servizi di telecomunicazioni. Per queste ragioni, i fornitori devono rispettare i requisiti previsti dal Titolo III, Capo II del Regolamento, volti a garantire un\u2019elevata qualit\u00e0 dei dati, metodologie e pratiche idonee a prevenire distorsioni, la tracciabilit\u00e0 dei risultati nonch\u00e9 il controllo di esperti.<\/p>\n\n\n\n<p class=\"justificado\">4. Alla luce della ricostruzione del quadro normativo ci si domanda se al consumatore sia consentito esperire le azioni civili contro la discriminazione di cui agli art. 44 d.lgs. n. 286\/1998, art. 4 d.lgs. n. 215\/2003, art. 3 l. n. 67\/2006, art. 55-<em>quinquies<\/em> d.lgs. n. 198\/2006, regolate dal rito semplificato di cognizione ai sensi dell\u2019art. 28 d.lgs. n. 150\/2011.<\/p>\n\n\n\n<p class=\"justificado\">In particolare, il co. 4 dell\u2019articolo da ultimo citato consente di superare il problema dell\u2019effetto <em>black box <\/em>e del segreto industriale: all\u2019allegazione del ricorrente di elementi di fatto, desunti da dati di carattere anche statistico, dai quali si pu\u00f2 presumere l\u2019esistenza di <em>pattern<\/em> discriminatori il legislatore riconnette un\u2019inversione dell\u2019onere della prova tale per cui spetter\u00e0 al soggetto finanziatore dimostrare che l\u2019IA non ha generato un risultato secondo una logica discriminatoria. Sul piano dei contenuti della sentenza, il co. 5 attribuisce il diritto di rivolgersi al giudice per ottenere: il risarcimento del danno anche non patrimoniale, la cessazione dell\u2019atto discriminatorio pregiudizievole, ogni altro provvedimento idoneo a rimuoverne gli effetti e l&#8217;ordine di adozione di un piano di rimozione delle discriminazioni. Pi\u00f9 nel dettaglio, bisogna interrogarsi se la cessazione dell\u2019atto discriminatorio e l\u2019adozione di ogni altro provvedimento idoneo possano tradursi in un ordine di rivalutazione del richiedente previa eliminazione dei bias riscontrati nell\u2019IA, nonch\u00e9 se l&#8217;ordine di adozione di un piano di rimozione delle discriminazioni possa consistere in una ridefinizione delle politiche e delle procedure interne volte a prevenire i rischi legati all\u2019utilizzo dei modelli automatizzati.<\/p>\n\n\n\n<p class=\"justificado\">Una risposta in senso affermativo non solo sembra consentita da un\u2019interpretazione letterale delle disposizioni, ma soprattutto da un\u2019interpretazione sistematica che tenga conto tanto dell\u2019art. 6 della CCD II quanto del principio di uguaglianza.<\/p>\n\n\n\n<p class=\"justificado\"><strong>El art\u00edculo del que trae causa esta entrada (<a href=\"https:\/\/teseo.unitn.it\/biolaw\/article\/view\/3321\">puede consultarse aqu\u00ed<\/a>), ha sido publicado en el <a href=\"https:\/\/teseo.unitn.it\/biolaw\/issue\/view\/222\">n\u00famero especial<\/a> de 2024 de <a href=\"https:\/\/teseo.unitn.it\/biolaw\/issue\/archive\"><em>BioLaw Journal &#8211; Rivista Di BioDiritt<\/em>o<\/a>.<\/strong><\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>di Giulia Curcuruto e Paolo Inturri 1. Con l\u2019espressione credit scoring ci si riferisce all\u2019impiego di metodi statistici per l\u2019elaborazione dei dati rilevanti in output numerici che indicano il profilo di rischio, affidabilit\u00e0 e puntualit\u00e0 nei pagamenti di ciascun potenziale cliente. Tipicamente, maggiore \u00e8 il punteggio ottenuto, minore \u00e8 il rischio di inadempimento. In Italia [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[27],"tags":[38,39],"class_list":["post-606","post","type-post","status-publish","format-standard","hentry","category-blog","tag-giulia-curcuruto","tag-paolo-inturri"],"_links":{"self":[{"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/posts\/606","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/comments?post=606"}],"version-history":[{"count":2,"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/posts\/606\/revisions"}],"predecessor-version":[{"id":612,"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/posts\/606\/revisions\/612"}],"wp:attachment":[{"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/media?parent=606"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/categories?post=606"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/tags?post=606"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}