SEDE REFERENTE
Mercoledì 28 maggio 2025. — Presidenza del presidente della X Commissione Alberto Luigi GUSMEROLI. – Interviene il sottosegretario di Stato alla Presidenza del Consiglio dei ministri Alessio Butti.
La seduta comincia alle 14.25.
Disposizioni e deleghe al Governo in materia di intelligenza artificiale.
C. 2316 Governo, approvato dal Senato.
(Seguito dell'esame e rinvio).
Le Commissioni proseguono l'esame del provvedimento, rinviato nella seduta del 27 maggio 2025.
Alberto Luigi GUSMEROLI, presidente, avverte che il gruppo PD-IDP ha chiesto che la pubblicità dei lavori sia assicurata anche attraverso il sistema di ripresa audiovideo a circuito chiuso. Non essendovi obiezioni, ne dispone l'attivazione.
Avverte, inoltre, che sono state ritirate, prima dell'inizio della seduta, le seguenti proposte emendative: Boscaini 4.11, Squeri 5.3, 5.4, 5.10, 5.12, 5.21, 5.22 e 5.23, Pittalis 7.7, Boscaini 8.9, Squeri 11.1, Pittalis 13.5, Squeri 16.5, 20.4 e 23.3, Tenerini 24.10, Squeri 24.17, Tenerini 25.2, Pittalis 25.5, Tenerini 25.9, Pittalis 25.11 e 25.14, Squeri 25.18, Tenerini 26.9, Pittalis 26.10 e Squeri 26.11.
Fa presente che l'esame delle proposte emendative riprende a partire dall'emendamento Pavanelli 2.1, con il parere contrario dei relatori e del Governo.
Emma PAVANELLI (M5S), intervenendo sull'emendamento a sua prima firma 2.1, dichiara di essere stupita dal fatto che i pochi emendamenti presentati dai colleghi di maggioranza siano stati ritirati, temendo, pertanto, che da parte dei relatori e del Governo non ci sia la volontà di modificare il testo del provvedimento in esame che con ogni probabilità dovrà tornare al Senato.
Fa presente come l'emendamento in oggetto insista sulle definizioni del disegno di legge, in particolare sulla definizione di «sistema di intelligenza artificiale», adeguandolo alla definizione contenuta nell'AI Act. Rileva sul punto che quest'ultimo regolamento è direttamente applicabile nel nostro ordinamento, a differenza delle direttive, con inevitabili conseguenze in termini di trasposizione interna di norme Pag. 17divergenti rispetto a quelle contenute nel menzionato atto europeo.
Anna ASCANI (PD-IDP), intervenendo sull'emendamento Pavanelli 2.1, manifesta il suo disappunto sull'atteggiamento di chiusura che Governo e relatori stanno assumendo nell'esaminare gli emendamenti presentati, in considerazione del fatto che con ogni probabilità il provvedimento in oggetto dovrà tornare al Senato. Rammenta come, purtroppo, da alcune legislature l'andamento dei lavori parlamentari si sia appiattito sulla prassi del c.d. «monocameralismo di fatto», non consentendo di fatto l'esplicazione della naturale funzione delle due Camere di poter incidere sulla sostanza dei provvedimenti esaminati. Si rammarica del fatto che, quandanche si riesca a derogare a tale dannosa abitudine, come nel caso di specie, non ci sia la volontà da parte della maggioranza e del Governo di intervenire su un provvedimento di fondamentale importanza per il Paese nell'ottica di un suo miglioramento. Rileva che l'emendamento in esame risulta «innocuo», incidendo sull'ambito delle definizioni con l'intento di non stravolgere radicalmente l'impianto del testo. Auspica un cambio di passo nell'atteggiamento di maggioranza e Governo in quanto le chiusure manifestate sino ad oggi risultano incomprensibili e minano il contributo costruttivo che le opposizioni vogliono fornire al provvedimento.
Giulia PASTORELLA (AZ-PER-RE), intervenendo sull'emendamento Pavanelli 2.1, rileva, sulla scia delle osservazioni dei colleghi intervenuti in precedenza, come il provvedimento in esame sia caratterizzato da un tempismo discutibile: i suoi intenti erano quelli di anticipare l'AI Act che, però, nelle more dell'approvazione del presente disegno di legge, è entrato in vigore. Fa presente come risulti quindi necessario adeguare il testo alla normativa europea senza creare, attraverso provvedimenti difformi, come quello in esame, una stratificazione normativa non necessaria e, in alcuni casi, anche dannosa. Evidenzia che l'obiettivo dell'emendamento in esame è quello di migliorare il testo e allinearlo al regolamento europeo sull'IA, nell'ottica di uno spirito collaborativo che le opposizioni stanno offrendo al costruttivo svolgimento dei lavori delle Commissioni.
Le Commissioni respingono gli identici emendamenti Pavanelli 2.1 e Del Barba 2.2.
Antonino IARIA (M5S), intervenendo sull'emendamento Traversi 2.3, di cui è cofirmatario, fa presente come lo stesso miri a sostituire la definizione di «sistema di intelligenza artificiale» introducendo quella di «modello di intelligenza artificiale», in aderenza alle definizioni contenute nell'AI Act, direttamente applicabile nel nostro ordinamento. Per tale motivo, sottolinea come sia inutile creare duplicazioni normative che non costituiscano un valore aggiunto alla regolazione dell'IA e al sostegno in tale settore a cittadini e imprese. Chiede pertanto un accantonamento dell'emendamento in esame.
Alberto Luigi GUSMEROLI, presidente, prende atto che i relatori non accedono alla richiesta di accantonamento.
Christian Diego DI SANZO (PD-IDP), dichiarando di voler sottoscrivere l'emendamento Traversi 2.3, si rammarica dell'atteggiamento non collaborativo di maggioranza e Governo su un provvedimento che sopravviverà alla durata della legislatura e alle relative dinamiche politiche. In tale ottica, rileva come un accordo sulle parti definitorie del disegno di legge risulti fondamentale per un corretto prosieguo dei lavori delle Commissioni, improntato al dialogo costruttivo e finalizzato al miglioramento del testo in esame.
Le Commissioni respingono l'emendamento Traversi 2.3.
Enrico CAPPELLETTI (M5S), intervenendo sull'emendamento a sua prima firma 2.5, evidenzia come risulti di fondamentale importanza introdurre tra le definizioni del provvedimento in esame quella di «IA bias». Rileva che quest'ultima afferisce ad Pag. 18un vulnus comune a molti sistemi di IA, con inevitabili conseguenze in termini di imparzialità e correttezza degli output prodotti, molto spesso connotati da pregiudizi che la macchina possiede fin dalla sua origine in quanto insiti nei dati che le vengono forniti dal programmatore o dalle banche dati presenti sul web. Osserva che, alla luce dell'esistenza di tali problematiche, esistono diversi modi per poter scongiurare i menzionati effetti negativi dei bias tecnologici: migliorare l'addestramento dei modelli di IA, garantire la trasparenza dei codici sorgente, fornire un'educazione digitale avanzata alla cittadinanza. Conclude ribadendo che l'emendamento in esame mira a ridurre al minimo i rischi descritti, congeniti all'uso di modelli di IA.
Andrea CASU (PD-IDP) dichiarando di voler sottoscrivere l'emendamento Cappelletti 2.5, fa presente come il problema degli IA bias non sia da sottovalutare in quanto molto spesso accade che, a causa di alcuni pregiudizi contenuti nei dati forniti alla macchina, le conseguenze e le scelte adottate sulla base di sistemi di IA risultino profondamente ingiuste e discriminatorie. Per tale motivo, auspica che vi possa essere un confronto parlamentare collaborativo e costruttivo sul punto, nell'ottica del miglioramento del testo in esame, alla luce del fatto che con ogni probabilità il provvedimento transiterà nuovamente in Senato.
Antonino IARIA (M5S), intervenendo sull'emendamento Cappelletti 2.5, di cui è cofirmatario, rileva che i sistemi di IA operano attraverso probabilità statistiche che molto spesso conducono a fallacie logiche e a risultati ingiusti. Fa presente come risulti fondamentale addestrare nel modo corretto l'IA in modo tale che quest'ultima, non basandosi solo su dati statistici, eviti distorsioni della realtà con effetti discriminatori nei confronti di categorie di persone. Alla luce di tali considerazioni, ribadisce come il disegno di legge in esame dovrebbe affrontare tali problemi e l'emendamento in oggetto si pone giustappunto in tale direzione.
Christian Diego DI SANZO (PD-IDP), intervenendo sull'emendamento Cappelletti 2.5, rileva l'estrema importanza della tematica sollevata in quanto di diretta influenza sulla vita dei cittadini. Pone l'esempio di modelli di IA utilizzati per la valutazione comparativa di curricula all'interno di procedure selettive. Fa presente come, in questi casi, le conseguenze dei bias tecnologici possano essere particolarmente pericolose in termini di scelte discriminatorie e distorsive della realtà dei fatti. Ribadisce come i lavori delle Commissioni non possano ignorare problematiche, come quelle poste dall'emendamento in esame, pena la creazione di un disservizio al Paese e il venir meno alla loro funzione principale.
Emma PAVANELLI (M5S), intervenendo sull'emendamento Cappelletti 2.5, di cui è cofirmataria, rileva come qualsiasi persona possa facilmente comprendere il rischio a cui si va incontro quando vengono utilizzati sistemi di IA, o, più in generale, strumenti tecnologici: conseguenze potenzialmente aberranti e discriminatorie. Pone l'esempio della discriminazione di genere presente nelle strumentazioni dei maggiori motori di ricerca. Fa presente come introdurre nella parte definitoria del provvedimento il rischio dei bias tecnologici rientri, al di là del colore politico, nella logica di fare correttamente politica: guardare al futuro e al bene delle nuove generazioni che molto spesso sono quelle maggiormente vulnerabili e colpite da distorsioni della realtà di tal fatta. Per tali motivi, auspica un cambio di atteggiamento da parte del Governo e della maggioranza, in quanto l'emendamento in esame non ha intenti ostruzionistici quanto, invece, di miglioramento costruttivo del testo, nell'ottica di un sano dialogo che dovrebbe improntare i lavori delle Commissioni e, più in generale, le funzioni parlamentari.
Anna ASCANI (PD-IDP), intervenendo sull'emendamento Cappelletti 2.5, sostiene la necessità di inserire all'interno del provvedimento la definizione di «IA bias». Ricorda, in particolare, la gravità dei rischi che i cosiddetti IA bias possono generare a danno dei cittadini, soprattutto se appartenentiPag. 19 a dei gruppi sociali specifici e minoritari, come emerge anche dalle numerose ricerche scientifiche svolte in materia. Fa presente, al riguardo, che i sistemi di intelligenza artificiale, traendo indiscriminatamente i dati dalla rete, spesso impiegano notizie false ed espressioni di odio e di intolleranza nei confronti delle minoranze diffuse dagli utenti, generando dei risultati che vanno così ad alimentare – e talvolta ad aggravare – i pregiudizi e le discriminazioni già esistenti.
Ribadisce pertanto la necessità di disciplinare tale fenomeno all'interno del testo in esame, eventualmente anche impiegando una diversa terminologia laddove si volesse evitare l'utilizzo di parole straniere nella normativa italiana. Propone, ad esempio, l'utilizzo del termine «allucinazioni» per descrivere il fenomeno appena illustrato.
Rivolge, in conclusione, un appello al rappresentante del Governo e ai relatori affinché cambino il parere espresso sull'emendamento in discussione, rilevando come lo stesso non si ponga in alcun modo in contrasto con lo spirito del provvedimento, ma al contrario si limiti ad aggiungere un dato che intende rispondere alle preoccupazioni manifestate da tutte le forze politiche sul tema.
Il sottosegretario Alessio BUTTI, ricordando la necessità di garantire l'allineamento della normativa nazionale a quella europea, ribadisce di non condividere lo scopo dell'emendamento Cappelletti 2.5, quale quello di inserire all'interno del testo una definizione di «IA bias» non contemplata, a livello europeo, dall'AI Act. Rileva, peraltro, come anche la definizione alternativa proposta dalla deputata Ascani non sia condivisibile, siccome la stessa comunità scientifica ha ripetutamente rilevato come fornire una definizione univoca al fenomeno in questione risulti sostanzialmente impossibile.
Condivide, tuttavia, la necessità di intervenire a monte sulla qualità dei dati che i sistemi di intelligenza artificiale impiegano e che possono generare risultati iniqui, dannosi o comunque sfavorevoli nei confronti di determinati gruppi specifici.
Emma PAVANELLI (M5S), prendendo atto delle osservazioni formulate dal sottosegretario Butti e della volontà del Governo di allineare la normativa italiana a quella europea, dichiara di non comprendere le ragioni che hanno allora portato il rappresentante del Governo ad esprimere parere contrario sull'emendamento a sua prima firma 2.1, già respinto dalle Commissioni, siccome lo stesso richiamava espressamente il regolamento europeo sull'intelligenza artificiale.
Nel ribadire la necessità di intervenire a fronte di un fenomeno che continua ad alimentare l'emarginazione sociale, rivolge un appello al Governo affinché accolga le istanze espresse, manifestando peraltro la propria disponibilità ad accogliere anche un'eventuale proposta di formulazione dell'emendamento in esame.
Giulia PASTORELLA (AZ-PER-RE), intervenendo sull'emendamento Cappelletti 2.5, dichiara di condividere la volontà del Governo di garantire un allineamento della normativa italiana alla normativa europea in materia di intelligenza artificiale. Fa tuttavia presente che, sebbene la definizione di IA bias non compaia espressamente nel regolamento europeo, tale fenomeno non risulta affatto ignorato dalla medesima normativa, che anzi ne affronta, seppure indirettamente, le conseguenze. Richiama, ad esempio, le disposizioni concernenti il contrasto al fenomeno dell'IA bias nell'ambito dei sistemi ad alto rischio, che addirittura consentono ai provider di impiegare i dati sensibili degli utenti al fine di predisporre degli algoritmi che impediscano, o quantomeno riducano, il generarsi di risultati iniqui o discriminatori.
Premesso ciò ed invitando il Governo ad adottare un atteggiamento flessibile e costruttivo sul tema, manifesta l'opportunità di disciplinare il fenomeno in altri parte del testo in esame, laddove non si intenda intervenire espressamente nell'ambito delle definizioni.
Le Commissioni respingono l'emendamento Cappelletti 2.5.
Emma PAVANELLI (M5S), intervenendo sull'emendamento Appendino 2.6, di cui è Pag. 20cofirmataria, dichiara di condividerne le finalità. Rilevando come la proposta emendativa in esame riprenda in parte anche il contenuto di una proposta di legge dalla medesima recentemente depositata, ricorda come una disciplina concernente specificamente il commercio elettronico sia stata ampiamente richiesta dagli operatori del settore, come peraltro emerso nel corso dell'indagine conoscitiva in materia di intelligenza artificiale recentemente conclusa dalla Commissione Attività produttive.
Nel richiamare, quindi, le molteplici problematiche e i rischi che quotidianamente affliggono la riservatezza dei dati personali dei cittadini che usufruiscono dei sistemi elettronici di rete per effettuare i propri acquisiti, invita i colleghi a svolgere un'ulteriore riflessione sulla proposta emendativa in esame.
Anna ASCANI (PD-IDP), nel rispondere alle osservazioni precedentemente formulate dal sottosegretario Butti, dichiara di non comprendere le ragioni che hanno portato all'espressione di pareri contrari in relazione alle proposte emendative precedentemente esaminate, che espressamente richiamavano la normativa europea in materia di intelligenza artificiale.
In relazione all'emendamento Appendino 2.6, fa presente come lo stesso non si ponga in alcun modo in contrasto con il contenuto e lo spirito del provvedimento, ma anzi intervenga per rafforzare le garanzie offerte ai cittadini in un ambito in cui la riservatezza dei loro dati personali è gravemente e quotidianamente messa a rischio.
Rivolge pertanto un appello al Governo affinché si mostri più disponibile ad un confronto con le forze politiche, quantomeno in questa fase iniziale di esame del provvedimento e rispetto a quelle questioni sulle quali si registra una diffusa convergenza.
Le Commissioni respingono l'emendamento Appendino 2.6.
Andrea CASU (PD-IDP), intervenendo sull'ordine dei lavori, chiede al rappresentante del Governo dei chiarimenti in ordine alla possibilità di svolgere ulteriori approfondimenti istruttori in merito ad alcune proposte emendative riferite all'articolo 3, eventualmente procedendo al loro temporaneo accantonamento. Sottolinea, in particolare, l'importanza che per il proprio gruppo riveste l'emendamento Ascani 3.9, di cui quindi chiede l'accantonamento.
Il sottosegretario Alessio BUTTI, rispondendo al deputato Casu, manifesta la propria disponibilità ad accantonare l'emendamento Ascani 3.9. Si riserva, inoltre, di accedere alle ulteriori proposte di accantonamento che i deputati riterranno di formulare laddove riterrà opportuno svolgere un più approfondito esame delle specifiche proposte emendative.
Beatriz COLOMBO (FDI), relatrice per la X Commissione, anche a nome del relatore per la IX Commissione, onorevole Caroppo, invita al ritiro, esprimendo altrimenti parere contrario, di tutte le proposte emendative presentate all'articolo 3, con l'eccezione dell'emendamento Ascani 3.9, di cui chiede l'accantonamento.
Alberto Luigi GUSMEROLI, presidente, dispone l'accantonamento dell'emendamento Ascani 3.9.
Anna ASCANI (PD-IDP), nell'accogliere con favore l'accantonamento dell'emendamento 3.9 a sua prima firma, evidenzia come l'emendamento Peluffo 3.1 intenda integrare i principi generali posti a presidio della ricerca, dell'uso e dello sviluppo dei sistemi di intelligenza artificiale con il riferimento ai principi di equità e pluralismo.
Evidenzia infatti il rischio che i sistemi di intelligenza artificiale – in particolare di intelligenza artificiale generativa – utilizzino linguaggi che non esita a definire mainstream e che, essendo riferiti a dati statistici, restituiscono risultati corrispondenti all'orientamento delle maggioranze, sacrificando in tal modo le istanze pluralistiche. Al riguardo, ritiene che l'introduzione di siffatti principi nel testo dell'articoloPag. 21 3 non sia in contrasto né con la normativa unionale, né con il testo del disegno di legge del Governo, e che siffatta integrazione possa utilmente supportare le forze politiche nel prosieguo dei lavori sul provvedimento.
Sottolinea poi l'importanza dei principi di equità e pluralismo nell'applicazione dell'intelligenza artificiale al mondo dell'informazione. Al riguardo, rammenta che di recente alcuni editori hanno sottoscritto accordi – che non esita a definire frettolosi e siglati sulla scorta di un eccessivo entusiasmo – per avvalersi di software di intelligenza artificiale in ambito giornalistico, con conseguenze negative sull'operato dei lavoratori e, talvolta, con effetti che ritiene squalificanti.
Reputa dunque indispensabile che l'articolo 3 sia integrato con il richiamo all'equità e al pluralismo, veri e propri presidi posti a tutela dei lavoratori dell'informazione, degli utenti e della generalità dei cittadini, a fronte dell'uso di strumenti di intelligenza artificiale che sono neutrali solo in apparenza.
Conclude ribadendo come l'introduzione di tali principi possa soltanto arricchire il testo del provvedimento, non comprendendo il parere contrario della maggioranza e del Governo su una proposta emendativa che, come già affermato, non contrasta con l'impianto del disegno di legge delineato dall'Esecutivo e poi approvato dal Senato.
Emma PAVANELLI (M5S) si ricollega all'intervento della collega Ascani, ribadendo l'importanza di integrare i principi enunciati all'articolo 3 e sottolineando come la proposta emendativa risulti coerente con altri emendamenti presentati dal suo gruppo.
Ritiene che l'enunciazione del principio del pluralismo sia condizione imprescindibile per legiferare in tema di intelligenza artificiale; a suo parere, esso costituisce un presidio necessario affinché le imprese del settore operino secondo criteri che non possano venire violati.
Rammenta come nel corso dei lavori parlamentari siano già emersi palesi esempi di iniquità nell'uso degli algoritmi, in particolare con riferimento ai motori di ricerca, che spesso restituiscono risultati declinati al maschile. Analoghi squilibri si riscontrano nell'ambito della ricerca sanitaria e scientifica, di fatto parametrata al corpo maschile, che quasi mai tiene in considerazione le peculiarità e le caratteristiche dell'organismo femminile.
Conclude affermando l'importanza di enunciare i principi di equità e pluralismo ogniqualvolta si legiferi in tema di principi generali in materia di intelligenza artificiale, soprattutto con riferimento ad ambiti che hanno un impatto significativo sulla vita dei cittadini, quali la sanità, la scuola, la pubblica amministrazione e l'attività delle imprese.
Christian Diego DI SANZO (PD-IDP), intervenendo sull'emendamento 3.1, di cui è cofirmatario, ribadisce quanto espresso dai colleghi che l'hanno preceduto in ordine alla rilevanza dei principi di equità e pluralismo.
Richiama poi l'attenzione della maggioranza sull'insieme degli emendamenti del suo gruppo presentati all'articolo 3, con i quali si intende integrare i principi generali posti dal disegno di legge a presidio della ricerca e dello sviluppo dell'intelligenza artificiale. Al riguardo, reputa importante che il testo finale del provvedimento sia frutto di un ampio dibattito e che recepisca un lavoro il più possibile condiviso da tutte le forze politiche. Ritiene infatti che, seppure i principi enunciati nel testo approvato dal Senato siano chiari e condivisibili, essi debbano essere integrati con il riferimento all'equità e al pluralismo.
Evidenzia poi come la proposta emendativa nasca dall'attenta osservazione dell'evoluzione dei sistemi di intelligenza artificiale, i quali, a seguito di continuo addestramento, forniscono risposte sempre più precise e, tuttavia, sempre più standardizzate. Da questo fenomeno discende un vulnus per il pluralismo delle idee e per i diritti degli utenti, i quali si troveranno in futuro innanzi a un numero sempre più limitato di fonti di informazione, e dunque, a risposte non connotate da equità e pluralismo.
Sotto un diverso profilo, sottolinea che la legislazione sull'intelligenza artificiale è Pag. 22destinata a prolificare nel tempo, stante la pervasività del fenomeno; appare quindi imprescindibile gettare fondamenta chiare e condivise per la normazione futura, sulla base di principi il più possibile condivisi dalle forze politiche.
Sottolinea infine che l'integrazione dei principi generali dell'articolo 3 con il riferimento all'equità e al pluralismo consente di mitigare i rischi di degenerazione dei sistemi di intelligenza artificiale, che altrimenti potrebbero essere utilizzati dalle maggioranze come strumento di manipolazione del consenso.
Conclude ribadendo la necessità di enunciare principi condivisi, nell'ottica della collaborazione tra le parti politiche, anche a presidio dell'attività del legislatore del futuro.
Andrea CASU (PD-IDP), ricollegandosi agli interventi precedenti, ribadisce l'importanza dell'emendamento Peluffo 3.1, di cui è cofirmatario.
A supporto della proposta emendativa, riferisce di aver chiesto a un software di intelligenza artificiale se la ricerca, lo sviluppo e l'utilizzo dei sistemi di modelli di intelligenza artificiale debbano svolgersi nel rispetto del diritto inviolabile della difesa, nonché dei principi di pluralismo e di equità.
Al riguardo riferisce che, secondo le risposte fornite dal sistema, il mancato rispetto del diritto di difesa rischierebbe di dar vita a una tecnocrazia opaca, in cui i cittadini risulterebbero privi di adeguate tutele; il pluralismo garantisce la coesistenza di opinioni diverse in una società democratica, non potendo un'intelligenza artificiale essere alimentata attraverso modelli culturali e sociopolitici univoci o esclusivi; da ultimo, secondo le risposte del software, il principio di equità evita che i sistemi di intelligenza siano discriminatori, così favorendo la costruzione della fiducia dei cittadini.
In sintesi, riferisce che i medesimi software evidenziano come un'intelligenza artificiale priva di queste caratteristiche risulterebbe tecnicamente pericolosa, eticamente inaccettabile e giuridicamente illegittima.
Alla luce di tali risultanze, chiede quindi l'accantonamento della proposta emendativa Peluffo 3.1, allo scopo di porre gli opportuni presidi affinché l'intelligenza artificiale in futuro non risulti, come evidenziato dai sistemi consultati, tecnicamente pericolosa, eticamente inaccettabile e giuridicamente illegittima.
Le Commissioni respingono l'emendamento Peluffo 3.1.
Il sottosegretario Alessio BUTTI chiede l'accantonamento delle identiche proposte emendative Ascani 3.2 e Del Barba 3.3.
Alberto Luigi GUSMEROLI, presidente, preso atto della richiesta del Governo e del parere concorde dei relatori, dispone l'accantonamento delle proposte emendative Ascani 3.2 e Del Barba 3.3.
Nessun altro chiedendo di intervenire, rinvia quindi il seguito dell'esame ad altra seduta.
La seduta termina alle 15.50.
UFFICIO DI PRESIDENZA INTEGRATO
DAI RAPPRESENTANTI DEI GRUPPI
Mercoledì 28 maggio 2025.
Gli uffici di presidenza si sono riuniti dalle 18.45 alle 18.50.