Intelligenza artificiale e gare pubbliche: come l’IA sta trasformando le procedure ad evidenza pubblica nella PA

09 Luglio 2025
Simone La Fauci

La gara ad evidenza pubblica costituisce lo strumento principale attraverso cui la Pubblica Amministrazione acquisisce lavori, servizi e forniture. Queste procedure sono improntate a trasparenza, concorrenza e imparzialità, principi fondamentali tutelati dal legislatore nazionale e comunitario. Con l’avvento della digitalizzazione e l’emergere dell’Intelligenza Artificiale (IA), si apre una nuova fase di evoluzione tecnologica delle procedure di gara. Tuttavia, l’introduzione dell’IA nel procurement pubblico richiede una regolamentazione puntuale, per assicurare un equilibrio tra innovazione, trasparenza e tutela dei diritti.

Digitalizzazione degli appalti: il ruolo chiave della BDNCP

La Banca Dati Nazionale dei Contratti Pubblici (BDNCP), gestita da ANAC (Autorità Nazionale Anticorruzione), tramite l’applicazione del Codice dei Contratti Pubblici, ha già promosso una profonda trasformazione digitale nelle procedure di gara per gli appalti pubblici. La BDNCP funge da snodo informativo centrale e da punto unico di pubblicazione degli atti relativi all’intero ciclo di vita dei contratti pubblici.

Attraverso la BDNCP si garantisce la trasparenza della fase di gara, degli affidamenti, il controllo delle procedure e l’accesso ai dati da parte di tutti gli stakeholder coinvolti. Il mancato aggiornamento dei dati o il rifiuto di interoperabilità con altre banche dati pubbliche costituisce violazione della normativa sulla transizione digitale, con conseguenti sanzioni.

Uno strumento complementare alla BDNCP è il Fascicolo Virtuale dell’Operatore Economico (FVOE). Questo fascicolo consente la verifica automatizzata dell’assenza di cause di esclusione e del possesso dei requisiti richiesti per la partecipazione alle procedure di gara. I dati contenuti nel FVOE sono aggiornati in tempo reale grazie all’interoperabilità con le principali banche dati pubbliche.

Piattaforme digitali e automazione dei procedimenti

Le stazioni appaltanti sono tenute a utilizzare piattaforme telematiche certificate per la gestione delle procedure di gara, affidamento ed esecuzione dei contratti. Tali piattaforme devono essere accreditate presso l’AGID (Agenzia per l’Italia Digitale) e integrate con la BDNCP.

Grazie a queste piattaforme, è possibile attivare meccanismi di automazione in vari segmenti delle procedure: dalla verifica dei requisiti di partecipazione alla fase di gara, alla valutazione delle offerte, fino al monitoraggio dell’esecuzione contrattuale. Il Codice dei Contratti prevede esplicitamente la possibilità per le amministrazioni di ricorrere a tecnologie basate su IA e blockchain, purché nel rispetto dei requisiti di sicurezza, trasparenza e tracciabilità.

L’IA nelle gare pubbliche: opportunità e rischi

L’IA nella gara pubbliche può introdurre significativi vantaggi:

  • Automazione dei controlli documentali;
  • Supporto all’analisi comparativa delle offerte;
  • Rilevazione di anomalie e comportamenti sospetti;
  • Ottimizzazione della gestione contrattuale post-affidamento.

Tuttavia, l’uso dell’IA in un contesto così sensibile pone sfide normative, etiche e tecniche. Proprio per questo, l’Unione Europea ha adottato l’AI Act, ovvero il Regolamento (UE) 2024/1689, che disciplina in modo organico l’impiego dell’IA nel mercato unico europeo.

AI Act: regole per un’IA affidabile nella PA

L’AI Act definisce un “sistema di IA” come un sistema automatizzato progettato per fornire output (previsioni, raccomandazioni, decisioni) sulla base di input ricevuti. Il Regolamento introduce un approccio basato sul rischio, distinguendo quattro categorie:

  1. Sistemi vietati;
  2. Sistemi di IA ad alto rischio;
  3. Sistemi a rischio limitato;
  4. Sistemi a rischio minimo.

Nel contesto delle procedure di gara, i sistemi di IA usati per valutare le offerte, supportare decisioni di aggiudicazione o filtrare i partecipanti potrebbero rientrare nella categoria “alto rischio”, soggetta a requisiti stringenti.

Obblighi per i sistemi di IA ad alto rischio

Tra gli obblighi previsti per i sistemi di IA ad alto rischio vi sono:

1. Gestione dei rischi

Il fornitore deve predisporre un sistema continuo di valutazione, analisi e mitigazione dei rischi legati alla salute, alla sicurezza e ai diritti fondamentali delle persone interessate dal sistema.

2. Governance dei dati

I dati utilizzati per l’addestramento del sistema devono essere pertinenti, completi, rappresentativi e privi di bias discriminatori. L’intero processo (acquisizione, etichettatura, trattamento) deve essere documentato.

3. Documentazione tecnica

Ogni sistema deve essere corredato da una documentazione tecnica dettagliata, che consenta di verificare la conformità ai requisiti. È inoltre richiesta la registrazione automatica dei log per garantire tracciabilità e auditabilità.

4. Trasparenza e sorveglianza umana

Il sistema deve essere comprensibile agli utilizzatori e soggetto a una forma di supervisione umana qualificata. In alcuni casi, è previsto l’intervento di almeno due soggetti umani per validare determinati output.

5. Cibersicurezza e robustezza

Il sistema deve essere resiliente a guasti, attacchi informatici e malfunzionamenti, mantenendo prestazioni stabili nel tempo. Le soluzioni di IA devono essere conformi anche alle normative europee in materia di sicurezza informatica.

6. Valutazione d’impatto

Le PA e gli enti pubblici che adottano sistemi di IA ad alto rischio devono effettuare una valutazione d’impatto sui diritti fondamentali prima del loro impiego. Questa valutazione deve essere comunicata alle autorità di vigilanza.

AI generativa e deepfake: i nuovi obblighi di trasparenza

L’AI Act disciplina anche i modelli di IA a finalità generali, come i modelli generativi (es. ChatGPT, Gemini), specialmente se ritenuti a rischio sistemico per la loro applicazione alla generazione di elaborati propedeutici alle procedure di gara. In questi casi, il fornitore è obbligato a:

  • pubblicare la sintesi dei dataset usati per l’addestramento;
  • implementare sistemi di controllo dei rischi;
  • effettuare test di resistenza (adversarial testing);
  • garantire il rispetto del diritto d’autore nei contenuti generati.

Inoltre, chi utilizza deepfake o contenuti sintetici deve indicarne chiaramente la natura artificiale, specialmente quando il contenuto è destinato al pubblico o ha rilievo informativo.

Sanzioni e vigilanza: Il Regolatore non sta a guardare

L’AI Act prevede sanzioni molto severe per i trasgressori. In particolare:

  • Fino a 35 milioni di euro o 7% del fatturato globale per violazioni gravi;
  • Fino a 15 milioni di euro o 3% del fatturato per altri illeciti;
  • Sanzioni più basse per le PMI o in caso di negligenza.

Le autorità nazionali di vigilanza del mercato, coordinate dalla Commissione Europea, potranno accedere ai sistemi, ai log, ai dataset e alla documentazione tecnica, imponendo blocchi o ritiri in caso di non conformità.

Verso una digitalizzazione etica delle gare pubbliche

L’adozione dell’IA nelle procedure di gara ad evidenza pubblica non è un’opzione futuribile, ma una necessità strategica. I benefici in termini di efficienza, trasparenza e qualità delle decisioni sono evidenti. Tuttavia, la fiducia nel sistema dipenderà dalla capacità delle PA di:

  • Garantire la conformità alle normative europee;
  • Mantenere il controllo umano sulle decisioni critiche;
  • Assicurare l’equità di trattamento degli operatori economici in fase di accesso e sviluppo delle procedure di gara;
  • Prevenire abusi, discriminazioni o errori automatizzati.

Il ruolo strategico del CAIO nelle procedure di gara pubbliche

Il CAIO (Chief Artificial Intelligence Officer) assume un ruolo sempre più rilevante nel processo di introduzione dell’IA nelle procedure di gara. Questa figura, prevista in molte organizzazioni pubbliche all’interno delle strategie di transizione digitale, agisce come coordinatore e supervisore dell’adozione delle tecnologie basate su IA. In particolare, nel contesto della gara ad evidenza pubblica, il CAIO ha il compito di garantire che i sistemi intelligenti impiegati siano conformi al Regolamento (UE) 2024/1689, rispettino i principi di trasparenza, tracciabilità e non discriminazione, e siano effettivamente in grado di supportare le stazioni appaltanti nella gestione dei dati, nella valutazione automatica delle offerte e nel controllo delle anomalie. Il CAIO è inoltre responsabile della valutazione dei rischi legati all’impiego dell’IA, promuovendo l’introduzione di strumenti etici, affidabili e compatibili con le piattaforme di e-procurement in uso. Per i piccoli Enti, dove non è sostenibile una figura interna, questo ruolo può essere affidato a soggetti esterni altamente qualificati, nell’ambito di servizi in outsourcing, con l’obiettivo di guidare l’amministrazione pubblica verso una digitalizzazione consapevole, sicura e normativamente orientata.

Si rimanda all’articolo “Il CAIO per la pubblica amministrazione: guida strategica nell’era dell’intelligenza artificiale”, per un maggior approfondimento su questa figura di altissima rilevanza in campo di monitoraggio delle procedure in applicazione degli strumenti IA.

Conclusione: l’IA come leva di innovazione nei contratti pubblici

Le nuove tecnologie, se correttamente regolate, possono diventare alleate della buona amministrazione, favorendo una gestione più intelligente, veloce e responsabile delle risorse pubbliche. Il binomio IA/gara pubblica può contribuire a costruire una macchina amministrativa più moderna, ma solo se inserito all’interno di un ecosistema digitale sicuro, trasparente e normativamente orientato.

Il compito delle stazioni appaltanti e degli enti pubblici sarà quello di governare questa transizione tecnologica, scegliendo fornitori qualificati, piattaforme certificate e soluzioni IA che rispettino le regole e i valori dell’ordinamento europeo.

Vuoi restare aggiornato sulle ultime novità per la Pubblica Amministrazione?

Mettiti in contatto con il nostro team per ottenere aggiornamenti, analisi e consulenza strategica dedicata.

Iscriviti alla newsletter

Resta aggiornato su tutte le novità da Studio Sigaudo

© Copyright 2026 Studio Sigaudo S.r.l. - P.iva 10459410014
Company Info | Privacy Policy | Cookie Policy | Preferenze Cookie