tema 11 dicembre 2025
Studi - Trasporti Intelligenza Artificiale
apri tutti i paragrafi

L'intelligenza artificiale (IA) nasce dall'incontro tra logica matematica, informatica e scienze cognitive, con l'obiettivo di progettare sistemi in grado di svolgere compiti che, se eseguiti da esseri umani, richiederebbero capacità tipicamente considerate "intelligenti": riconoscere schemi nei dati, apprendere dall'esperienza, prendere decisioni in condizioni di incertezza, interagire mediante il linguaggio naturale, risolvere problemi complessi. In questo senso, l'IA non è solo un insieme di tecniche, ma un progetto scientifico e culturale che mira a comprendere e, almeno in parte, a riprodurre alcuni aspetti del comportamento intelligente.

Le radici teoriche dell'IA affondano in particolare nel lavoro di Alan Turing e nella successiva formalizzazione del campo operata da John McCarthy. Tra gli anni Quaranta e Cinquanta del secolo scorso, Turing, elaborando il modello di "macchina universale" e proponendo il celebre "gioco dell'imitazione" (poi noto come test di Turing), mostra come il ragionamento possa essere tradotto in procedure logiche eseguibili da una macchina. In questo modo, apre la strada all'idea che il calcolo automatico possa non solo svolgere operazioni aritmetiche, ma anche simulare alcuni processi tipici dell'intelligenza umana, come il problem solving o il dialogo.

Negli anni Cinquanta, John McCarthy conia l'espressione artificial intelligence e promuove, con il convegno di Dartmouth del 1956, la nascita dell'IA come ambito autonomo di ricerca, dotato di propri obiettivi scientifici, di un linguaggio concettuale condiviso e di strumenti metodologici specifici. A McCarthy si deve anche lo sviluppo del linguaggio di programmazione LISP, che diventerà per decenni uno degli strumenti principali per la programmazione in ambito IA, in particolare per i sistemi basati sulla rappresentazione simbolica della conoscenza e sulla manipolazione di espressioni logiche.

L'evoluzione successiva dell'IA – dall'approccio simbolico classico, fondato su regole logiche esplicite e su sistemi esperti, fino agli attuali metodi di apprendimento automatico e deep learning basati su grandi quantità di dati – si innesta direttamente su queste fondamenta teoriche. Le questioni sollevate da Turing e la formalizzazione proposta da McCarthy continuano ancora oggi a orientare il dibattito scientifico, etico e istituzionale: cosa significhi "pensare" per una macchina, quali compiti sia legittimo delegare ai sistemi intelligenti, quale ruolo l'IA debba avere nella società contemporanea e quali limiti, garanzie e tutele sia necessario porre nel suo sviluppo e nella sua applicazione.

Oggi l'intelligenza artificiale è considerata un ramo dell'informatica che progetta sistemi capaci di apprendere dai dati e adattarsi al contesto operativo. Una parte significativa delle tecniche più recenti si basa su reti neurali artificiali, ispirate – seppur in modo semplificato – al funzionamento delle reti neurali biologiche. Nel tempo sono emersi vari modelli (discriminativi, predittivi, di correlazione/inferenza e generativi), applicati in ambiti sempre più numerosi.

Tra le tecnologie e gli strumenti di IA più diffusi rientrano:

  • Machine learning (apprendimento automatico) – è un insieme di metodi che consentono a un sistema informatico di imparare da esempi, individuando schemi e regolarità nei dati. Il modello utilizzato per rappresentare il contesto in cui il sistema si trova a operare viene progressivamente ottimizzato, così da migliorare le prestazioni nel tempo sulla base dell'esperienza.

  • Natural language processing (elaborazione del linguaggio naturale) – è l'area dell'IA che consente ai sistemi informatici di comprendere, interpretare e generare linguaggio umano, rendendo possibile, ad esempio, l'analisi automatica di testi, l'estrazione di informazioni e le interazioni conversazionali.

  • Deep learning – è un sottoinsieme del machine learning che utilizza reti neurali "profonde" per svolgere compiti complessi, come il riconoscimento del parlato, l'identificazione di immagini o la formulazione di previsioni. I cosiddetti large language models (LLM) sono modelli di deep learning addestrati su grandi quantità di testi per predire, in modo statistico, la parola successiva in una sequenza. Da questa capacità derivano funzioni pratiche come riassumere, tradurre, redigere documenti, sostenere conversazioni e adattare stile e tono. Tali modelli possono inoltre essere collegati a strumenti o basi dati esterne per svolgere compiti più operativi.

Le principali forme di intelligenza artificiale abilitate da queste tecnologie sono, in particolare, l'IA predittiva e l'IA generativa.
L'IA predittiva è utilizzata per formulare stime o previsioni su eventi futuri partendo dall'analisi di dati storici relativi a uno specifico fenomeno. Attraverso algoritmi di machine learning, essa è in grado di individuare, descrivere e modellizzare schemi ricorrenti, correlazioni e tendenze nei dati, consentendo ad esempio di prevedere l'andamento della domanda di un servizio, il rischio di insolvenza, l'evoluzione di un fenomeno sanitario o i picchi di traffico in una rete.

L'IA generativa (GenAI), invece, è una classe di sistemi di intelligenza artificiale che, a partire da grandi quantità di dati e tramite algoritmi di machine learning – in particolare modelli generativi di nuova generazione – è in grado di creare nuovi contenuti: testi, immagini, codici software, audio, video, nonché sintesi e rielaborazioni complesse di informazioni esistenti. Attività che in passato erano ritenute strettamente legate alla creatività e all'ingegno umano possono oggi essere svolte, almeno in parte, da questi sistemi.

L'interesse verso l'intelligenza artificiale è cresciuto in modo significativo negli ultimi anni grazie a diversi fattori concomitanti: la disponibilità di quantità sempre maggiori di dati (big data), l'aumento della potenza di calcolo e delle capacità di archiviazione, la diffusione di infrastrutture cloud, nonché la presenza di consistenti risorse finanziarie e di capitale umano altamente qualificato in ambito tecnico-scientifico.

Il 2023 ha rappresentato, in questo contesto, l'anno di svolta per l'affermazione commerciale dell'IA generativa, caratterizzata da una rapidissima diffusione di tali strumenti e da impatti rilevanti su numerosi settori economici e sociali. La messa a disposizione del pubblico, alla fine del 2022, di ChatGPT da parte della società OpenAI ha reso evidente su vasta scala il potenziale della GenAI, favorendo una forte accelerazione competitiva. In risposta, le principali aziende tecnologiche hanno lanciato o potenziato soluzioni analoghe: Google con Bard (successivamente evoluto in Gemini Advanced), Microsoft con Copilot, Apple con il progetto Apple Intelligence, Meta con la famiglia di modelli LLAMA, fino agli LLM sviluppati da laboratori di ricerca di altri Paesi, come il modello del laboratorio cinese DeepSeek.

Questi sviluppi hanno contribuito a portare l'intelligenza artificiale generativa al centro del dibattito pubblico, delle strategie industriali e delle discussioni regolatorie a livello nazionale e internazionale.

 

Il mercato dell'IA 

L'intelligenza artificiale ha ormai raggiunto un livello di maturità tale da costituire un fattore centrale nella trasformazione digitale della società. Essa consente di ottimizzare la produttività in ambito lavorativo, semplificare i processi, ridurre i tempi di sviluppo e trattamento di prodotti e servizi e, conseguentemente, incrementare in modo significativo l'efficienza complessiva dei sistemi economici e organizzativi. L'IA sta quindi determinando un cambiamento profondo nelle abitudini professionali, sociali e relazionali delle persone.

 

Secondo il Global Technology Report 2024 di Bain & Company, il mercato mondiale dell'intelligenza artificiale potrebbe raggiungere entro il 2027 un valore compreso tra 780 e 990 miliardi di dollari. Lo studio stima, per i carichi computazionali, una crescita annua compresa tra il 25 e il 35 per cento fino al 2027, con un corrispondente aumento della domanda di potenza di calcolo che porterà i data center a dimensioni superiori a un gigawatt. A tale riguardo, il Global Technology Report del 2025 stima che per soddisfare la crescente domanda di calcolo legata all'IA sarebbe necessario arrivare fino a circa 200 GW di fabbisogno computazionale globale entro il 2030, crescita spinta soprattutto dalla nuova domanda negli Stati Uniti che contribuirebbe a circa la metà del citato fabbisogno. Ciò potrebbe richiedere circa 500 miliardi di dollari l'anno di investimenti (capex) in nuovi data center.

Nel contesto europeouno studio di Forbes Advisory stima che l'utilizzo dell'IA potrebbe incrementare il valore complessivo dell'economia di circa 600 miliardi di euro, qualora la domanda di tali tecnologie restasse stabile sui livelli registrati nel 2023.

Per quanto riguarda l'Italia, secondo il rapporto dell'Osservatorio "Artificial Intelligence" del Politecnico di Milano, aggiornato al febbraio 2025, nel 2024 il mercato nazionale dell'intelligenza artificiale ha raggiunto l'1,2 miliardi di euro, con un incremento del 58 per cento rispetto al 2023. Il già citato studio di Bain & Company prevede una crescita fino a 2,5 miliardi di euro entro il 2027, in linea con l'andamento tendenziale del mercato globale.

Un'analisi più approfondita di tali rapporti evidenzia come l'intelligenza artificiale generativa rappresenti il principale motore di sviluppo del settore: le relative soluzioni coprono infatti il 43 per cento del mercato. Il restante 57 per cento è costituito prevalentemente da soluzioni di IA "tradizionale", che includono applicazioni consolidate quali il machine learning, il riconoscimento vocale e quello visivo.

Permangono, tuttavia, alcune criticità. In particolare:

  • la crescita di realtà imprenditoriali innovative risulta ancora limitata;

  • l'adozione di soluzioni di IA da parte delle micro, piccole e medie imprese rimane molto contenuta (solo l'1,4 per cento delle micro imprese, il 7 per cento delle piccole e il 15 per cento delle medie ha avviato progetti in tal senso);

  • l'integrazione di tali tecnologie nella pubblica amministrazione procede con lentezza: pur registrando un tasso di crescita anno su anno superiore al 100 per cento, la PA contribuisce solo al 6 per cento del mercato complessivo. Quasi il 90 per cento del mercato dell'IA è infatti generato dall'attività delle grandi imprese. Queste presentano, rispetto alle PMI, un differenziale superiore a 43 punti percentuali in termini di tasso di adozione di soluzioni di intelligenza artificiale.

Dall'indagine ISTAT "Imprese e ICT", pubblicata a gennaio 2025, emerge che le principali barriere a una più intensa adozione dell'IA in Italia sono rappresentate:

  • dai costi elevati, indicati come ostacolo dal 49,6 per cento delle imprese;

  • dalla mancanza di competenze digitali adeguate, segnalata dal 55,1 per cento delle imprese.
    Queste criticità vengono riscontrate anche nel rapporto annuale " Digital Italy 2025", realizzato da TIG-The Innovation Group, pubblicato a novembre 2025.

Tali elementi contribuiscono a spiegare perché la maggior parte delle attività di ricerca finalizzate all'ideazione e alla sperimentazione di nuove tecnologie di IA sia oggi condotta e finanziata essenzialmente dalle grandi imprese. In questo ambito si è verificata una significativa alterazione del tradizionale equilibrio tra ricerca universitaria e applicazioni industriali, con una progressiva contrazione del ruolo della prima. In effetti, mentre la partecipazione delle grandi imprese alla ricerca teorica sull'IA ha assunto dimensioni considerevoli, il contributo del mondo accademico allo sviluppo delle nuove tecnologie risulta fortemente ridotto. Come evidenziato anche dalla citata indagine ISTAT, la causa principale di tale fenomeno è da individuare nei costi sempre più elevati connessi all'addestramento dei sistemi di IA, costi che il settore industriale è maggiormente in grado e disposto a sostenere alla luce dei benefici economici attesi in termini di riduzione dei costi operativi e aumento dei ricavi.

L'adozione dell'IA ha avuto senza dubbio un impatto positivo anche sulle aziende tecnologiche quotate. In particolare:
  • la capitalizzazione di mercato delle cosiddette "mega tech" (Microsoft, Meta, Nvidia e Google) è aumentata di 1.900 miliardi di dollari nel periodo compreso tra l'annuncio della partnership tra Microsoft e OpenAI (23 gennaio 2023) e il 1° novembre 2023;

  • la sola Microsoft ha registrato un incremento di 81 miliardi di dollari di capitalizzazione a seguito dell'integrazione di ChatGPT nel motore di ricerca Bing;

  • Google ha guadagnato 61 miliardi di dollari di capitalizzazione di mercato dopo l'annuncio del proprio modello di intelligenza artificiale, inizialmente noto come Bard.

Per quanto concerne i settori maggiormente interessati dall'uso dell'IA, il rapporto "L'Intelligenza artificiale in Italia – Mercato, Innovazione, Sviluppi", realizzato dal Centro Studi TIM in collaborazione con Intesa Sanpaolo Innovation Center, evidenzia che oltre la metà della spesa complessiva è concentrata in quattro ambiti principali:

  • finanza (banche, servizi finanziari e assicurativi);

  • telecomunicazioni e IT;

  • manifattura;

  • retail (commercio al dettaglio e distribuzione).

Secondo le previsioni, nel 2027 questi quattro settori continueranno a rappresentare i principali ambiti di investimento, ma si registrerà una significativa crescita dell'uso dell'IA in settori in cui tale tecnologia è oggi ancora in fase iniziale di introduzione, quali l'assistenza sanitaria, i servizi della pubblica amministrazione e l'agricoltura. In tali ambiti si stimano tassi medi annui di crescita della spesa in IA superiori al 40 per cento.

 
ultimo aggiornamento: 19 novembre 2025

La crescente diffusione delle tecnologie di intelligenza artificiale ha alimentato un ampio dibattito non solo sulle opportunità connesse al loro impiego, ma anche sui rischi che ne possono derivare e sulle nuove sfide, di natura etica e giuridica, che esse pongono per l'esercizio delle libertà fondamentali e per la stabilità dei sistemi democratici.

Le questioni sollevate sul piano etico – in termini di possibile compromissione della dignità della persona, di rischio di sorveglianza di massa, nonché di potenziale utilizzo dei sistemi di intelligenza artificiale per finalità illecite, quali la diffusione di informazioni false, le attività di hackeraggio e i cyber-attacchi – hanno condotto all'elaborazione del concetto di "algoretica". Con tale termine si intende l'esigenza di sviluppare una riflessione etica sistematica sull'uso degli algoritmi, in grado di orientare la progettazione, l'addestramento e l'applicazione dei sistemi di intelligenza artificiale sulla base di principi quali trasparenza, inclusione, responsabilità, imparzialità, affidabilità, sicurezza e tutela della riservatezza, così da garantire un governo umano e consapevole dei processi automatizzati.

In questo quadro, nel corso della XIX legislatura, il tema dell'intelligenza artificiale – già presente da alcuni anni nei lavori parlamentari – ha assunto un ruolo sempre più centrale nell'attività del Parlamento, sviluppandosi lungo due direttrici complementari. Da un lato, si è pervenuti alla definizione di un quadro normativo nazionale volto a disciplinare lo sviluppo e l'impiego dei sistemi di intelligenza artificiale, anche alla luce del Regolamento (UE) 2024/1689 (c.d. AI Act), con l'obiettivo di assicurare coerenza con il contesto europeo. Dall'altro lato, è stata avviata una riflessione sull'integrazione responsabile e consapevole di tali tecnologie nei processi interni connessi all'esercizio della funzione parlamentare, al fine di migliorarne l'efficacia e l'efficienza, garantendo al contempo un'adeguata mitigazione dei rischi.

La legge 23 settembre 2025, n. 132

Nella Gazzetta Ufficiale – Serie Generale n. 223 del 25 settembre 2025 – è stata pubblicata la legge 23 settembre 2025, n. 132, recante «Disposizioni e deleghe al Governo in materia di intelligenza artificiale». Il provvedimento, collegato alla manovra di finanza pubblica, è entrato in vigore il 10 ottobre 2025, a seguito dell'approvazione definitiva in terza lettura da parte del Senato il 17 settembre 2025

La legge costituisce il primo quadro normativo organico nazionale in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di intelligenza artificiale. Essa persegue l'obiettivo di valorizzare le opportunità dell'IA, mitigandone al contempo i rischi, nel rispetto dei diritti e delle libertà fondamentali garantiti dalla Costituzione e dal diritto dell'Unione europea, secondo una visione dichiaratamente antropocentrica. Le disposizioni si interpretano e applicano in coerenza con il regolamento (UE) 2024/1689 (AI Act) e non introducono nuovi obblighi rispetto a quelli da esso previsti per i sistemi e i modelli di IA per finalità generali.

Il testo si compone di 28 articoli, suddivisi in sei Capi:

  • Capo I – Principi e finalità (artt. 1-6)
    Definisce finalità e ambito di applicazione della disciplina, le principali definizioni (in linea con l'AI Act), i principi generali (trasparenza, proporzionalità, sicurezza, protezione dei dati personali, non discriminazione, sostenibilità), nonché i criteri in materia di informazione e riservatezza dei dati, sviluppo economico e sicurezza e difesa nazionale. 
  • Capo II – Disposizioni di settore (artt. 7-18)
    Contiene norme specifiche sull'uso dell'intelligenza artificiale in alcuni ambiti strategici: sanità e disabilità, ricerca e sperimentazione scientifica in ambito sanitario, lavoro e relazioni industriali, professioni intellettuali, pubblica amministrazione e attività giudiziaria, oltre a misure per il rafforzamento della cybersicurezza nazionale.

    Sono inoltre previste una delega al Governo in materia di dati, algoritmi e metodi matematici per l'addestramento dei sistemi di IA e una modifica al codice di procedura civile.

  • Capo III – Strategia nazionale, Autorità nazionali e azioni di promozione (artt. 19-24)
    Stabilisce la predisposizione e l'aggiornamento periodico di una strategia nazionale per l'intelligenza artificiale e istituisce un comitato di coordinamento delle politiche pubbliche nel settore. Designa l'Agenzia per l'Italia digitale (AgID) e l'Agenzia per la cybersicurezza nazionale (ACN) quali autorità nazionali per l'IA, attribuendo ad AgID, tra l'altro, funzioni di promozione e notifica e ad ACN compiti di vigilanza di mercato e punto di contatto unico con le istituzioni dell'Unione europea, in raccordo con Banca d'Italia, Consob e IVASS per i profili finanziari. Prevede, inoltre, interventi di promozione e sperimentazione (ad es. presso il Ministero degli affari esteri) e misure di sostegno agli investimenti, ai giovani e allo sport. All'articolo 24 conferisce, infine, al Governo una delega ad adottare uno o più decreti legislativi per l'adeguamento della normativa nazionale al regolamento (UE) 2024/1689.
  • Capo IV – Disposizioni a tutela degli utenti e in materia di diritto d'autore (art. 25)
    Interviene sulla legge 22 aprile 1941, n. 633, chiarendo che anche le opere realizzate con l'ausilio di strumenti di intelligenza artificiale sono protette dal diritto d'autore, a condizione che costituiscano espressione del lavoro intellettuale dell'autore umano. Introduce inoltre una disciplina specifica dell'uso di IA per operazioni di text and data mining su contenuti accessibili legittimamente, nel rispetto della normativa vigente e degli strumenti di opt-out messi a disposizione dai titolari dei diritti.
  • Capo V – Disposizioni penali (art. 26)
    Modifica il codice penale e alcune leggi speciali, introducendo nuove circostanze aggravanti e specifiche fattispecie incriminatrici per contrastare l'uso illecito dell'intelligenza artificiale, tra cui l'impiego di sistemi di IA per manipolare il dibattito democratico, alterare i mercati finanziari o diffondere deepfake che ledano ingiustamente la persona offesa, nonché nuove previsioni in materia di violazione del diritto d'autore.
  • Capo VI – Disposizioni finanziarie e finali (artt. 27-28)
    Contiene la clausola di invarianza finanziaria, stabilendo che le amministrazioni interessate provvedono agli adempimenti previsti con le risorse disponibili a legislazione vigente, e reca le disposizioni finali e di coordinamento, inclusi i termini per l'esercizio delle deleghe legislative e il raccordo con il quadro regolamentare europeo. 
Per ulteriori approfondimenti, si consulti il dossier relativo al provvedimento.

Attività del Parlamento

Sul tema dell'intelligenza artificiale, nel corso dell'attuale legislatura sono state avviate numerose iniziative parlamentari, sia sul piano conoscitivo sia su quello legislativo, in entrambi i rami del Parlamento.

In primo luogo, le Commissioni permanenti hanno svolto specifiche indagini conoscitive, finalizzate ad approfondire opportunità, rischi e impatti dell'IA nei rispettivi ambiti di competenza. In particolare:

  • la Commissione X (Attività produttive) della Camera dei deputati ha svolto un'indagine conoscitiva sull'intelligenza artificiale nei settori di propria competenza, approvando il documento conclusivo nella seduta del 24 aprile 2024.

  • la Commissione XI (Lavoro pubblico e privato) della Camera dei deputati ha condotto un'indagine conoscitiva sul rapporto tra intelligenza artificiale e mondo del lavoro, con particolare riferimento all'IA generativa, approvando il documento conclusivo il 19 marzo 2025.

  • la 2ª Commissione permanente (Giustizia) del Senato della Repubblica sta svolgendo un'indagine conoscitiva sull'impatto dell'intelligenza artificiale nel settore della giustizia, tuttora in corso. 

  • l'8ª Commissione permanente (Ambiente, transizione ecologica, energia, lavori pubblici, comunicazioni, innovazione tecnologica) del Senato ha promosso un'indagine conoscitiva sull'utilizzo delle tecnologie digitali e dell'intelligenza artificiale nella pianificazione, nella costruzione e nel monitoraggio delle infrastrutture stradali, autostradali, ferroviarie, portuali, aeroportuali e logistiche; nell'agosto 2025 ha avviato l'esame del documento conclusivo.

 

Parallelamente, nel corso della legislatura corrente sono state presentate numerose proposte di legge volte a disciplinare diversi aspetti connessi alla sperimentazione e all'utilizzo dell'intelligenza artificiale, tra cui interventi sulla promozione e regolazione dell'IA nei settori produttivi, sulla trasparenza dei contenuti generati da sistemi di IA e sulla tutela dei diritti fondamentali e dei dati personali. Tra queste iniziative si colloca anche il disegno di legge di iniziativa governativa "Disposizioni e deleghe al Governo in materia di intelligenza artificiale" (v. supra).

 Un ruolo centrale è svolto dal Comitato di vigilanza sull'attività di documentazione della Camera dei deputati, organismo permanente istituito nell'ambito dell'Ufficio di Presidenza, che ha dedicato al tema dell'IA un articolato percorso di approfondimento.

Tra aprile 2023 e gennaio 2024, il Comitato ha condotto un'indagine esplorativa sull'intelligenza artificiale e sul possibile impiego, in particolare dell'IA generativa, a supporto del lavoro parlamentare. Da tale attività è scaturito il rapporto "Utilizzare l'intelligenza artificiale a supporto del lavoro parlamentare", presentato il 14 febbraio 2024, che individua sia le potenzialità degli strumenti di nuova generazione per le attività conoscitive, legislative e di controllo, sia la necessità di definire principi, cautele e presìdi per mitigarne i rischi in termini di affidabilità, trasparenza e tutela dei diritti.

Per dare seguito operativo agli esiti di tale lavoro, il Comitato ha promosso una manifestazione d'interesse rivolta a giovani studiosi, ricercatori, centri di competenze universitari ed enti di ricerca, finalizzata a raccogliere proposte progettuali sull'utilizzo dell'intelligenza artificiale applicata al Parlamento. Tra le proposte pervenute, un gruppo di esperti ha selezionato tre progetti vincitori, che l'Amministrazione della Camera sta sviluppando in collaborazione con i proponenti: Norma, Macchina Scrittura Emendamenti (MSE) e DepuChat.

Più nel dettaglio:

  • Norma è un chatbot specialistico concepito per fornire, a cittadini e addetti ai lavori, dati e informazioni sull'attività parlamentare, attingendo in questa fase prototipale, in particolare, alle elaborazioni dell'Osservatorio sulla legislazione della Camera dei deputati.

  • Macchina Scrittura Emendamenti (MSE) è un'applicazione messa a disposizione dei deputati e dell'Amministrazione per la redazione assistita delle proposte emendative, in grado di supportare la scrittura automatizzata nel rispetto delle regole di tecnica legislativa e dei formati parlamentari.

  • DepuChat è un chatbot destinato a rendere più facilmente fruibili, anche per il grande pubblico, dati e informazioni relativi alla Camera, ai suoi organi, alle procedure parlamentari e all'attività dei singoli deputati, con l'obiettivo di rafforzare trasparenza e partecipazione dei cittadini. 

I tre applicativi sono stati oggetto di una prima valutazione nel corso di una giornata di testing svoltasi il 27 giugno 2025, alla presenza di esperti provenienti dal mondo accademico, giuridico e tecnico, chiamati a esaminarne le funzionalità, verificarne l'efficacia e individuare possibili margini di miglioramento. I risultati di questo percorso e i prototipi sviluppati sono stati successivamente presentati in un evento pubblico il 9 luglio 2025.

Accanto alle iniziative di carattere più operativo, è stato promosso anche un percorso di riflessione culturale sul rapporto tra intelligenza artificiale, istituzioni democratiche e società. In questo quadro si colloca il ciclo di seminari "IA e Parlamento. La téchne e la pòlis: quattro lezioni sull'attualità e sul futuro", organizzato dal Comitato di vigilanza sull'attività di documentazione nel 2025. Il ciclo, ospitato presso la Camera dei deputati, ha visto gli interventi di:

  • Giorgio Parisi, premio Nobel per la Fisica, con una lezione su "L'intelligenza artificiale tra speranze e criticità";

  • Éric Sadin, filosofo e studioso di tecnologie digitali e IA, con una lezione dedicata all'IA generativa come fenomeno sociale e culturale;

  • Luciano Floridi, filosofo e docente all'Università di Yale, con una lezione su presente e futuro dell'intelligenza artificiale;

  • Maria Chiara Carrozza, dell'Università di Milano-Bicocca, che ha concluso il ciclo con una lectio su "Umanità in equilibrio fra robot, intelligenza artificiale e natura".

 Nel loro insieme, queste iniziative – indagini conoscitive, proposte legislative, attività del Comitato di vigilanza, sperimentazioni applicative e momenti di approfondimento culturale – delineano un percorso organico con cui il Parlamento italiano sta affrontando la sfida dell'intelligenza artificiale, con l'obiettivo di coglierne le opportunità per il miglioramento dei processi parlamentari e, al contempo, di presidiare i profili etici, giuridici e democratici connessi al suo utilizzo.

Interventi del Governo

Il Governo italiano, in coerenza con le linee del Libro bianco sull'intelligenza artificiale della Commissione europea, ha definito a partire dal 2020 una Strategia nazionale per l'IA (promossa dal Ministero delle imprese e del made in Italy – MIMIT). Tale Strategia si colloca nel quadro del Piano coordinato europeo per l'IA e si inserisce in un'azione sinergica tra gli Stati membri dell'Unione europea e le istituzioni dell'UE.

Programma Strategico Intelligenza Artificiale 2022-2024

Per aggiornare la Strategia nazionale, il 24 novembre 2021 il Governo ha adottato il Programma Strategico Intelligenza Artificiale 2022-2024, che:

  • individua 6 obiettivi generali;

  • definisce 11 settori prioritari in cui concentrare gli investimenti;

  • articola gli interventi in 3 aree strategiche, attraverso le quali il Paese intende conseguire gli obiettivi dichiarati:

  1. Talenti e competenze
    Rafforzare le competenze nazionali e attrarre talenti, al fine di sviluppare un ecosistema italiano dell'intelligenza artificiale solido e competitivo.

  2. Ricerca
    Incrementare i finanziamenti e le infrastrutture dedicate alla ricerca avanzata nel campo dell'intelligenza artificiale, sostenendo in particolare le eccellenze scientifiche e la collaborazione tra mondo accademico e imprese.

  3. Applicazioni
    Incentivare l'adozione di soluzioni e applicazioni di IA sia nella pubblica amministrazione sia nei settori produttivi, promuovendo l'innovazione dei modelli organizzativi e dei processi.

Per queste tre aree, il Programma individua 24 politiche da realizzare nel triennio 2022-2024, finalizzate a potenziare il sistema dell'IA in Italia attraverso:

  • la creazione e il rafforzamento delle competenze;

  • il sostegno alla ricerca;

  • lo sviluppo di programmi e applicazioni basati su tecnologie di intelligenza artificiale.

Governance nazionale dell'intelligenza artificiale

Per assicurare un'efficace governance della materia e monitorare l'attuazione della Strategia, è stato istituito, in seno al Comitato interministeriale per la transizione digitale, un gruppo di lavoro permanente sull'intelligenza artificiale, con il compito di:

  • coordinare le iniziative del Governo in ambito IA;

  • seguire lo stato di avanzamento della Strategia e dei relativi programmi.

Successivamente, la governance italiana è stata ulteriormente definita dall'articolo 19 della legge n. 132 del 2025, che:

  • affida al Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei ministri il compito di predisporre e aggiornare la Strategia italiana per l'IA, con cadenza biennale;

  • prevede che tale attività sia svolta d'intesa con le Autorità nazionali per l'intelligenza artificiale (AgID e ACN);

  • stabilisce che, per la predisposizione della Strategia, siano sentiti:

    • il Ministro delle imprese e del made in Italy, per i profili di politica industriale e di incentivazione;

    • il Ministro dell'università e della ricerca, per gli aspetti relativi alla formazione superiore e alla ricerca;

    • il Ministro della difesa, per i profili di propria competenza, con particolare riferimento alle implicazioni in ambito difesa e sicurezza.

La legge dispone inoltre che i risultati del monitoraggio sull'attuazione della Strategia, svolto dal Dipartimento per la trasformazione digitale, siano trasmessi annualmente alle Camere.

 

Strategia Italiana per l'Intelligenza Artificiale 2024-2026

Il 22 luglio 2024 è stata pubblicata la Strategia Italiana per l'Intelligenza Artificiale 2024-2026.

Il documento è stato redatto da un Comitato di esperti incaricato di supportare il Governo nella definizione della normativa nazionale e delle strategie di sviluppo dell'IA.

Dopo un'analisi del contesto globale e del posizionamento dell'Italia, la Strategia individua tre macro-obiettivi strategici per valorizzare lo sviluppo dell'intelligenza artificiale:

  1. Sostenere la realizzazione e l'adozione di applicazioni di IA
    Favorire soluzioni di IA a supporto delle pratiche gestionali, dei modelli produttivi e dei progetti di innovazione nei diversi settori economici e sociali.

  2. Promuovere le attività di ricerca scientifica funzionale e applicata
    Sostenere sia la ricerca di base sia quella applicata, rafforzando la collaborazione tra università, centri di ricerca, imprese e pubbliche amministrazioni.

  3. Valorizzare il capitale umano
    Promuovere la formazione, la riqualificazione e la crescita di talenti dotati delle competenze necessarie per progettare, sviluppare e governare sistemi di intelligenza artificiale.

La Strategia organizza le azioni previste in quattro macro-aree:

  • Ricerca

  • Pubblica Amministrazione

  • Imprese

  • Formazione

Essa prevede inoltre:

  • un sistema di monitoraggio dell'attuazione delle misure;

  • un'analisi del contesto regolativo, che delinea il quadro entro cui le politiche e gli interventi in materia di IA saranno sviluppati e applicati.

Commissione AI per l'Informazione

Con riferimento alla governance, nell'ottobre 2023 è stata istituita, dal Sottosegretario di Stato alla Presidenza del Consiglio dei ministri con delega all'informazione e all'editoria, la Commissione AI per l'Informazione.

La Commissione ha il compito di:

  • studiare l'impatto dell'intelligenza artificiale sul diritto d'autore;

  • analizzare gli effetti dell'IA sulla produzione e sulla diffusione dei contenuti informativi.

Il 5 aprile 2024 è stata trasmessa al Parlamento la prima relazione sull'attività svolta dalla Commissione, aggiornata al 25 marzo 2024.

Il tema IA nel G7 a Presidenza italiana 2024

L'intelligenza artificiale è stata uno dei temi centrali del G7 a Presidenza italiana del 2024.

In particolare, nel corso della Riunione Ministeriale Industria, Tecnologia e Digitale del G7, svoltasi a marzo 2024, è stata adottata una dichiarazione ministeriale sulla governance delle tecnologie trasformative, tra cui l'IA. In tale dichiarazione:

  • è stata confermata la volontà dei Paesi del G7 di proseguire il percorso di governance e compliance avviato con l'Hiroshima AI Process;

  • è stato previsto un meccanismo per monitorare l'applicazione del Codice di condotta e dei Principi guida internazionali da parte di organizzazioni internazionali e imprese.

I Paesi del G7 sottolineano come prioritaria:

  • la necessità che l'IA sia sviluppata e utilizzata in modo etico;

  • il rispetto dei principi e dei valori alla base delle democrazie del G7;

  • il perseguimento del benessere dei cittadini, nonché della coesione, della resilienza, del welfare e dello sviluppo delle società ed economie interessate.

La dichiarazione affronta quattro principali aree tematiche:

  1. IA e tecnologie emergenti nell'industria;

  2. sicurezza e resilienza delle catene di fornitura e delle reti;

  3. sviluppo digitale;

  4. governo digitale.

Con specifico riferimento all'intelligenza artificiale, nel documento ministeriale:

  • È stata approvata la proposta di elaborare, entro fine anno, un rapporto che analizzi fattori e sfide legati all'adozione e allo sviluppo dell'IA nelle imprese, con particolare attenzione alle micro e piccole imprese (MPMI). Il rapporto è finalizzato a fornire ai Governi del G7 opzioni di policy per promuovere un'IA sicura, affidabile e rispettosa dei diritti legali applicabili, inclusi i diritti di proprietà intellettuale e la protezione dei segreti commerciali.

  • Sono state sollecitate le autorità per la concorrenza a continuare a vigilare sullo sviluppo dell'industria dell'IA ed è stato confermato il sostegno al Summit sulla Concorrenza Digitale del G7, che si terrà a Roma nel 2024, con un focus specifico sull'IA.

  • È stata sottolineata l'importanza che i sistemi di IA riflettano la diversità culturale e linguistica delle comunità locali e che si rafforzi la capacità locale nel campo dell'IA, in particolare nei Paesi in via di sviluppo.

     

Sotto la Presidenza italiana del G7, è stato confermato l'impegno a:

  • individuare meccanismi, piattaforme e strumenti per facilitare la collaborazione multi-stakeholder con i Paesi in via di sviluppo, con particolare attenzione all'Africa nel 2024;

  • promuovere la proposta di un Hub IA per lo Sviluppo Sostenibile, volto a utilizzare l'IA come leva per raggiungere gli Obiettivi di sviluppo sostenibile.

È stata inoltre riconosciuta la necessità di un dialogo inclusivo tra amministrazioni pubbliche e imprese private per:

  • valorizzare iniziative e consorzi già attivati dai Paesi del G7;

  • collaborare con le nazioni in via di sviluppo nel colmare i divari digitali;

  • sfruttare le tecnologie digitali a favore dello sviluppo sostenibile.

Il documento ministeriale include, poi, quattro dichiarazioni congiunte, di cui due dedicate in modo specifico all'intelligenza artificiale:

  1. Toolkit per l'Intelligenza Artificiale nel Settore Pubblico, il quale mira a predisporre uno strumento operativo per:

    • tradurre nel settore pubblico i principi di un'IA sicura e affidabile;

    • rafforzare le capacità delle amministrazioni nella progettazione, nell'adozione e nella gestione di sistemi di IA.

  2. Avanzamento degli esiti del Processo di Intelligenza Artificiale di Hiroshima (HAIP), con l'obiettivo di:

    • integrare e promuovere i risultati dell'Hiroshima AI Process;

    • sviluppare meccanismi di monitoraggio dell'adozione volontaria del "Codice di condotta internazionale per i sistemi avanzati di IA";

    • favorire l'interoperabilità tra i diversi regimi di governance sull'IA, con attenzione anche ai settori militare e giudiziario.

In questo quadro, l'Italia si colloca tra i Paesi impegnati a costruire un ecosistema dell'intelligenza artificiale che coniughi innovazione, tutela dei diritti fondamentali, competitività economica e sviluppo sostenibile.

 

Principali attività delle autorità indipendenti e delle Agenzie

Garante della protezione dei dati personali

In relazione al rapporto tra intelligenza artificiale (IA) e tutela dei dati personali, il 22 novembre 2023 il Garante ha comunicato l'avvio di un'indagine conoscitiva sull'utilizzo di tecniche di raccolta massiva di dati personali online ("web scraping") per l'addestramento di algoritmi di IA. L'indagine è volta a verificare se i siti internet pubblici e privati operanti in Italia adottino adeguate misure tecniche per prevenire la raccolta indiscriminata di dati personali da parte di terzi per finalità di addestramento algoritmico. L'iniziativa è stata formalizzata con il provvedimento del 21 dicembre 2023 e con l'Avviso di indagine conoscitiva in materia di webscraping", pubblicato nella Gazzetta Ufficiale del 18 gennaio 2024, che ha fissato in sessanta giorni il termine per la presentazione di osservazioni, commenti e proposte operative da parte dei soggetti interessati.

Il 31 marzo 2023, con un provvedimento rivolto a OpenAI, il Garante ha disposto la limitazione provvisoria del trattamento dei dati personali degli utenti italiani tramite la piattaforma ChatGPT, ritenendo che il servizio non fosse conforme ad alcune disposizioni del Regolamento (UE) 2016/679 (GDPR). A seguito degli interventi correttivi e degli impegni assunti da OpenAI, l'accesso al servizio dall'Italia è stato successivamente ripristinato. Il 29 gennaio 2024 il Garante ha poi notificato a OpenAI un atto di contestazione per presunte violazioni della normativa in materia di protezione dei dati personali in relazione al funzionamento di ChatGPT; il comunicato ufficiale dà conto della contestazione, rinviando ai successivi sviluppi procedimentali per i dettagli degli addebiti.

Con provvedimento dell'11 gennaio 2024, reso noto con comunicato stampa del 25 gennaio 2024, il Garante ha sanzionato il Comune di Trento per aver realizzato due progetti di ricerca scientifica basati sull'uso di telecamere di videosorveglianza, microfoni installati in luoghi pubblici e analisi di contenuti provenienti dai social media, con il supporto di sistemi di IA. I progetti prevedevano l'acquisizione e l'elaborazione di filmati, tracce audio e messaggi o commenti d'odio pubblicati online, al fine di rilevare eventuali emozioni negative ed elaborare, sempre tramite sistemi di IA, informazioni d'interesse per le Forze dell'ordine.

Il Garante ha rilevato, tra l'altro, che il Comune, non annoverando la ricerca scientifica tra le proprie finalità istituzionali, non aveva dimostrato l'esistenza di un'adeguata base giuridica per tali trattamenti – relativi anche a dati su reati e a categorie particolari di dati – con conseguente ingerenza sproporzionata nei diritti e nelle libertà fondamentali delle persone interessate.

Nel contesto della presidenza italiana del G7 in materia di protezione dei dati personali, dal 9 all'11 ottobre 2024 il Garante ha promosso iniziative di coordinamento internazionale tra le autorità omologhe, che hanno portato alla adozione di uno "Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI" (dichiarazione sul ruolo delle autorità di protezione dei dati nel promuovere un'IA affidabile) e di uno "Statement on AI and Children" (dichiarazione sull'IA e i bambini). Parallelamente, l'Autorità ha rafforzato le attività di sensibilizzazione del pubblico con la serie video "Le parole dell'AI" e con interventi su temi quali l'IA generativa nel giornalismo, i deepfake e gli assistenti digitali.

 

Autorità per le Garanzie nelle Comunicazioni (AGCOM) 

Nel settembre 2023 l'AGCOM, in collaborazione con l'International Institute of Communications, ha organizzato un convegno sul tema "Pluralismo e diritto d'autore al tempo dell'intelligenza artificiale". Nel corso dell'evento, il Presidente ha evidenziato come la nuova regolamentazione dell'IA richiederà alle autorità competenti un delicato ruolo di composizione degli interessi in gioco, in particolare rispetto all'adattamento della tutela autoriale alle opere dell'ingegno generate, in tutto o in parte, da sistemi automatizzati.

Con delibera n. 11/24/CONS del 24 gennaio 2024, il Consiglio dell'AGCOM ha istituito il "Comitato sull'intelligenza artificiale nei settori di competenza dell'Autorità", organismo consultivo composto da esperti esterni, incaricato di analizzare le implicazioni dei sistemi di IA sul pluralismo, sulla tutela dei minori, sui diritti fondamentali, sulla sicurezza delle reti e sul diritto d'autore, in vista anche dell'attuazione a livello nazionale dell'AI Act.

La composizione del Comitato è stata successivamente integrata con la delibera n. 2/25/CONS del 9 gennaio 2025, che ne ha completato l'assetto e ne ha sancito l'operatività.

Per garantire un supporto strutturale a tali attività, dal 1° ottobre 2024 l'AGCOM ha istituito un "Ufficio intelligenza artificiale", incardinato nell'organigramma dell'Autorità, con il compito di svolgere studi e analisi su big data e IA, coordinare i lavori dei comitati tematici e raccordarsi con le direzioni competenti.

Sul fronte delle indagini conoscitive, l'Autorità ha sviluppato analisi empiriche sull'impatto degli algoritmi e dell'IA sulla cittadinanza e sulle professioni. Il "Report sulla Media Literacy 2024" mostra, ad esempio, che solo circa il 7% degli italiani presenta un livello elevato di "alfabetizzazione algoritmica", mentre il 64,4% circa manifesta un livello nullo o scarso, dati che alimentano i lavori del tavolo di coordinamento per l'alfabetizzazione digitale e mediatica.

Agenzia per l'Italia digitale (AgID)

L'AgID è stata designata, dall'articolo 20 della legge 23 settembre 2025, n. 132 ("Disposizioni e deleghe al Governo in materia di intelligenza artificiale"), come autorità nazionale di notifica per l'intelligenza artificiale, nell'ambito della nuova architettura pubblica di governance dell'IA. In particolare, all'Agenzia sono attribuite:

  • la responsabilità di promuovere l'innovazione e lo sviluppo dell'intelligenza artificiale nel Paese;

  • le funzioni e i compiti di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di IA alla normativa europea e nazionale.

Sul piano normativo-attuativo, con la determinazione n. 17/2025 del 17 febbraio 2025 l'AgID ha avviato la consultazione pubblica sulle "Linee guida per l'adozione, l'acquisto e lo sviluppo di sistemi di intelligenza artificiale nella Pubblica Amministrazione", previste dal Piano Triennale per l'Informatica nella PA 2024–2026 e adottate secondo la procedura di cui all'art. 71 del Codice dell'amministrazione digitale (CAD). La consultazione si è svolta dal 18 febbraio al 20 marzo 2025, consentendo a cittadini, imprese e istituzioni di formulare osservazioni e proposte.

Le Linee guida definiscono un quadro di governance per i sistemi di IA nella PA (ruoli e responsabilità, gestione dell'intero ciclo di vita delle soluzioni, valutazioni di impatto) e declinano in requisiti operativi i principi di etica, sicurezza cibernetica, qualità dei dati, trasparenza e supervisione umana, con particolare attenzione ai sistemi classificabili come "ad alto rischio" ai sensi dell'AI Act.

Agenzia per la Cybersicurezza Nazionale (ACN)

L'Agenzia per la Cybersicurezza Nazionale (ACN), istituita con il decreto-legge 14 giugno 2021, n. 82, è l'Autorità nazionale per la cybersicurezza a tutela degli interessi nazionali nello spazio cibernetico, con compiti di sicurezza e resilienza delle infrastrutture e dei servizi digitali.

L'articolo 20 della legge n. 132 del 23 settembre 2025 le attribuisce il ruolo di autorità nazionale di vigilanza del mercato e di punto di contatto unico con le istituzioni dell'Unione europea per l'intelligenza artificiale. In questa veste, all'ACN competono in particolare:

  • la vigilanza – anche mediante attività ispettive e sanzionatorie – sui sistemi di IA immessi sul mercato o messi in servizio, secondo quanto previsto dalla normativa nazionale ed europea;

  • la promozione e lo sviluppo di sistemi di IA sicuri e affidabili, con specifico riferimento ai profili di cybersicurezza.

Nel Piano strategico ACN 2024–2026 l'intelligenza artificiale è indicata come fattore trasversale di trasformazione delle minacce e, allo stesso tempo, come leva per potenziare le capacità di rilevazione e risposta agli incidenti e per rafforzare le competenze nazionali.

Con un'analisi di scenario pubblicata il 31 gennaio 2025, l'Agenzia ha previsto che l'uso malevolo dell'IA caratterizzerà il panorama delle minacce cyber per tutto il 2025, ribadendo l'esigenza di sviluppare sistemi di IA sicuri e affidabili e di impiegarli anche per contrastare attacchi che sfruttano la stessa tecnologia.

Sul piano internazionale, l'ACN ha svolto un ruolo propulsivo nel G7 sulla cybersicurezza dell'IA, contribuendo, tra l'altro, al documento "Una visione condivisa del G7 sull'inventario dei software dell'IA", orientato a rafforzare trasparenza e sicurezza lungo la catena di fornitura dei sistemi di IA e a porre le basi per future linee guida comuni.

L'Agenzia è inoltre tra i principali attori del progetto europeo IT4LIA AI Factory, che prevede la realizzazione, presso il Tecnopolo di Bologna, di una piattaforma strategica di supercalcolo ottimizzata per l'intelligenza artificiale, per un investimento complessivo stimato in 430 milioni di euro. 

Il Cineca, in collaborazione con Austria e Slovenia, sarà la " hosting entity" responsabile dell'implementazione del supercomputer e della gestione delle infrastrutture correlate. Al progetto partecipano, insieme all'ACN, il Ministero dell'Università e della Ricerca, la Regione Emilia-Romagna, il Consorzio interuniversitario CINECA, l'Istituto Nazionale di Fisica Nucleare (INFN), l'Agenzia ItaliaMeteo, la Fondazione per l'IA, la Fondazione Bruno Kessler e il Centro Nazionale di Ricerca in High Performance Computing, Big Data and Quantum Computing (ICSC).

Quadro di riferimento europeo

Negli ultimi anni l'Unione europea ha assunto un ruolo di primo piano come regolatore in materia di intelligenza artificiale, definendo un quadro di norme volto a creare un contesto normativo e istituzionale capace di trovare un punto di equilibrio tra le esigenze del mercato e la tutela dei valori e dei principi dell'Unione. Il Regolamento (UE) 2024/1689 sull'intelligenza artificiale (c.d. AI Act), che costituisce il pilastro di tale quadro, è stato pubblicato nella Gazzetta ufficiale dell'Unione europea il 12 luglio 2024, è entrato in vigore il 1° agosto 2024 ed è destinato a diventare pienamente applicabile a decorrere dal 2 agosto 2026, salvo le disposizioni per le quali è prevista un'applicazione anticipata, come descritto oltre.

In particolare, l'UE ha affrontato il tema della regolamentazione dell'IA dapprima attraverso l'elaborazione da parte della Commissione di una strategia europea per i dati (COM(2020) 66 final), in esito alla presentazione del Libro bianco sull'IA "Un approccio europeo all'eccellenza e alla fiducia" (COM(2020) 65 final) e, successivamente, con la proposta di regolamento sull'intelligenza artificiale (c.d. AI Act, COM(2021) 206 final), approvata in via definitiva dal Consiglio dell'Unione europea il 21 maggio 2024.

Si ricorda che nella XVIII legislatura, la IX Commissione della Camera aveva esaminato il citato Libro bianco sull'Intelligenza artificiale, adottando, il 19 maggio 2021,  un documento finale recante una valutazione favorevole con osservazioni. Con decreto ministeriale del 21 novembre 2022 il Ministero ha poi avviato, sul territorio nazionale, la promozione di progetti di sperimentazione, in continuità con quanto previsto dal decreto ministeriale del 26 marzo 2019 di approvazione del Programma di supporto alle tecnologie emergenti. Tali progetti sono rivolti allo sviluppo di prodotti, processi, servizi o modelli di business e organizzativi innovativi, realizzati attraverso le tecnologie emergenti, grazie all'uso e allo sviluppo delle reti mobili ultra veloci (5G) e alla ricerca sulle reti mobili di nuova generazione (6G). 

 

Il Regolamento (UE) 2024/1689 mira a promuovere lo sviluppo e l'adozione, nel mercato unico europeo, di sistemi di IA sicuri e affidabili da parte di attori pubblici e privati. Le sue disposizioni si applicano unicamente ai settori disciplinati dal diritto dell'Unione, con alcune eccezioni riguardanti, in particolare, i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché per scopi di ricerca.

La nuova legge europea sull'intelligenza artificiale adotta un approccio "basato sul rischio", fondato su una classificazione dei rischi derivanti dall'impiego dei sistemi di IA: quanto maggiore è il rischio di danni per la società, tanto più stringenti sono le regole applicabili. Al contempo, il regolamento persegue l'obiettivo di garantire il rispetto dei diritti fondamentali dei cittadini dell'UE e di stimolare gli investimenti e l'innovazione nel campo dell'intelligenza artificiale in Europa.

 

I sistemi di IA sono quindi classificati in base al rischio connesso al loro utilizzo, distinguendo tra rischio inaccettabile, alto, basso o minimo. In particolare:

  • i sistemi che presentano un rischio basso o minimo sono soggetti a obblighi di trasparenza limitati e proporzionati;

  • i sistemi ad alto rischio sono autorizzati, ma sottoposti a una serie di requisiti e obblighi rigorosi per poter accedere al mercato dell'UE (ad esempio in materia di gestione del rischio, qualità dei dati, documentazione tecnica, sorveglianza umana e monitoraggio post-commercializzazione);

  • i sistemi il cui impiego comporta un rischio ritenuto inaccettabile – come talune forme di manipolazione cognitivo-comportamentale, lo sfruttamento delle vulnerabilità di gruppi di persone, alcune pratiche di social scoring e specifici usi del riconoscimento biometrico – sono vietati nell'UE. A tal riguardo, il regolamento vieta, tra l'altro, l'uso dell'IA per politiche predittive basate esclusivamente sulla profilazione o su valutazioni automatizzate e quello di sistemi che utilizzano dati biometrici per classificare le persone in base a categorie particolarmente sensibili, quali razza, religione o orientamento sessuale.

La legge sull'IA disciplina anche l'impiego di modelli di intelligenza artificiale per scopi generali (General Purpose AI – GPAI). I modelli GPAI che non presentano rischi sistemici sono soggetti ad obblighi limitati, in particolare in materia di trasparenza; i modelli che invece presentano rischi sistemici devono rispettare un complesso più articolato di regole, inclusi ulteriori obblighi di valutazione, gestione e mitigazione del rischio.

Si ricorda che la IX Commissione, congiuntamente alla X Commissione, ha esaminato la  proposta di regolamento sull'intelligenza artificiale  COM 2021(206), svolgendo un ciclo di  audizioni informali a partire dal 13 gennaio 2022 e approvando, il  13 aprile 2022, un  documento finale nell'ambito della procedura di dialogo politico, recante una  valutazione favorevole con una serie di  osservazioni. Si rinvia, per maggiori dettagli, alla documentazione relativa al ciclo di audizioni.
Con riferimento specifico all' implementazione dell' AI Act in Italia, occorre ricordare che, in quanto regolamento, esso è obbligatorio in tutti i suoi elementi e direttamente applicabile a ciascuno degli Stati membri. Pertanto, ai sensi dell'articolo 113 del regolamento:
  • dal 2 febbraio 2025 sono già pienamente operative in Italia le disposizioni dei Capi I e II (articoli da 1 a 5), che definiscono l'oggetto e le finalità del regolamento, il suo ambito di applicazione, le definizioni e il principio di alfabetizzazione all'intelligenza artificiale (articoli 1-4), nonché il catalogo delle pratiche di IA vietate (articolo 5). Tra tali pratiche rientrano, tra l'altro, di manipolazione cognitivo-comportamentale, lo sfruttamento delle vulnerabilità di specifici gruppi di persone, talune forme di social scoring, alcuni usi del riconoscimento biometrico e l'impiego di sistemi di polizia predittiva basati esclusivamente su profilazioni o valutazioni automatizzate;
  • dal 2 agosto 2025 risultano inoltre direttamente applicabili - anche per le autorità e gli operatori italiani - le norme del Capo III, sezione 4 (articoli 28-39, in materia di autorità di notifica e organismi notificati), nonché le disposizioni del Capo V sui modelli di intelligenza artificiale di carattere generale, inclusi gli obblighi dei fornitori di modelli general-purpose e dei modelli con rischio sistemico (articoli 51-56). Dalla stessa data sono altresì applicabili il Capo VII sulla governance (articoli 64-70, relativo in particolare all'AI Office, al Board europeo per l'IA e alle autorità nazionali competenti) e il Capo XII sul sistema sanzionatorio (articoli 99 e 100), mentre l'articolo 101, relativo alle sanzioni per i fornitori di modelli di IA di carattere generale, resta differito alla data di applicazione generale del regolamento. È già operativo, sempre dal 2 agosto 2025, anche l'articolo 78 sulle regole di riservatezza per la Commissione, le autorità di vigilanza e gli organismi notificati.

Alla luce di questo quadro regolamentare europeo, che già oggi costituisce parte del diritto interno e vincola direttamente gli operatori privati e pubblici italiani, la legge n. 132 del 2025 svolge una funzione complementare di adeguamento istituzionale, di coordinamento con il resto dell'ordinamento nazionale e, in alcuni settori, di anticipazione o estensione delle scelte europee.

Nel contesto della "Bussola per la competitività dell'UE", presentata dalla Commissione europea il 29 gennaio 2025 in occasione del vertice d'azione sull'IA di Parigi, la Presidente della Commissione UE, Ursula von der Leyen, ha lanciato l'iniziativa InvestAI, volta a mobilitare 200 miliardi di euro per investimenti nell'IA, inclusa l'istituzione di un nuovo fondo europeo da 20 miliardi di euro destinato alle gigafactory dell'IA, specializzate nella formazione dei modelli di IA più complessi e di grandi dimensioni. 

È inoltre previsto, entro il primo trimestre del 2026, un atto legislativo dell'UE sullo sviluppo del cloud e dell'IA, volto a mobilitare iniziative pubbliche e private per istituire nuove AI gigafactory specializzate nell'addestramento di modelli di IA di grandissime dimensioni e a stabilire requisiti minimi per l'offerta di servizi di cloud in Europa.

Nell'ambito della medesima Bussola sono altresì annunciate, per il terzo trimestre del 2025, iniziative a sostegno di nuove applicazioni industriali dell'IA in settori quali l'industria manifatturiera, l'automotive, l'energia, la robotica, la farmaceutica, l'aeronautica e i servizi finanziari, nonché per il miglioramento dei servizi pubblici.

Infine, per il quarto trimestre del 2025 è previsto un atto legislativo sulle reti digitali, finalizzato a migliorare gli incentivi di mercato per la costruzione delle reti digitali del futuro, ridurre gli oneri e i costi di conformità, rafforzare la connettività digitale per gli utenti finali e creare un mercato unico più integrato per la connettività, nonché una politica dell'UE maggiormente coordinata in materia di spettro radio.

ultimo aggiornamento: 19 novembre 2025
 
temi di Informazione e Comunicazioni