Le principali forme di intelligenza artificiale abilitate da queste tecnologie sono, in particolare, l'IA predittiva e l'IA generativa.
L'IA predittiva è utilizzata per formulare stime o previsioni su eventi futuri partendo dall'analisi di dati storici relativi a uno specifico fenomeno. Attraverso algoritmi di machine learning, essa è in grado di individuare, descrivere e modellizzare schemi ricorrenti, correlazioni e tendenze nei dati, consentendo ad esempio di prevedere l'andamento della domanda di un servizio, il rischio di insolvenza, l'evoluzione di un fenomeno sanitario o i picchi di traffico in una rete.
L'IA generativa (GenAI), invece, è una classe di sistemi di intelligenza artificiale che, a partire da grandi quantità di dati e tramite algoritmi di machine learning – in particolare modelli generativi di nuova generazione – è in grado di creare nuovi contenuti: testi, immagini, codici software, audio, video, nonché sintesi e rielaborazioni complesse di informazioni esistenti. Attività che in passato erano ritenute strettamente legate alla creatività e all'ingegno umano possono oggi essere svolte, almeno in parte, da questi sistemi.
L'interesse verso l'intelligenza artificiale è cresciuto in modo significativo negli ultimi anni grazie a diversi fattori concomitanti: la disponibilità di quantità sempre maggiori di dati (big data), l'aumento della potenza di calcolo e delle capacità di archiviazione, la diffusione di infrastrutture cloud, nonché la presenza di consistenti risorse finanziarie e di capitale umano altamente qualificato in ambito tecnico-scientifico.
Il 2023 ha rappresentato, in questo contesto, l'anno di svolta per l'affermazione commerciale dell'IA generativa, caratterizzata da una rapidissima diffusione di tali strumenti e da impatti rilevanti su numerosi settori economici e sociali. La messa a disposizione del pubblico, alla fine del 2022, di ChatGPT da parte della società OpenAI ha reso evidente su vasta scala il potenziale della GenAI, favorendo una forte accelerazione competitiva. In risposta, le principali aziende tecnologiche hanno lanciato o potenziato soluzioni analoghe: Google con Bard (successivamente evoluto in Gemini Advanced), Microsoft con Copilot, Apple con il progetto Apple Intelligence, Meta con la famiglia di modelli LLAMA, fino agli LLM sviluppati da laboratori di ricerca di altri Paesi, come il modello del laboratorio cinese DeepSeek.
Questi sviluppi hanno contribuito a portare l'intelligenza artificiale generativa al centro del dibattito pubblico, delle strategie industriali e delle discussioni regolatorie a livello nazionale e internazionale.
L'intelligenza artificiale ha ormai raggiunto un livello di maturità tale da costituire un fattore centrale nella trasformazione digitale della società. Essa consente di ottimizzare la produttività in ambito lavorativo, semplificare i processi, ridurre i tempi di sviluppo e trattamento di prodotti e servizi e, conseguentemente, incrementare in modo significativo l'efficienza complessiva dei sistemi economici e organizzativi. L'IA sta quindi determinando un cambiamento profondo nelle abitudini professionali, sociali e relazionali delle persone.
Secondo il Global Technology Report 2024 di Bain & Company, il mercato mondiale dell'intelligenza artificiale potrebbe raggiungere entro il 2027 un valore compreso tra 780 e 990 miliardi di dollari. Lo studio stima, per i carichi computazionali, una crescita annua compresa tra il 25 e il 35 per cento fino al 2027, con un corrispondente aumento della domanda di potenza di calcolo che porterà i data center a dimensioni superiori a un gigawatt. A tale riguardo, il Global Technology Report del 2025 stima che per soddisfare la crescente domanda di calcolo legata all'IA sarebbe necessario arrivare fino a circa 200 GW di fabbisogno computazionale globale entro il 2030, crescita spinta soprattutto dalla nuova domanda negli Stati Uniti che contribuirebbe a circa la metà del citato fabbisogno. Ciò potrebbe richiedere circa 500 miliardi di dollari l'anno di investimenti (capex) in nuovi data center.
Nel contesto europeo, uno studio di Forbes Advisory stima che l'utilizzo dell'IA potrebbe incrementare il valore complessivo dell'economia di circa 600 miliardi di euro, qualora la domanda di tali tecnologie restasse stabile sui livelli registrati nel 2023.
Per quanto riguarda l'Italia, secondo il rapporto dell'Osservatorio "Artificial Intelligence" del Politecnico di Milano, aggiornato al febbraio 2025, nel 2024 il mercato nazionale dell'intelligenza artificiale ha raggiunto l'1,2 miliardi di euro, con un incremento del 58 per cento rispetto al 2023. Il già citato studio di Bain & Company prevede una crescita fino a 2,5 miliardi di euro entro il 2027, in linea con l'andamento tendenziale del mercato globale.
Un'analisi più approfondita di tali rapporti evidenzia come l'intelligenza artificiale generativa rappresenti il principale motore di sviluppo del settore: le relative soluzioni coprono infatti il 43 per cento del mercato. Il restante 57 per cento è costituito prevalentemente da soluzioni di IA "tradizionale", che includono applicazioni consolidate quali il machine learning, il riconoscimento vocale e quello visivo.
Permangono, tuttavia, alcune criticità. In particolare:
la crescita di realtà imprenditoriali innovative risulta ancora limitata;
l'adozione di soluzioni di IA da parte delle micro, piccole e medie imprese rimane molto contenuta (solo l'1,4 per cento delle micro imprese, il 7 per cento delle piccole e il 15 per cento delle medie ha avviato progetti in tal senso);
l'integrazione di tali tecnologie nella pubblica amministrazione procede con lentezza: pur registrando un tasso di crescita anno su anno superiore al 100 per cento, la PA contribuisce solo al 6 per cento del mercato complessivo. Quasi il 90 per cento del mercato dell'IA è infatti generato dall'attività delle grandi imprese. Queste presentano, rispetto alle PMI, un differenziale superiore a 43 punti percentuali in termini di tasso di adozione di soluzioni di intelligenza artificiale.
Dall'indagine ISTAT "Imprese e ICT", pubblicata a gennaio 2025, emerge che le principali barriere a una più intensa adozione dell'IA in Italia sono rappresentate:
dai costi elevati, indicati come ostacolo dal 49,6 per cento delle imprese;
Tali elementi contribuiscono a spiegare perché la maggior parte delle attività di ricerca finalizzate all'ideazione e alla sperimentazione di nuove tecnologie di IA sia oggi condotta e finanziata essenzialmente dalle grandi imprese. In questo ambito si è verificata una significativa alterazione del tradizionale equilibrio tra ricerca universitaria e applicazioni industriali, con una progressiva contrazione del ruolo della prima. In effetti, mentre la partecipazione delle grandi imprese alla ricerca teorica sull'IA ha assunto dimensioni considerevoli, il contributo del mondo accademico allo sviluppo delle nuove tecnologie risulta fortemente ridotto. Come evidenziato anche dalla citata indagine ISTAT, la causa principale di tale fenomeno è da individuare nei costi sempre più elevati connessi all'addestramento dei sistemi di IA, costi che il settore industriale è maggiormente in grado e disposto a sostenere alla luce dei benefici economici attesi in termini di riduzione dei costi operativi e aumento dei ricavi.
la capitalizzazione di mercato delle cosiddette "mega tech" (Microsoft, Meta, Nvidia e Google) è aumentata di 1.900 miliardi di dollari nel periodo compreso tra l'annuncio della partnership tra Microsoft e OpenAI (23 gennaio 2023) e il 1° novembre 2023;
la sola Microsoft ha registrato un incremento di 81 miliardi di dollari di capitalizzazione a seguito dell'integrazione di ChatGPT nel motore di ricerca Bing;
Google ha guadagnato 61 miliardi di dollari di capitalizzazione di mercato dopo l'annuncio del proprio modello di intelligenza artificiale, inizialmente noto come Bard.
Per quanto concerne i settori maggiormente interessati dall'uso dell'IA, il rapporto "L'Intelligenza artificiale in Italia – Mercato, Innovazione, Sviluppi", realizzato dal Centro Studi TIM in collaborazione con Intesa Sanpaolo Innovation Center, evidenzia che oltre la metà della spesa complessiva è concentrata in quattro ambiti principali:
La crescente diffusione delle tecnologie di intelligenza artificiale ha alimentato un ampio dibattito non solo sulle opportunità connesse al loro impiego, ma anche sui rischi che ne possono derivare e sulle nuove sfide, di natura etica e giuridica, che esse pongono per l'esercizio delle libertà fondamentali e per la stabilità dei sistemi democratici.
Le questioni sollevate sul piano etico – in termini di possibile compromissione della dignità della persona, di rischio di sorveglianza di massa, nonché di potenziale utilizzo dei sistemi di intelligenza artificiale per finalità illecite, quali la diffusione di informazioni false, le attività di hackeraggio e i cyber-attacchi – hanno condotto all'elaborazione del concetto di "algoretica". Con tale termine si intende l'esigenza di sviluppare una riflessione etica sistematica sull'uso degli algoritmi, in grado di orientare la progettazione, l'addestramento e l'applicazione dei sistemi di intelligenza artificiale sulla base di principi quali trasparenza, inclusione, responsabilità, imparzialità, affidabilità, sicurezza e tutela della riservatezza, così da garantire un governo umano e consapevole dei processi automatizzati.
In questo quadro, nel corso della XIX legislatura, il tema dell'intelligenza artificiale – già presente da alcuni anni nei lavori parlamentari – ha assunto un ruolo sempre più centrale nell'attività del Parlamento, sviluppandosi lungo due direttrici complementari. Da un lato, si è pervenuti alla definizione di un quadro normativo nazionale volto a disciplinare lo sviluppo e l'impiego dei sistemi di intelligenza artificiale, anche alla luce del Regolamento (UE) 2024/1689 (c.d. AI Act), con l'obiettivo di assicurare coerenza con il contesto europeo. Dall'altro lato, è stata avviata una riflessione sull'integrazione responsabile e consapevole di tali tecnologie nei processi interni connessi all'esercizio della funzione parlamentare, al fine di migliorarne l'efficacia e l'efficienza, garantendo al contempo un'adeguata mitigazione dei rischi.
Nella Gazzetta Ufficiale – Serie Generale n. 223 del 25 settembre 2025 – è stata pubblicata la legge 23 settembre 2025, n. 132, recante «Disposizioni e deleghe al Governo in materia di intelligenza artificiale». Il provvedimento, collegato alla manovra di finanza pubblica, è entrato in vigore il 10 ottobre 2025, a seguito dell'approvazione definitiva in terza lettura da parte del Senato il 17 settembre 2025
La legge costituisce il primo quadro normativo organico nazionale in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di intelligenza artificiale. Essa persegue l'obiettivo di valorizzare le opportunità dell'IA, mitigandone al contempo i rischi, nel rispetto dei diritti e delle libertà fondamentali garantiti dalla Costituzione e dal diritto dell'Unione europea, secondo una visione dichiaratamente antropocentrica. Le disposizioni si interpretano e applicano in coerenza con il regolamento (UE) 2024/1689 (AI Act) e non introducono nuovi obblighi rispetto a quelli da esso previsti per i sistemi e i modelli di IA per finalità generali.
Il testo si compone di 28 articoli, suddivisi in sei Capi:
Capo II – Disposizioni di settore (artt. 7-18)
Contiene norme specifiche sull'uso dell'intelligenza artificiale in alcuni ambiti strategici: sanità e disabilità, ricerca e sperimentazione scientifica in ambito sanitario, lavoro e relazioni industriali, professioni intellettuali, pubblica amministrazione e attività giudiziaria, oltre a misure per il rafforzamento della cybersicurezza nazionale.
Sono inoltre previste una delega al Governo in materia di dati, algoritmi e metodi matematici per l'addestramento dei sistemi di IA e una modifica al codice di procedura civile.
Sul tema dell'intelligenza artificiale, nel corso dell'attuale legislatura sono state avviate numerose iniziative parlamentari, sia sul piano conoscitivo sia su quello legislativo, in entrambi i rami del Parlamento.
In primo luogo, le Commissioni permanenti hanno svolto specifiche indagini conoscitive, finalizzate ad approfondire opportunità, rischi e impatti dell'IA nei rispettivi ambiti di competenza. In particolare:
la Commissione X (Attività produttive) della Camera dei deputati ha svolto un'indagine conoscitiva sull'intelligenza artificiale nei settori di propria competenza, approvando il documento conclusivo nella seduta del 24 aprile 2024.
la Commissione XI (Lavoro pubblico e privato) della Camera dei deputati ha condotto un'indagine conoscitiva sul rapporto tra intelligenza artificiale e mondo del lavoro, con particolare riferimento all'IA generativa, approvando il documento conclusivo il 19 marzo 2025.
la 2ª Commissione permanente (Giustizia) del Senato della Repubblica sta svolgendo un'indagine conoscitiva sull'impatto dell'intelligenza artificiale nel settore della giustizia, tuttora in corso.
l'8ª Commissione permanente (Ambiente, transizione ecologica, energia, lavori pubblici, comunicazioni, innovazione tecnologica) del Senato ha promosso un'indagine conoscitiva sull'utilizzo delle tecnologie digitali e dell'intelligenza artificiale nella pianificazione, nella costruzione e nel monitoraggio delle infrastrutture stradali, autostradali, ferroviarie, portuali, aeroportuali e logistiche; nell'agosto 2025 ha avviato l'esame del documento conclusivo.
Parallelamente, nel corso della legislatura corrente sono state presentate numerose proposte di legge volte a disciplinare diversi aspetti connessi alla sperimentazione e all'utilizzo dell'intelligenza artificiale, tra cui interventi sulla promozione e regolazione dell'IA nei settori produttivi, sulla trasparenza dei contenuti generati da sistemi di IA e sulla tutela dei diritti fondamentali e dei dati personali. Tra queste iniziative si colloca anche il disegno di legge di iniziativa governativa "Disposizioni e deleghe al Governo in materia di intelligenza artificiale" (v. supra).
Un ruolo centrale è svolto dal Comitato di vigilanza sull'attività di documentazione della Camera dei deputati, organismo permanente istituito nell'ambito dell'Ufficio di Presidenza, che ha dedicato al tema dell'IA un articolato percorso di approfondimento.
Tra aprile 2023 e gennaio 2024, il Comitato ha condotto un'indagine esplorativa sull'intelligenza artificiale e sul possibile impiego, in particolare dell'IA generativa, a supporto del lavoro parlamentare. Da tale attività è scaturito il rapporto "Utilizzare l'intelligenza artificiale a supporto del lavoro parlamentare", presentato il 14 febbraio 2024, che individua sia le potenzialità degli strumenti di nuova generazione per le attività conoscitive, legislative e di controllo, sia la necessità di definire principi, cautele e presìdi per mitigarne i rischi in termini di affidabilità, trasparenza e tutela dei diritti.
Per dare seguito operativo agli esiti di tale lavoro, il Comitato ha promosso una manifestazione d'interesse rivolta a giovani studiosi, ricercatori, centri di competenze universitari ed enti di ricerca, finalizzata a raccogliere proposte progettuali sull'utilizzo dell'intelligenza artificiale applicata al Parlamento. Tra le proposte pervenute, un gruppo di esperti ha selezionato tre progetti vincitori, che l'Amministrazione della Camera sta sviluppando in collaborazione con i proponenti: Norma, Macchina Scrittura Emendamenti (MSE) e DepuChat.
Più nel dettaglio:
Norma è un chatbot specialistico concepito per fornire, a cittadini e addetti ai lavori, dati e informazioni sull'attività parlamentare, attingendo in questa fase prototipale, in particolare, alle elaborazioni dell'Osservatorio sulla legislazione della Camera dei deputati.
Macchina Scrittura Emendamenti (MSE) è un'applicazione messa a disposizione dei deputati e dell'Amministrazione per la redazione assistita delle proposte emendative, in grado di supportare la scrittura automatizzata nel rispetto delle regole di tecnica legislativa e dei formati parlamentari.
DepuChat è un chatbot destinato a rendere più facilmente fruibili, anche per il grande pubblico, dati e informazioni relativi alla Camera, ai suoi organi, alle procedure parlamentari e all'attività dei singoli deputati, con l'obiettivo di rafforzare trasparenza e partecipazione dei cittadini.
Accanto alle iniziative di carattere più operativo, è stato promosso anche un percorso di riflessione culturale sul rapporto tra intelligenza artificiale, istituzioni democratiche e società. In questo quadro si colloca il ciclo di seminari "IA e Parlamento. La téchne e la pòlis: quattro lezioni sull'attualità e sul futuro", organizzato dal Comitato di vigilanza sull'attività di documentazione nel 2025. Il ciclo, ospitato presso la Camera dei deputati, ha visto gli interventi di:
Giorgio Parisi, premio Nobel per la Fisica, con una lezione su "L'intelligenza artificiale tra speranze e criticità";
Éric Sadin, filosofo e studioso di tecnologie digitali e IA, con una lezione dedicata all'IA generativa come fenomeno sociale e culturale;
Luciano Floridi, filosofo e docente all'Università di Yale, con una lezione su presente e futuro dell'intelligenza artificiale;
Maria Chiara Carrozza, dell'Università di Milano-Bicocca, che ha concluso il ciclo con una lectio su "Umanità in equilibrio fra robot, intelligenza artificiale e natura".
Nel loro insieme, queste iniziative – indagini conoscitive, proposte legislative, attività del Comitato di vigilanza, sperimentazioni applicative e momenti di approfondimento culturale – delineano un percorso organico con cui il Parlamento italiano sta affrontando la sfida dell'intelligenza artificiale, con l'obiettivo di coglierne le opportunità per il miglioramento dei processi parlamentari e, al contempo, di presidiare i profili etici, giuridici e democratici connessi al suo utilizzo.
Il Governo italiano, in coerenza con le linee del Libro bianco sull'intelligenza artificiale della Commissione europea, ha definito a partire dal 2020 una Strategia nazionale per l'IA (promossa dal Ministero delle imprese e del made in Italy – MIMIT). Tale Strategia si colloca nel quadro del Piano coordinato europeo per l'IA e si inserisce in un'azione sinergica tra gli Stati membri dell'Unione europea e le istituzioni dell'UE.
Programma Strategico Intelligenza Artificiale 2022-2024
Per aggiornare la Strategia nazionale, il 24 novembre 2021 il Governo ha adottato il Programma Strategico Intelligenza Artificiale 2022-2024, che:
individua 6 obiettivi generali;
definisce 11 settori prioritari in cui concentrare gli investimenti;
articola gli interventi in 3 aree strategiche, attraverso le quali il Paese intende conseguire gli obiettivi dichiarati:
Talenti e competenze
Rafforzare le competenze nazionali e attrarre talenti, al fine di sviluppare un ecosistema italiano dell'intelligenza artificiale solido e competitivo.
Ricerca
Incrementare i finanziamenti e le infrastrutture dedicate alla ricerca avanzata nel campo dell'intelligenza artificiale, sostenendo in particolare le eccellenze scientifiche e la collaborazione tra mondo accademico e imprese.
Applicazioni
Incentivare l'adozione di soluzioni e applicazioni di IA sia nella pubblica amministrazione sia nei settori produttivi, promuovendo l'innovazione dei modelli organizzativi e dei processi.
Per queste tre aree, il Programma individua 24 politiche da realizzare nel triennio 2022-2024, finalizzate a potenziare il sistema dell'IA in Italia attraverso:
la creazione e il rafforzamento delle competenze;
il sostegno alla ricerca;
lo sviluppo di programmi e applicazioni basati su tecnologie di intelligenza artificiale.
Governance nazionale dell'intelligenza artificiale
Per assicurare un'efficace governance della materia e monitorare l'attuazione della Strategia, è stato istituito, in seno al Comitato interministeriale per la transizione digitale, un gruppo di lavoro permanente sull'intelligenza artificiale, con il compito di:
coordinare le iniziative del Governo in ambito IA;
seguire lo stato di avanzamento della Strategia e dei relativi programmi.
Successivamente, la governance italiana è stata ulteriormente definita dall'articolo 19 della legge n. 132 del 2025, che:
affida al Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei ministri il compito di predisporre e aggiornare la Strategia italiana per l'IA, con cadenza biennale;
prevede che tale attività sia svolta d'intesa con le Autorità nazionali per l'intelligenza artificiale (AgID e ACN);
stabilisce che, per la predisposizione della Strategia, siano sentiti:
il Ministro delle imprese e del made in Italy, per i profili di politica industriale e di incentivazione;
il Ministro dell'università e della ricerca, per gli aspetti relativi alla formazione superiore e alla ricerca;
il Ministro della difesa, per i profili di propria competenza, con particolare riferimento alle implicazioni in ambito difesa e sicurezza.
La legge dispone inoltre che i risultati del monitoraggio sull'attuazione della Strategia, svolto dal Dipartimento per la trasformazione digitale, siano trasmessi annualmente alle Camere.
Strategia Italiana per l'Intelligenza Artificiale 2024-2026
Il 22 luglio 2024 è stata pubblicata la Strategia Italiana per l'Intelligenza Artificiale 2024-2026.
Il documento è stato redatto da un Comitato di esperti incaricato di supportare il Governo nella definizione della normativa nazionale e delle strategie di sviluppo dell'IA.
Dopo un'analisi del contesto globale e del posizionamento dell'Italia, la Strategia individua tre macro-obiettivi strategici per valorizzare lo sviluppo dell'intelligenza artificiale:
Sostenere la realizzazione e l'adozione di applicazioni di IA
Favorire soluzioni di IA a supporto delle pratiche gestionali, dei modelli produttivi e dei progetti di innovazione nei diversi settori economici e sociali.
Promuovere le attività di ricerca scientifica funzionale e applicata
Sostenere sia la ricerca di base sia quella applicata, rafforzando la collaborazione tra università, centri di ricerca, imprese e pubbliche amministrazioni.
Valorizzare il capitale umano
Promuovere la formazione, la riqualificazione e la crescita di talenti dotati delle competenze necessarie per progettare, sviluppare e governare sistemi di intelligenza artificiale.
La Strategia organizza le azioni previste in quattro macro-aree:
Ricerca
Pubblica Amministrazione
Imprese
Formazione
Essa prevede inoltre:
un sistema di monitoraggio dell'attuazione delle misure;
un'analisi del contesto regolativo, che delinea il quadro entro cui le politiche e gli interventi in materia di IA saranno sviluppati e applicati.
Commissione AI per l'Informazione
Con riferimento alla governance, nell'ottobre 2023 è stata istituita, dal Sottosegretario di Stato alla Presidenza del Consiglio dei ministri con delega all'informazione e all'editoria, la Commissione AI per l'Informazione.
La Commissione ha il compito di:
studiare l'impatto dell'intelligenza artificiale sul diritto d'autore;
analizzare gli effetti dell'IA sulla produzione e sulla diffusione dei contenuti informativi.
Il 5 aprile 2024 è stata trasmessa al Parlamento la prima relazione sull'attività svolta dalla Commissione, aggiornata al 25 marzo 2024.
Il tema IA nel G7 a Presidenza italiana 2024
L'intelligenza artificiale è stata uno dei temi centrali del G7 a Presidenza italiana del 2024.
In particolare, nel corso della Riunione Ministeriale Industria, Tecnologia e Digitale del G7, svoltasi a marzo 2024, è stata adottata una dichiarazione ministeriale sulla governance delle tecnologie trasformative, tra cui l'IA. In tale dichiarazione:
è stata confermata la volontà dei Paesi del G7 di proseguire il percorso di governance e compliance avviato con l'Hiroshima AI Process;
è stato previsto un meccanismo per monitorare l'applicazione del Codice di condotta e dei Principi guida internazionali da parte di organizzazioni internazionali e imprese.
I Paesi del G7 sottolineano come prioritaria:
la necessità che l'IA sia sviluppata e utilizzata in modo etico;
il rispetto dei principi e dei valori alla base delle democrazie del G7;
il perseguimento del benessere dei cittadini, nonché della coesione, della resilienza, del welfare e dello sviluppo delle società ed economie interessate.
La dichiarazione affronta quattro principali aree tematiche:
IA e tecnologie emergenti nell'industria;
sicurezza e resilienza delle catene di fornitura e delle reti;
sviluppo digitale;
governo digitale.
Con specifico riferimento all'intelligenza artificiale, nel documento ministeriale:
È stata approvata la proposta di elaborare, entro fine anno, un rapporto che analizzi fattori e sfide legati all'adozione e allo sviluppo dell'IA nelle imprese, con particolare attenzione alle micro e piccole imprese (MPMI). Il rapporto è finalizzato a fornire ai Governi del G7 opzioni di policy per promuovere un'IA sicura, affidabile e rispettosa dei diritti legali applicabili, inclusi i diritti di proprietà intellettuale e la protezione dei segreti commerciali.
Sono state sollecitate le autorità per la concorrenza a continuare a vigilare sullo sviluppo dell'industria dell'IA ed è stato confermato il sostegno al Summit sulla Concorrenza Digitale del G7, che si terrà a Roma nel 2024, con un focus specifico sull'IA.
È stata sottolineata l'importanza che i sistemi di IA riflettano la diversità culturale e linguistica delle comunità locali e che si rafforzi la capacità locale nel campo dell'IA, in particolare nei Paesi in via di sviluppo.
Sotto la Presidenza italiana del G7, è stato confermato l'impegno a:
individuare meccanismi, piattaforme e strumenti per facilitare la collaborazione multi-stakeholder con i Paesi in via di sviluppo, con particolare attenzione all'Africa nel 2024;
promuovere la proposta di un Hub IA per lo Sviluppo Sostenibile, volto a utilizzare l'IA come leva per raggiungere gli Obiettivi di sviluppo sostenibile.
È stata inoltre riconosciuta la necessità di un dialogo inclusivo tra amministrazioni pubbliche e imprese private per:
valorizzare iniziative e consorzi già attivati dai Paesi del G7;
collaborare con le nazioni in via di sviluppo nel colmare i divari digitali;
sfruttare le tecnologie digitali a favore dello sviluppo sostenibile.
Il documento ministeriale include, poi, quattro dichiarazioni congiunte, di cui due dedicate in modo specifico all'intelligenza artificiale:
Toolkit per l'Intelligenza Artificiale nel Settore Pubblico, il quale mira a predisporre uno strumento operativo per:
tradurre nel settore pubblico i principi di un'IA sicura e affidabile;
rafforzare le capacità delle amministrazioni nella progettazione, nell'adozione e nella gestione di sistemi di IA.
Avanzamento degli esiti del Processo di Intelligenza Artificiale di Hiroshima (HAIP), con l'obiettivo di:
integrare e promuovere i risultati dell'Hiroshima AI Process;
sviluppare meccanismi di monitoraggio dell'adozione volontaria del "Codice di condotta internazionale per i sistemi avanzati di IA";
favorire l'interoperabilità tra i diversi regimi di governance sull'IA, con attenzione anche ai settori militare e giudiziario.
In questo quadro, l'Italia si colloca tra i Paesi impegnati a costruire un ecosistema dell'intelligenza artificiale che coniughi innovazione, tutela dei diritti fondamentali, competitività economica e sviluppo sostenibile.
Garante della protezione dei dati personali
In relazione al rapporto tra intelligenza artificiale (IA) e tutela dei dati personali, il 22 novembre 2023 il Garante ha comunicato l'avvio di un'indagine conoscitiva sull'utilizzo di tecniche di raccolta massiva di dati personali online ("web scraping") per l'addestramento di algoritmi di IA. L'indagine è volta a verificare se i siti internet pubblici e privati operanti in Italia adottino adeguate misure tecniche per prevenire la raccolta indiscriminata di dati personali da parte di terzi per finalità di addestramento algoritmico. L'iniziativa è stata formalizzata con il provvedimento del 21 dicembre 2023 e con l'Avviso di indagine conoscitiva in materia di webscraping", pubblicato nella Gazzetta Ufficiale del 18 gennaio 2024, che ha fissato in sessanta giorni il termine per la presentazione di osservazioni, commenti e proposte operative da parte dei soggetti interessati.
Il 31 marzo 2023, con un provvedimento rivolto a OpenAI, il Garante ha disposto la limitazione provvisoria del trattamento dei dati personali degli utenti italiani tramite la piattaforma ChatGPT, ritenendo che il servizio non fosse conforme ad alcune disposizioni del Regolamento (UE) 2016/679 (GDPR). A seguito degli interventi correttivi e degli impegni assunti da OpenAI, l'accesso al servizio dall'Italia è stato successivamente ripristinato. Il 29 gennaio 2024 il Garante ha poi notificato a OpenAI un atto di contestazione per presunte violazioni della normativa in materia di protezione dei dati personali in relazione al funzionamento di ChatGPT; il comunicato ufficiale dà conto della contestazione, rinviando ai successivi sviluppi procedimentali per i dettagli degli addebiti.
Con provvedimento dell'11 gennaio 2024, reso noto con comunicato stampa del 25 gennaio 2024, il Garante ha sanzionato il Comune di Trento per aver realizzato due progetti di ricerca scientifica basati sull'uso di telecamere di videosorveglianza, microfoni installati in luoghi pubblici e analisi di contenuti provenienti dai social media, con il supporto di sistemi di IA. I progetti prevedevano l'acquisizione e l'elaborazione di filmati, tracce audio e messaggi o commenti d'odio pubblicati online, al fine di rilevare eventuali emozioni negative ed elaborare, sempre tramite sistemi di IA, informazioni d'interesse per le Forze dell'ordine.
Il Garante ha rilevato, tra l'altro, che il Comune, non annoverando la ricerca scientifica tra le proprie finalità istituzionali, non aveva dimostrato l'esistenza di un'adeguata base giuridica per tali trattamenti – relativi anche a dati su reati e a categorie particolari di dati – con conseguente ingerenza sproporzionata nei diritti e nelle libertà fondamentali delle persone interessate.
Nel contesto della presidenza italiana del G7 in materia di protezione dei dati personali, dal 9 all'11 ottobre 2024 il Garante ha promosso iniziative di coordinamento internazionale tra le autorità omologhe, che hanno portato alla adozione di uno "Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI" (dichiarazione sul ruolo delle autorità di protezione dei dati nel promuovere un'IA affidabile) e di uno "Statement on AI and Children" (dichiarazione sull'IA e i bambini). Parallelamente, l'Autorità ha rafforzato le attività di sensibilizzazione del pubblico con la serie video "Le parole dell'AI" e con interventi su temi quali l'IA generativa nel giornalismo, i deepfake e gli assistenti digitali.
Autorità per le Garanzie nelle Comunicazioni (AGCOM)
Nel settembre 2023 l'AGCOM, in collaborazione con l'International Institute of Communications, ha organizzato un convegno sul tema "Pluralismo e diritto d'autore al tempo dell'intelligenza artificiale". Nel corso dell'evento, il Presidente ha evidenziato come la nuova regolamentazione dell'IA richiederà alle autorità competenti un delicato ruolo di composizione degli interessi in gioco, in particolare rispetto all'adattamento della tutela autoriale alle opere dell'ingegno generate, in tutto o in parte, da sistemi automatizzati.
Con delibera n. 11/24/CONS del 24 gennaio 2024, il Consiglio dell'AGCOM ha istituito il "Comitato sull'intelligenza artificiale nei settori di competenza dell'Autorità", organismo consultivo composto da esperti esterni, incaricato di analizzare le implicazioni dei sistemi di IA sul pluralismo, sulla tutela dei minori, sui diritti fondamentali, sulla sicurezza delle reti e sul diritto d'autore, in vista anche dell'attuazione a livello nazionale dell'AI Act.
La composizione del Comitato è stata successivamente integrata con la delibera n. 2/25/CONS del 9 gennaio 2025, che ne ha completato l'assetto e ne ha sancito l'operatività.
Per garantire un supporto strutturale a tali attività, dal 1° ottobre 2024 l'AGCOM ha istituito un "Ufficio intelligenza artificiale", incardinato nell'organigramma dell'Autorità, con il compito di svolgere studi e analisi su big data e IA, coordinare i lavori dei comitati tematici e raccordarsi con le direzioni competenti.
Sul fronte delle indagini conoscitive, l'Autorità ha sviluppato analisi empiriche sull'impatto degli algoritmi e dell'IA sulla cittadinanza e sulle professioni. Il "Report sulla Media Literacy 2024" mostra, ad esempio, che solo circa il 7% degli italiani presenta un livello elevato di "alfabetizzazione algoritmica", mentre il 64,4% circa manifesta un livello nullo o scarso, dati che alimentano i lavori del tavolo di coordinamento per l'alfabetizzazione digitale e mediatica.
Agenzia per l'Italia digitale (AgID)
L'AgID è stata designata, dall'articolo 20 della legge 23 settembre 2025, n. 132 ("Disposizioni e deleghe al Governo in materia di intelligenza artificiale"), come autorità nazionale di notifica per l'intelligenza artificiale, nell'ambito della nuova architettura pubblica di governance dell'IA. In particolare, all'Agenzia sono attribuite:
la responsabilità di promuovere l'innovazione e lo sviluppo dell'intelligenza artificiale nel Paese;
le funzioni e i compiti di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di IA alla normativa europea e nazionale.
Sul piano normativo-attuativo, con la determinazione n. 17/2025 del 17 febbraio 2025 l'AgID ha avviato la consultazione pubblica sulle "Linee guida per l'adozione, l'acquisto e lo sviluppo di sistemi di intelligenza artificiale nella Pubblica Amministrazione", previste dal Piano Triennale per l'Informatica nella PA 2024–2026 e adottate secondo la procedura di cui all'art. 71 del Codice dell'amministrazione digitale (CAD). La consultazione si è svolta dal 18 febbraio al 20 marzo 2025, consentendo a cittadini, imprese e istituzioni di formulare osservazioni e proposte.
Le Linee guida definiscono un quadro di governance per i sistemi di IA nella PA (ruoli e responsabilità, gestione dell'intero ciclo di vita delle soluzioni, valutazioni di impatto) e declinano in requisiti operativi i principi di etica, sicurezza cibernetica, qualità dei dati, trasparenza e supervisione umana, con particolare attenzione ai sistemi classificabili come "ad alto rischio" ai sensi dell'AI Act.
Agenzia per la Cybersicurezza Nazionale (ACN)
L'Agenzia per la Cybersicurezza Nazionale (ACN), istituita con il decreto-legge 14 giugno 2021, n. 82, è l'Autorità nazionale per la cybersicurezza a tutela degli interessi nazionali nello spazio cibernetico, con compiti di sicurezza e resilienza delle infrastrutture e dei servizi digitali.
L'articolo 20 della legge n. 132 del 23 settembre 2025 le attribuisce il ruolo di autorità nazionale di vigilanza del mercato e di punto di contatto unico con le istituzioni dell'Unione europea per l'intelligenza artificiale. In questa veste, all'ACN competono in particolare:
la vigilanza – anche mediante attività ispettive e sanzionatorie – sui sistemi di IA immessi sul mercato o messi in servizio, secondo quanto previsto dalla normativa nazionale ed europea;
la promozione e lo sviluppo di sistemi di IA sicuri e affidabili, con specifico riferimento ai profili di cybersicurezza.
Nel Piano strategico ACN 2024–2026 l'intelligenza artificiale è indicata come fattore trasversale di trasformazione delle minacce e, allo stesso tempo, come leva per potenziare le capacità di rilevazione e risposta agli incidenti e per rafforzare le competenze nazionali.
Con un'analisi di scenario pubblicata il 31 gennaio 2025, l'Agenzia ha previsto che l'uso malevolo dell'IA caratterizzerà il panorama delle minacce cyber per tutto il 2025, ribadendo l'esigenza di sviluppare sistemi di IA sicuri e affidabili e di impiegarli anche per contrastare attacchi che sfruttano la stessa tecnologia.
Sul piano internazionale, l'ACN ha svolto un ruolo propulsivo nel G7 sulla cybersicurezza dell'IA, contribuendo, tra l'altro, al documento "Una visione condivisa del G7 sull'inventario dei software dell'IA", orientato a rafforzare trasparenza e sicurezza lungo la catena di fornitura dei sistemi di IA e a porre le basi per future linee guida comuni.
L'Agenzia è inoltre tra i principali attori del progetto europeo IT4LIA AI Factory, che prevede la realizzazione, presso il Tecnopolo di Bologna, di una piattaforma strategica di supercalcolo ottimizzata per l'intelligenza artificiale, per un investimento complessivo stimato in 430 milioni di euro.
Quadro di riferimento europeo
Negli ultimi anni l'Unione europea ha assunto un ruolo di primo piano come regolatore in materia di intelligenza artificiale, definendo un quadro di norme volto a creare un contesto normativo e istituzionale capace di trovare un punto di equilibrio tra le esigenze del mercato e la tutela dei valori e dei principi dell'Unione. Il Regolamento (UE) 2024/1689 sull'intelligenza artificiale (c.d. AI Act), che costituisce il pilastro di tale quadro, è stato pubblicato nella Gazzetta ufficiale dell'Unione europea il 12 luglio 2024, è entrato in vigore il 1° agosto 2024 ed è destinato a diventare pienamente applicabile a decorrere dal 2 agosto 2026, salvo le disposizioni per le quali è prevista un'applicazione anticipata, come descritto oltre.
In particolare, l'UE ha affrontato il tema della regolamentazione dell'IA dapprima attraverso l'elaborazione da parte della Commissione di una strategia europea per i dati (COM(2020) 66 final), in esito alla presentazione del Libro bianco sull'IA "Un approccio europeo all'eccellenza e alla fiducia" (COM(2020) 65 final) e, successivamente, con la proposta di regolamento sull'intelligenza artificiale (c.d. AI Act, COM(2021) 206 final), approvata in via definitiva dal Consiglio dell'Unione europea il 21 maggio 2024.
Si ricorda che nella XVIII legislatura, la IX Commissione della Camera aveva esaminato il citato Libro bianco sull'Intelligenza artificiale, adottando, il 19 maggio 2021, un documento finale recante una valutazione favorevole con osservazioni. Con decreto ministeriale del 21 novembre 2022 il Ministero ha poi avviato, sul territorio nazionale, la promozione di progetti di sperimentazione, in continuità con quanto previsto dal decreto ministeriale del 26 marzo 2019 di approvazione del Programma di supporto alle tecnologie emergenti. Tali progetti sono rivolti allo sviluppo di prodotti, processi, servizi o modelli di business e organizzativi innovativi, realizzati attraverso le tecnologie emergenti, grazie all'uso e allo sviluppo delle reti mobili ultra veloci (5G) e alla ricerca sulle reti mobili di nuova generazione (6G).
Il Regolamento (UE) 2024/1689 mira a promuovere lo sviluppo e l'adozione, nel mercato unico europeo, di sistemi di IA sicuri e affidabili da parte di attori pubblici e privati. Le sue disposizioni si applicano unicamente ai settori disciplinati dal diritto dell'Unione, con alcune eccezioni riguardanti, in particolare, i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché per scopi di ricerca.
La nuova legge europea sull'intelligenza artificiale adotta un approccio "basato sul rischio", fondato su una classificazione dei rischi derivanti dall'impiego dei sistemi di IA: quanto maggiore è il rischio di danni per la società, tanto più stringenti sono le regole applicabili. Al contempo, il regolamento persegue l'obiettivo di garantire il rispetto dei diritti fondamentali dei cittadini dell'UE e di stimolare gli investimenti e l'innovazione nel campo dell'intelligenza artificiale in Europa.
I sistemi di IA sono quindi classificati in base al rischio connesso al loro utilizzo, distinguendo tra rischio inaccettabile, alto, basso o minimo. In particolare:
i sistemi che presentano un rischio basso o minimo sono soggetti a obblighi di trasparenza limitati e proporzionati;
i sistemi ad alto rischio sono autorizzati, ma sottoposti a una serie di requisiti e obblighi rigorosi per poter accedere al mercato dell'UE (ad esempio in materia di gestione del rischio, qualità dei dati, documentazione tecnica, sorveglianza umana e monitoraggio post-commercializzazione);
i sistemi il cui impiego comporta un rischio ritenuto inaccettabile – come talune forme di manipolazione cognitivo-comportamentale, lo sfruttamento delle vulnerabilità di gruppi di persone, alcune pratiche di social scoring e specifici usi del riconoscimento biometrico – sono vietati nell'UE. A tal riguardo, il regolamento vieta, tra l'altro, l'uso dell'IA per politiche predittive basate esclusivamente sulla profilazione o su valutazioni automatizzate e quello di sistemi che utilizzano dati biometrici per classificare le persone in base a categorie particolarmente sensibili, quali razza, religione o orientamento sessuale.
La legge sull'IA disciplina anche l'impiego di modelli di intelligenza artificiale per scopi generali (General Purpose AI – GPAI). I modelli GPAI che non presentano rischi sistemici sono soggetti ad obblighi limitati, in particolare in materia di trasparenza; i modelli che invece presentano rischi sistemici devono rispettare un complesso più articolato di regole, inclusi ulteriori obblighi di valutazione, gestione e mitigazione del rischio.
Alla luce di questo quadro regolamentare europeo, che già oggi costituisce parte del diritto interno e vincola direttamente gli operatori privati e pubblici italiani, la legge n. 132 del 2025 svolge una funzione complementare di adeguamento istituzionale, di coordinamento con il resto dell'ordinamento nazionale e, in alcuni settori, di anticipazione o estensione delle scelte europee.
Nel contesto della "Bussola per la competitività dell'UE", presentata dalla Commissione europea il 29 gennaio 2025 in occasione del vertice d'azione sull'IA di Parigi, la Presidente della Commissione UE, Ursula von der Leyen, ha lanciato l'iniziativa InvestAI, volta a mobilitare 200 miliardi di euro per investimenti nell'IA, inclusa l'istituzione di un nuovo fondo europeo da 20 miliardi di euro destinato alle gigafactory dell'IA, specializzate nella formazione dei modelli di IA più complessi e di grandi dimensioni.
È inoltre previsto, entro il primo trimestre del 2026, un atto legislativo dell'UE sullo sviluppo del cloud e dell'IA, volto a mobilitare iniziative pubbliche e private per istituire nuove AI gigafactory specializzate nell'addestramento di modelli di IA di grandissime dimensioni e a stabilire requisiti minimi per l'offerta di servizi di cloud in Europa.
Nell'ambito della medesima Bussola sono altresì annunciate, per il terzo trimestre del 2025, iniziative a sostegno di nuove applicazioni industriali dell'IA in settori quali l'industria manifatturiera, l'automotive, l'energia, la robotica, la farmaceutica, l'aeronautica e i servizi finanziari, nonché per il miglioramento dei servizi pubblici.
Infine, per il quarto trimestre del 2025 è previsto un atto legislativo sulle reti digitali, finalizzato a migliorare gli incentivi di mercato per la costruzione delle reti digitali del futuro, ridurre gli oneri e i costi di conformità, rafforzare la connettività digitale per gli utenti finali e creare un mercato unico più integrato per la connettività, nonché una politica dell'UE maggiormente coordinata in materia di spettro radio.