Clicca qui per la versione italiana
Italy is set to become the first EU Member State to adopt a national law on artificial intelligence.
On 17 September, the Senate gave final approval to the draft law on Artificial Intelligence, which not only anticipates the European AI Act but also seeks to complement and adapt it to the domestic context. The new law introduces more detailed rules and mechanisms designed to ensure greater effectiveness.
Key Changes
In terms of governance, the law assigns a central role to a network of existing institutions and authorities. The Presidency of the Council, through dedicated interministerial committees, will perform political and strategic policy-making functions. The National Cybersecurity Agency (ACN) will carry out supervisory tasks, while the Agency for Digital Italy (AgID) will be responsible for managing notifications and certifying high-risk AI systems.
On the substantive side, the law addresses several crucial areas:
- Healthcare: Intelligent systems may process data for research purposes, provided that the doctor’s ultimate responsibility can never be replaced by an algorithm.
- Employment: Protections for employees are strengthened with respect to automated performance assessment tools, imposing specific transparency obligations on employers.
- Professional services: The principle of personal responsibility of professionals is reaffirmed, prohibiting the delegation of professional activities to AI and requiring professionals to inform clients when such tools are used.
- Justice: AI may be used only as a support tool - for example, for case law research or file management - but never as a substitute for judicial decision-making. This reflects a deliberate choice to preserve the autonomy and centrality of the human judicial function in the face of increasingly sophisticated technologies.
On the criminal law front, the new law on IA introduces new offences, with particular attention to deep fakes, and classifies the use of AI in the commission of crimes as an aggravating circumstance. This sends a strong signal of intent to prevent manipulation, fraud, and abuse linked to artificial intelligence.
The effectiveness of the new regime will depend on the adoption of implementing decrees and its coordination with the AI Act, which will come fully into force in the coming years. At that stage, it will become clear whether the Italian model will add real value or risk complicating the regulatory framework with overlaps and redundancies. The European Commission has already expressed concerns about the risk of over-regulation, warning that additional national rules - such as those in the health sector - may lead to rigidity and conflicts of interpretation.
Impact on the Insurance Sector
The insurance industry has long employed AI solutions in profiling, underwriting, claims management, and fraud detection. The new rules place greater emphasis on transparency and algorithmic control, with significant implications for internal processes and data management. This may result in higher compliance costs, but also in new opportunities for competitive differentiation for companies that invest in reliable and compliant solutions.
Civil liability is another sensitive issue. The new rules may affect the design of insurance coverage, exclusion clauses, and premium calculation, particularly where AI use creates additional risks for policyholders or third parties. This debate intersects with the broader European discussion on liability for AI-related damage, in which Italy’s legislation may serve as a testing ground.
For insurance companies, the impact will therefore be twofold: on the one hand, the need to reinforce internal controls, and on the other, the opportunity to develop tailored products to cover the risks arising from the use of AI in cybersecurity and beyond.
Approvata la prima legge nazionale sull'Intelligenza artificiale
Click here to view the english version
L’Italia si candida ad essere il primo Paese dell’Unione a dotarsi di una legge nazionale in materia di Intelligenza Artificiale.
Il 17 settembre il Senato ha approvato in via definitiva il disegno di legge sull'Intelligenza Artificiale, che non si limita a recepire anticipatamente l’AI Act europeo, ma intende completarlo e adattarlo al contesto interno, offrendo regole più puntuali e meccanismi che dovrebbero garantire una maggiore effettività.
Principali novità
In tema di governance la legge affida un ruolo centrale ad una rete di istituzioni e autorità già esistenti. La Presidenza del Consiglio, attraverso appositi comitati interministeriali, svolgerà una funzione di indirizzo politico e strategico.
L'Agenzia per la Cybersicurezza Nazionale (ACN) avrà compiti di vigilanza, e l’Agenzia per l’Italia Digitale (AgID), sarà competente per la gestione delle notifiche e la certificazione dei sistemi di IA ad alto rischio.
Sul piano del diritto sostanziale, la legge interviene in diversi settori cruciali.
- In ambito sanitario, viene consentito l’uso dei dati da parte dei sistemi intelligenti anche per finalità di ricerca, a condizione che sia preservata la responsabilità ultima del medico, che non può mai essere sostituita dall’algoritmo.
- Nel mondo del lavoro, si rafforzano le tutele dei dipendenti rispetto a strumenti di valutazione automatizzata delle performance, ponendo precisi obblighi di trasparenza a carico dei datori.
- Quanto alle professioni intellettuali, la norma riafferma con decisione il principio della responsabilità personale del professionista, vietando la delega delle attività caratteristiche all’IA e imponendo un dovere di informazione nei confronti del cliente in caso di utilizzo di tali strumenti.
- Un capitolo particolarmente delicato riguarda la giustizia: la legge stabilisce con chiarezza che i sistemi di IA potranno essere impiegati come strumenti di supporto – ad esempio per attività di ricerca giurisprudenziale o di organizzazione dei fascicoli – ma mai per sostituire il giudice nella decisione. Tale scelta conferma l’insopprimibile centralità della funzione giurisdizionale umana, preservandone l’autonomia anche di fronte a tecnologie sempre più sofisticate.
Sul piano penale, la legge introduce nuove ipotesi di reato, con particolare attenzione al fenomeno dei deep fake e classifica, come circostanza aggravante, l’utilizzo dell’intelligenza artificiale per commettere dei reati. Tali principi costituiscono un segnale forte, che mira a intercettare tempestivamente i rischi di manipolazione, frode e abuso legati all'IA.
La concreta efficacia della legge dipenderà dall’adozione dei decreti attuativi e dal coordinamento con l’AI Act, che nei prossimi anni entrerà pienamente in vigore. Sarà in questa fase che si vedrà se il modello italiano sarà capace di produrre un reale valore aggiunto o se rischierà di complicare il quadro regolatorio con sovrapposizioni e ridondanze.
Già la Commissione europea aveva evidenziato alcune perplessità sul rischio di un eccesso regolatorio, poiché l’introduzione di norme nazionali aggiuntive, ad esempio in ambito sanitario, potrebbe determinare una sovrapposizione con la disciplina europea, creando rigidità e possibili contrasti di interpretazione.
Impatti per il settore assicurativo
Tenuto conto che il settore assicurativo da tempo impiega soluzioni di IA per attività di profilazione, underwriting, gestione dei sinistri e rilevazione delle frodi, le nuove regole impongono una maggiore attenzione alla trasparenza e al controllo degli algoritmi, con conseguenze rilevanti sui processi interni e sui requisiti di gestione dei dati. Ciò potrebbe tradursi in un incremento dei costi di compliance, ma anche in nuove opportunità di differenziazione competitiva per le compagnie che sapranno investire in soluzioni affidabili e conformi.
Un altro profilo delicato riguarda la responsabilità civile: le nuove norme potrebbero incidere sulla strutturazione delle coperture assicurative, sulle clausole di esclusione e sulla determinazione dei premi, soprattutto nei casi in cui l’utilizzo di sistemi di IA sia fonte di rischi aggiuntivi per il cliente o per terzi. La questione si intreccia con il dibattito europeo sulla responsabilità per danni da IA, che resta tuttora aperto e che vedrà la legge italiana giocare un ruolo di test applicativo.
Per le compagnie assicurative, quindi, l'impatto sarà doppio: da un lato la necessità di potenziare i propri presidi interni, dall’altro l’opportunità di sviluppare prodotti assicurativi specifici per coprire i rischi connessi all’uso dell’intelligenza artificiale in chiave cyber.