L’Intelligenza Artificiale è la frontiera tecnologica che oggi rappresenta appieno il punto di equilibrio tra i concetti di rischio e opportunità per il settore privato. Nell’era della trasformazione digitale, le aziende affrontano una sfida a doppio taglio: adottare l’Intelligenza Artificiale per restare competitive e, allo stesso tempo, gestirne i potenziali impatti sui diritti umani attraverso l’integrazione di una due diligence sui diritti umani nei processi di sviluppo e utilizzo delle tecnologie.
Le applicazioni dell’IA sono varie: spaziano dalla ricerca e analisi di informazioni (es. Gemini, Chat GOT, Co-Pilot) all’elaborazione del linguaggio naturale per l’automatizzazione di attività, fino alla creazione di nuovi contenuti audio, video o testo, attraverso l’IA Generativa (GenAI), una sottocategoria dell’Intelligenza Artificiale.
Lo scenario: imprese e IA
Anche nei contesti lavorativi questa tecnologia è sempre più utilizzata: a livello europeo, secondo i dati Eurostat, nel 2025 il 20% delle imprese ha utilizzato tecnologie basate sull’IA, il 6,5% in più rispetto al 2024. L’adozione cresce con la dimensione aziendale: riguarda il 17% delle piccole imprese, il 30% delle medie e il 55% delle grandi. Il settore che le impiega maggiormente risulta essere quello dell’informazione e della comunicazione.
In Italia, secondo i dati Istat 2025 su Imprese e ICT, l’uso dell’IA nelle imprese è raddoppiato, passando dall’8,2% del 2024 al 16,4%, e coinvolge in misura maggiore le grandi imprese rispetto alle PMI, nelle quali l’impiego è comunque in crescita.
Gli ambiti aziendali in cui l’intelligenza artificiale viene adottata più frequentemente sono:
- il marketinge le vendite (33,1%)
- l’organizzazione dei processi amministrativi (25,7%)
- l’area ricerca e sviluppo o innovazione (20,0%)
In essi l’IA è impiegata principalmente per l’estrapolazione di informazioni da testi, produzione di contenuti scritti, immagini, video e audio, dettatura e trascrizione e analisi di dati. Fra gli ostacoli principali evidenziati dalle imprese che ancora non si avvalgono di questa tecnologia si annoverano la mancanza di competenze, la carenza di chiarezza legislativa, le preoccupazioni relative alla privacy e alla protezione dei dati, i costi elevati e una serie di considerazioni etiche.

Rischi e opportunità per le aziende
A livello aziendale, l’Intelligenza Artificiale offre significative opportunità di innovazione, efficienza e crescita competitiva. In particolare, l’integrazione di sistemi avanzati di analisi dei dati e di automazione consente alle imprese di:
- migliorare i processi decisionali
- ottimizzare le operazioni
- sviluppare nuovi prodotti e servizi competitivi
Dall’altro lato, l’adozione crescente di queste tecnologie comporta anche rischi concreti per i diritti umani e per la governance aziendale. Tra i principali emergono:
- fenomeni di bias algoritmico
- discriminazione nei processi decisionali automatizzati
- espansione di pratiche di sorveglianza digitale
- utilizzo intensivo dei dati personali
- impatti sul lavoro, legati alla gestione algoritmica della forza lavoro, all’automazione e alle condizioni di lavoro lungo la catena del valore tecnologica
La normativa sul tema
In questo contesto, il quadro normativo internazionale ed europeo sta evolvendo rapidamente, nel tentativo di colmare il divario tra innovazione tecnologica e tutela dei diritti fondamentali. Un passaggio chiave è rappresentato dall’entrata in vigore nel 2024 dell’EU AI Act, che introduce un approccio basato sul rischio e stabilisce requisiti stringenti in materia di trasparenza, qualità dei dati, supervisione umana e gestione dei rischi, con obblighi specifici per i sistemi di IA considerati ad alto rischio.
A partire da agosto 2026 gran parte delle disposizioni diventerà applicabile, rendendo operativo il quadro di governance dell’IA nell’UE. Le nuove norme si affiancano, però, ad altri strumenti regolatori europei ormai consolidati, come il GDPR e la CSDDD, contribuendo a definire un quadro di responsabilità crescente per le imprese.

La chiave: una due diligence integrata
Alla luce di queste dinamiche, diventa cruciale per le aziende integrare nei propri processi decisionali e operativi una solida due diligence sui diritti umani, in linea con i Principi Guida delle Nazioni Unite su Imprese e Diritti Umani (UNGPs). Ciò implica non solo la conformità normativa, ma anche l’adozione di strategie basate sul rischio, che includano l’identificazione e la valutazione degli impatti sui diritti umani lungo l’intero ciclo di vita delle tecnologie: dallo sviluppo all’implementazione fino all’uso da parte di clienti e utenti finali. Processi efficaci di due diligence richiedono coinvolgimento degli stakeholder, monitoraggio continuo, meccanismi di reclamo e misure di rimedio, consentendo alle imprese di prevenire e mitigare i rischi, rafforzare la fiducia degli stakeholder e promuovere un’innovazione digitale realmente responsabile.
Leggi anche:
Per approfondire: Digital & Emerging Technologies & Human Rights
Fonti immagini: Pixabay, UNGC