Con l’uso sempre più frequente dell’AI (Intelligenza Artificiale) negli ambienti di lavoro, che si sta espandendo gradualmente a diversi settori merceologici, è diventato fondamentale avere delle regole da seguire per garantire uno sviluppo consapevole nell’utilizzo di tale strumento.
A marzo di quest’anno il Parlamento Europeo ha approvato l'AI Act. Il documento ha l'obiettivo è di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l'innovazione e assicurando all'Europa un ruolo guida nel settore.
In questo contesto, è stato redatto lo standard ISO/IEC 42001, il cui obiettivo principale è promuovere lo sviluppo e l'utilizzo responsabile dell'AI, garantendo che i sistemi di AI siano progettati, sviluppati, implementati e gestiti in modo da preservare determinati requisiti quali:
Partendo quindi da tali presupposti, la ISO 42001 è strutturata secondo il modello ormai consolidato di Plan-Do-Check-Act (PDCA), un ciclo di miglioramento continuo comune a molti altri standard di sistemi di gestione. Per fare un breve riepilogo, il ciclo PDCA comprende le seguenti fasi:
È importante segnalare che l'ISO 42001 è uno standard volontario, ma la sua adozione può fornire alle varie tipologie di organizzazione una serie di vantaggi, quali ad esempio:
Concludendo, l'ISO 42001 è uno standard nuovo, ma sta guadagnando rapidamente popolarità tra le organizzazioni che utilizzano e sviluppano sistemi di AI, o che si vogliono avvicinare a questo mondo con una “guida per affrontare il tema ed affrontarlo senza preconcetti.
Se la Tua organizzazione si sta avvicinando a tale ISO e vuoi confrontarti, Crowe Bompani è disponibile a scambiare opinioni, valutazioni, idee di uso ed altro che riguardi la ISO42001.