giovedì 1 gennaio 2026

Sei un Comunicatore Tecnico? Fai un auto-test delle tue competenze

Questo mio primo post del 2026 è ispirato ad un post scritto recentemente da Steev Kundukulangara su Linkedin.

Steev ha proposto questo diagramma in cui sono elencate le competenze, organizzate per domini concentrici, che oggi deve avere un comunicatore tecnico:


FOUNDATION

Nella cerchia più interno ci sono le competenze "di base", quelle che fino agli anni 90 del secolo scorso erano più che sufficienti per identificare un professionista della scrittura tecnica. Come ho sempre sostenuto, per fare lo scrittore tecnico bisogna basicamente "saper scrivere". Tali competenze sono assolutamente necessarie, ma non sufficienti, perchè la scrittura tecnica è "un processo" (vedi gli standard IEC/IEEE 82079-1:2019ISO/IEC/IEEE 26514:2022).


DOCUMENT DEVELOPMENT LIFE CYCLE (DDLC)

Gli elementi essenziali che definiscono "il processo" di sviluppo della documentazione trovano una collocazione nella seconda cerchia, dove iniziamo ad isolare alcune fasi fondamentali del processo. Queste competenze possono essere supportate da altri standard (oltre all'82079-1 e al 26514) quali ad esempio:


ADVANCED CONTENTS & TOOLS

La gestione del processo di documentazione richiede l'utilizzo di strumenti specifici per la gestione ed il riuso dei contenuti. I Component Content Management System (vedi lo standard ISO/IEC/IEEE 26531:2023) sono lo strumento principale per governare il processo di sviluppo della documentazione tecnica. 

Altri strumenti utili, ma non indicati nel diagramma, sono i Learning Management System (LMS) ed i Computer Aided Translation Tools (CAT Tools). Tutti questi strumenti sono indispensabili per governare la redazione e l'aggiornamento dei contenuti: vi posso assicurare che ancora oggi ci sono aziende che ignorano tali strumenti o li utilizzano in modo inefficace.


INFORMATION ARCHITECTURE (IA) & USER EXPERIENCE

Qui arriviamo "al cuore" della professione, in una visione moderna della stessa: "l'Ingegneria dei Contenuti" in molti casi deve arrivare PRIMA e deve essere prevalente rispetto alla SCRITTURA. 

Su questo concetto sto "martellando" la vostra attenzione da molti anni, spesso entrando in conflitto con colleghi "più tradizionalisti" che sostenevano che i manauli dovessero essere scritti con un focus specifico sulla lingua e la terminologia. 

Come vedete dal diagramma, il governo della lingua e della terminologia sono compresi nella cerchia più interna: in qualche modo, sono "banali", nel senso che vanno dati per scontati e acquisiti. Anche l'annosa questione dei cosiddetti "linguaggi controllati" va considerata ormai una questione "di retroguardia": non è lì che si vince la battaglia della modernità.

Specialmente nell'era degli LLM e della AI Generativa, LA STRUTTURA delle informazioni (e in questo senso, standard tecnici come DITA e S1000D possono avere un ruolo dominante) e le meta-informazioni associate (il TAGGING), sono la base da cui partire per definire il dominio delle informazioni associate al prodotto.

Nel definire "l'Ingegneria dei Contenuti" i CCMS, gli LMS e i CAT Tools vi aiutano a gestire le varie fasi del processo e a "tenere insieme le cose" ma da soli non risolvono il problema: siete voi che dovete definire le relazioni che "legano" i vostri contenuti. 

E se sarete in grado di farlo, l'AI vi potrà aiutare ulteriormente a far emergere relazioni "implicite" nella vostra architettura. Con l'AI potete anche velocizzare la fase di TAGGING, ma la vostra supervisione e la padronanzadegli strumenti non è sostituibile.


FUTURE & INNOVATION

Qui arriviamo nel dominio dell'AI, dei Knowledge Graphs, dei Chatbot. 

Tutta roba che fallirà miseramente se non avete fatto "i compiti a casa", cioè se non avete costruito un Ingegneria dei Contenuti solida. Tutti i "fuffa Guru dell'AI", che trovate su Linkedin e che vi promettono soluzioni miracolose, vi stanno mentendo. Come faccio a dirlo?

  1. Perchè sulla gestione e costruzione dei contenuti ne so più di loro.
  2. Perchè io non vi devo vendere nessuna soluzione miracolosa.
  3. Perchè quando vi descrivono la loro soluzione miracolosa, non fanno cenno alla "fatica" che bisogna fare per definire una corretta gestione dei contenuti.
E "il percorso della fatica" è proprio quello che vedete visualizzato nel diagramma: dalla cerchia più interna a quella più esterna.

Il Gatto e la Volpe dell'AI vogliono convicervi a sotterrare le vostre monete d'oro nel Campo dei Miracoli: ma voi potete evitare di fare i Pinocchi.

I consulenti bravi sono quelli che verrano nella vostra azienda e prima di proporvi una soluzione AI-based, studieranno i vostri contenuti e metteranno in evidenza tutti i punti deboli e i difetti che possono essere corretti, proprio attraverso "il percorso della fatica": perchè a questo mondo non esistono pasti gratis. Poi, quando avranno messo in ordine i contenuti, li daranno in pasto all'AI e in quel caso si potranno avere risultati davvero utili.

Prima dell'AI, ci sono i dati di cui l'AI si nutre: dovete assumere la governance dei vostri dati. 

Declinando questo concetto nel campo della Comunicazione Tecnica, significa sviluppare tutte le competenze ed utilizzare tutti gli strumenti indicati nel diagramma... e forse anche qualcosa che nel diagramma non ha trovato posto.

---

Detto questo, ancora un grazie a Steev per lo spunto.

E in quanto a voi, quante delle competenze presenti nel diagramma ritenete di possedere?
Può essere un modo interessante per fare un rapido auto-test e iniziare l'anno col piede giusto.

E quindi... un grande 2026 per tutti voi!


Leggi questo articolo...

martedì 23 dicembre 2025

Vi segnalo la rivista STANDARD

Un breve messaggio di servizio per tutti coloro che sono sensibili all'osservanza degli standard (e coloro che non lo sono, farebbero bene a cambiare idea): la UNI pubblica STANDARD, una rivista che vi tiene aggiornati sull'evoluzione della normazione in diversi campi.

In particolare, nel numero di Dicembre, vi segnalo un articolo di Valentina Grazia Sapuppo sull'AI Act.

Valentina ormai è uno dei miei maggiori punti di riferimento nell'ambito della normazione e vi consiglio di seguirla, perchè i suoi contenuti sono sempre brillanti e "densi" di spunti che vi possono aprire una nuova visuale.

Leggi questo articolo...

venerdì 17 ottobre 2025

La Single Information Platform sull'AI Act

Voglio ringraziare Andrea Broglia per aver segnalato questa piattaforma che la Commissione Europea ha appena lanciato: la Single Information Platform sull'AI Act.

Qui potete trovare degli utili strumenti per orientarvi all'interno dell'AI Act.

Nei mesi scorsi ho scritto una serie di articoli sul tema, con un particolare focus sugli obblighi di documentazione tecnica che le aziende devono affrontare quando adottano l'AI all'interno dei loro servizi e prodotti.

E mi sono espresso chiaramente sulla difficoltà di "navigare" tra i principi dell'AI Act, che è il primo regolamento al mondo (ma molti altri si sono aggiunti in seguito) che ha cercato di definire delle regole d'ingaggio per l'adozione di una tecnologia sicuramente potente e quindi rischiosa.

Questa piattaforma può essere un aiuto prezioso.

Ad esempio, andando nelle FAQ, potete isolare tutti i principali aspetti che possono riguardare il termine "documentation":


Poi potete usare l'AI Act Explorer (anche in Italiano), uno strumento che permette di navigare il testo per capitoli e allegati.

E' disponibile anche un Compliance Checker (in versione beta) che non sostituisce il lavoro di uno studio legale. ma vi può dare una prima idea di quanto le vostre inziative siano conformi all'AI Act.

In generale, uno strumento utile per prendere confidenza con una materia non semplice, ma che col passare del tempo imporrà obblighi sempre più cogenti.

Nel frattempo, aspettiamo gli standard armonizzati.

A presto.

Leggi questo articolo...

lunedì 14 luglio 2025

The General-Purpose AI Code of Practice

La Commissione europea ha ricevuto ufficialmente il Codice di Condotta Generale sull'Intelligenza Artificiale

Il quadro completo, sviluppato attraverso un processo multi-stakeholder che ha coinvolto quasi 1.000 partecipanti, stabilisce linee guida volontarie per i fornitori di modelli di intelligenza artificiale (AI) in vista dei requisiti di conformità obbligatori che entreranno in vigore il 2 agosto 2025.

E' un primo step, in attesa degli standard armonizzati, per capire come orientarsi.

E' un codice di adoziona volontaria, esattamente come gli standard ISO già presenti e disponibili.

Qui e qui altri 2 link sullo stesso tema, ma che approcciano il tema con un angolo diverso.

Come sapete, ho iniziato di analizzare l'EU AI Act dal punto di vista degli obblighi di documentazione tecnica che il regolamento impone, e non vi ho nascosto la mia opinione su alcune criticità (qui l'ultimo post sull'analisi dell'allegato IV).

Ora mi prendo il tempo di leggere le raccomandazioni indicate in questo Codice di Condotta e poi ne parleremo ancora.

Aldilà delle manovre che tenderebbero a ritardare l'applicazione dell'AI Act, ad oggi è quanto di meglio abbiamo per tentare di governare una rivoluzione tecnologica densa di potenzialità ma anche di insidie.

Non fatevi prendere in giro dai "fuffa-marketer" che prefigurano un futuro in cui l'AI risolverà ogni problema "auto-magicamente". 

Bisognerà valutare ogni passaggio con attenzione, non esistono pasti gratis in natura, e nemmeno in questo caso.

A presto.

Leggi questo articolo...

mercoledì 11 giugno 2025

Mai smettere di imparare: ho fatto un corso su S1000D

Mi sono preso due giorni di ferie e ho chiesto al mio amico Antonio Murro di poter fare un corso su S1000D presso SeTeL.


Antonio mi ha affidato alla straordinaria competenza di Barbara Predonzani, una delle sue collaboratrici più brillanti ed esperte di S1000D.

Barbara mi ha condotto con efficacia e in profondità negli aspetti fondamentali di uno standard largamente utilizzato per scrivere documentazione tecnica in ambito navale, ferroviario, ed aereonautico.

Io ho lavorato per quasi 4 anni in IBM con lo standard DITA, che per alcuni versi ha molti punti in comune con S1000D. Questo mi ha aiutato nella comprensione della struttura di S1000D e del processo di definizione dei Data Module. Ma Barbara è stata estremamente chiara anche nell'illustrare gli aspetti più complessi dello standard.

Chi volesse approfondire la specifica S1000D, può seguire questo link.

S1000D è un sistema internazionale di specifiche per la creazione, gestione e distribuzione di documentazione tecnica e mira a migliorare l'efficienza, la coerenza e la riutilizzabilità delle informazioni tecniche.

Di seguito, le sue principali caratteristiche:

  • Standard aperto: Favorisce l'adozione e la collaborazione tra diverse organizzazioni.
  • Struttura modulare: Consente la creazione di contenuti riutilizzabili e facilmente aggiornabili. Le informazioni sono suddivise in unità chiamate Data Modules, che rappresentano le unità di contenuto riutilizzabile.
  • XML: Le pubblicazioni sono basate su XML, che permette una gestione flessibile, interoperabile e facilmente aggiornabile delle informazioni.
  • XML Schema Definition (XSD): Ogni Data Module, per essere validato, deve rispettare le regole e la struttura definite nell'XSD.
  • eXtensible Stylesheet Language Transformation (XSLT): Definisce le regole di visualizzazione da applicare al Data Module.
  • Gestione centralizzata: Supporta sistemi di gestione delle informazioni che facilitano l'aggiornamento e la distribuzione delle pubblicazioni.
  • Output multi-canale: Può generare documentazione in vari formati, come PDF, HTML, eBook, ecc.
  • Versioning e controllo delle revisioni: Include meccanismi per tracciare le revisioni e garantire che le informazioni siano aggiornate e coerenti.
  • Interoperabilità: Progettato per integrarsi con altri sistemi di gestione delle informazioni e di manutenzione.

E come si dice ... never stop learning... because life never stops teaching!



Leggi questo articolo...

lunedì 9 giugno 2025

EU AI Act: consultazione pubblica per la definizione delle regole inerenti ai sistemi AI ad altro rischio

Ci sono molti aspetti critici inerenti alla documentazione tecnica che deve accompagnare i sistemi AI ad alto rischio. Tra i diversi articoli che vi ho proposto fino ad ora, il primo lo trovate qui, e l'ultimo qui.

Di fatto, ho interrotto la mia analisi (che riprenderò presto) perchè man mano che procedevo mi rendevo conto di alcuni nodi difficili da sciogliere.

Come già spiegato nel primo articolo, dobbiamo aspettare la definizione degli standard armonizzati per sapere COME implementare i principi indicati nell'EU AI Act (che prescrive il COSA va fatto).

Mi risulta che ci sia qualche difficoltà nella definizione di questi standard armonizzati e la data inizialmente ipotizzata (Agosto-Settembre 2025) potrebbe "scivolare" in avanti.

Questo non deve stupire: la materia è concettualmente molto potente, con dei passaggi veramente complessi da risolvere nel momento in cui si deve passare dal COSA al COME. In paralleo, ci sono forti interessi che spingono in direzioni diverse.

Del resto, l'argomento AI invade ogni giorno la nostra agenda e, al netto dell'hype alimentato dal marketing, è indubbio che siamo dentro una rivoluzione che sarebbe bene poter gestire e non subire passivamente.

Proprio per tale motivo, ora potete partecipare ad una consultazione pubblica relativa alla definizione delle regole espresse nell'AI Act in merito ai sistemi AI ad alto rischio.

Se andate su questo link trovate tutte le informazioni per partecipare.

Tenete presente che l'AI Act definisce 6 ruoli sui quali insistono le diverse obbligazioni:

  • Provider
  • Deployer
  • Distributor
  • Importer
  • Authorized Representative
  • Consumer

Dal punto di vista degli obblighi inerenti alla documentazione tecnica, le figure più coinvolte sono il Provider, il Deployer, il Distributor e l'Importer.

Prossimamente, un post sull'argomento.

A presto.

Leggi questo articolo...

mercoledì 28 maggio 2025

The Double D(avide) format: quello che dovreste sapere...

Ieri ho assistito alla diretta Youtube organizzata da because.

In questo evento Davide Bin ha intervistato Davide Osta (da qui il titolo del post) in merito al suo ultimo libro: 

Manuali a norma per il mercato estero: quanti rischi con le agenzie di traduzione?

Davide Osta ha messo in luce tutta una serie di scabrose e ben note verità (quanto meno ben note “a chi è del mestiere”), che però le associazioni professionali si guardano bene dall’evidenziare e far emergere, per motivi abbastanza discutibili, nella maggior parte dei casi. 

Fra le tante, magistrale la citazione relativa alla COM&TEC che mi riguardava direttamente: il VP indebitamente allontanato e poi riammesso con relative pubbliche scuse ero io.

Ma al netto di questo irrilevante dettaglio autobiografico, vi invito a guardare le registrazione dell’evento.

Se fate parte del nostro contesto professionale, vi riconoscerete senza sforzo in molte delle dinamiche illustrate.

Ma c’è comunque da imparare.

Oggi siamo tutti immersi in un hype “fuffa-marketing driven” su tutte le tematiche relative alla AI generativa. Ovviamente c’è un motivo: la distanza fra i risultati verificati sul campo e i faraonici investimenti che vengono fatti da almeno 4 anni in questo settore, sta diventando sempre più devastante. 

Per chi ha investito miliardi di dollari in un giocattolo così potente, in assenza di un solido modello di business (andatevi a leggere i dati sul rosso in bilancio di alcuni dei maggiori AI player), l’unica possibiltà è rilanciare.

OKKIO! Non sto dicendo che l’AGI non vale niente, non serve o non possa essere utilmente utilizzata. Sto dicendo che vi stanno vendendo soluzioni “miracolistiche” o “a costo zero”, mentre la realtà è un’altra: l’AI generativa può fornire un boost non banale nella vostra logica di business.

Ma dovrete affrontare tutta una serie di passaggi, non gratuiti e non semplicemente delegabili a terzi. Dovrete far crescere la qualità intrinseca dei vostri processi aziendali. Perchè a questo mondo non esistono pasti gratis. E vi dovrete affidare a chi “conosce il mestiere”. 

Ed è proprio il senso che Davide Osta ha fatto emergere, grazie anche alle acuminate domande dell’altro Davide.

P.S.

Ho partecipato anche io a questo ciclo di eventi. Qui potete vedere la registrazione in cui con Davide Osta abbiamo provato a fornire una bussola sugli obblighi di documentazione tecnica relative all’AI Act.


Leggi questo articolo...

domenica 16 marzo 2025

Impatto dell'AI Act sulla documentazione di processi/servizi/prodotti AI-based: analisi dell'Allegato IV (parte seconda)

Andiamo avanti nell'analisi dell'Allegato IV dell'AI Act.

Ricordiamo che l'Art. 11 è uno degli articoli fondamentali dell'AI Act per quanto riguarda la documentazione tecnica che deve essere redatta per accompagnare un prodotto che integra un sistema AI ad alto rischio, ma l'Art. 11 è, di fatto, un articolo "contenitore" che rimanda all'Allegato IV.

Nel post precedente abbiamo parlato del IV.2, una delle sezioni più critiche dell'Allegato IV.

Ora fissiamo l'attenzione sul IV.3.

IV.3

Detailed information about the monitoring, functioning and control of the AI system, in particular with regard to: its capabilities and limitations in performance, including the degrees of accuracy for specific persons or groups of persons on which the system is intended to be used and the overall expected level of accuracy in relation to its intended purpose; the foreseeable unintended outcomes and sources of risks to health and safety, fundamental rights and discrimination in view of the intended purpose of the AI system; the human oversight measures needed in accordance with Article 14, including the technical measures put in place to facilitate the interpretation of the outputs of AI systems by the deployers; specifications on input data, as appropriate

E' una prescrizione molto impegnativa.

Proviamo a tirare fuori "il succo".

Detailed information about the monitoring, functioning and control of the AI system

Di quale "livello di dettaglio" stiamo parlando?

Facciamo un esempio e parliamo di una soluzione basata sul Machine Learning: cosa dobbiamo dettagliare?

I dati che diamo in pasto al motore di ML? O "la struttura dei dati"? A volte i dati si acquistano da aziende che li raccolgono e li compongono nei modi più opportuni per determinati usi. Nei contratti d'acquisto dei dati ci sono anche dei vincoli di riservatezza rispetto alla loro divulgazione.

Quindi, il "livello di dettaglio" dovrebbe intendersi come il livello "intrinsecamente consentito" dai contratti di fornitura dei dati... O NO?

Oppure, oltre ai dati, dobbiamo documentare anche gli strumenti (ad esempio, le API) che utilizziamo per accedere ai dati?

Oppure dobbiamo documentare in che modo li persistiamo nel sistema che dovrà utilizzarli?

E se i dati sono acquisiti in tempo reale, attraverso un flusso continuo, da sistemi esterni?

E in tutto questo, dovremo eventualmente tener conto di ciò che prescrive il Data Act?

Vedete quante domande, solo inerentemente AD UN SINGOLO ASPETTO (i dati in ingresso) di una particolare soluzione di AI, il ML?

...for specific persons or groups of persons on which the system is intended to be used and the overall expected level of accuracy in relation to its intended purpose...

Qui invece la risposta è semplice: lo standard ISO 26514 ci fornisce i principi di Audience & Task Analysis (clause 6.2), che possiamo utilizzare a supporto di questa attività.

...the foreseeable unintended outcomes and sources of risks to health and safety, fundamental rights and discrimination in view of the intended purpose of the AI system

Questo passaggio suona abbastanza simile al concetto di "rischio ragionevolmente prevedibile" per un sistema di AI (già ben noto, ad esempio, nella vecchia Direttiva Macchine). Ma anche qui, come va declinato il concetto di "intended purpose"?

Posso definire la "finalità prevista", ma posso assicurare che si mantenga tale per tutto il ciclo di vita del prodotto che ospita il sistema AI?

Immaginiamo una rete stradale, gestita da un sistema di semafori programmabili ed intelligenti, che possono auto-modificare la programmazione semaforica in base ai dati di traffico, con un sistema AI integrato che prende decisioni autonome "imparando" dai dati di traffico.

In questo caso, se la descrizione della "finalità prevista" dovesse includere (perchè devo fornire informazioni "dettagliate"... ricordate il primo capoverso?) anche la descrizione dei piani semaforici, è evidente che tali informazioni sarebbero valide SOLO ALL'INIZIO della messa in produzione del sistema. 

Nel "day-by-day", i piani semaforici potrebbero cambiare.

A quel punto che facciamo? Alleghiamo alla documentazione, giorno per giorno, i piani semaforici via via aggiornati dall'AI? E' una soluzione ragionevole? In base alla prescrizione dell'Art. 72.2, sembrerebbe proprio questa la soluzione. 

72.2 

The post-market monitoring system shall actively and systematically collect, document and analyse relevant data which may be provided by deployers or which may be collected through other sources on the performance of high-risk AI systems ...

Come vedete, ogni passaggio necessita di attente valutazioni.

...the human oversight measures needed in accordance with Article 14, including the technical measures put in place to facilitate the interpretation of the outputs of AI systems by the deployers; specifications on input data, as appropriate

E qui un altro passaggio fondamentale: le misure di supervisione umana, in accordo all'Art. 14.

Il concetto generale è abbastanza "gassoso": l'attività di supervisione umana è sicuramente necessaria ma occorrono criteri più "solidi" per poter disegnare questa attività. Nella stessa prescrizione è presente un'indicazione più precisa: including the technical measures put in place to facilitate the interpretation of the outputs of AI systems by the deployers

Quindi si presuppone che vi siano "misure tecniche" in grado di "visualizzare" l'output del sistema AI e che possa abilitare "opportune azioni di controllo"? Questo è di fatto quanto definito proprio nell'Art. 14.

Come vedete, la complessità di questo IV.3 non è di molto inferiore al IV.2.

Pezzo per pezzo, cerchiamo di capire tutte gli aspetti che devono essere indirizzati per i nostri scopi.

Ma ribadisco: chi si sta occupando di definire gli standard armonizzati, deve fare un lavoro ENORME per dare la ricetta del COME vanno indirizzati tutti questi vincoli.


Leggi questo articolo...

domenica 2 marzo 2025

Impatto dell'AI Act sulla documentazione di processi/servizi/prodotti AI-based: analisi dell'Allegato IV (parte prima)

Nel post del 9 Febbraio vi ho proposto il testo integrale dell'Allegato IV.

Ora provo a far emergere alcuni passaggi chiave, trascurando i passaggi più ovvi e sottolineando anche alcune "disordinate ridondanze", che di certo non aiutano la comprensione del lettore.

Nell'Allegato IV ci sono 9 articoli.

  • IV.1 - Riguarda il "primo livello" di documentazione da associare al sistema AI ad alto rischio che vogliamo integrare nel nostro processo/servizio/prodotto
  • IV.2 - Riguarda un "secondo livello" di documentazione, molto più dettagliato.
  • IV.3 - Riguarda la documentazione delle attività di monitoring inerenti al sistema AI, anche in relazione a quanto stabilito dall'Articolo 14 (di cui ancora non abbiamo parlato).
  • IV.4 - Riguarda la documentazione delle metriche di performance del sistema di AI.
  • IV.5 - Riguarda la documentazione del sistema di gestione dei rischi associato al sistema AI.
  • IV.6 - Riguarda la documentazione delle modifiche implementate dal fornitore del sistema AI durante il suo ciclo di vita.
  • IV.7 - Riguarda l'elenco delle norme armonizzate applicate in tutto o in parte i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea; se non sono state applicate tali norme armonizzate, una descrizione dettagliata delle soluzioni adottate per soddisfare i requisiti di cui al capitolo III, sezione 2, compreso un elenco di altre norme e specifiche tecniche pertinenti applicate.
  • IV.8 - Riguarda la copia (che immagino vada inteso come allegato) della dichiarazione di conformità UE indicata nell'artcolo 47.
  • IV.9 - Riguarda una descrizione dettagliata per valutare le prestazioni del sistema di IA nella fase successiva all'immissione sul mercato, in conformità all'articolo 72, compreso il piano di monitoraggio 72.3.

AVETE CAPITO BENE?

Allora, proviamo a procedere con quel sano senso di pragmatismo che mi è congeniale.

LA ROBA FACILE (quella che si capisce ed è abbastanza semplice da fare)

Direi sicuramente l'articolo IV.1 (anche se il IV.1.g ed il IV.1.h sono inerenti allo stesso concetto e mi sembra che qui il legislatore sia incorso in un'inutile ridondanza che potrà essere emendata in futuro).

Anche gli articoli IV.5, IV.6, IV.7 e IV.8 sono abbastanza chiari rispetto al COSA DEVO FARE e si possono indirizzare abbastanza agevolmente, a patto di disporre di processi e metodologie collaudati.

LA ROBA DIFFICILE (che si capisce poco o che può essere affrontata con grandi difficoltà)

Calma e gesso, e procediamo punto per punto.

IV.2

Iniziamo con il IV.2.a ed il IV.2.b, citando il testo originale integrale:

  • (a) the methods and steps performed for the development of the AI system, including, where relevant, recourse to pre-trained systems or tools provided by third parties and how those were used, integrated or modified by the provider;
  • (b) the design specifications of the system, namely the general logic of the AI system and of the algorithms; the key design choices including the rationale and assumptions made, including with regard to persons or groups of persons in respect of who, the system is intended to be used; the main classification choices; what the system is designed to optimise for, and the relevance of the different parameters; the description of the expected output and output quality of the system; the decisions about any possible trade-off made regarding the technical solutions adopted to comply with the requirements set out in Chapter III, Section 2;

Stiamo scherzando vero?

Cioè se io voglio integrare nel mio prodotto un sistema AI ad alto rischio, il fornitore a cui mi rivolgo mi deve fornire informazioni che, sostanzialmente, sono informazioni DI PROGETTAZIONE del sistema AI? Quindi il fornitore deve investire per produrre un sistema AI e poi deve rivelare al mondo TUTTI I DETTAGLI di progettazione del sistema?

Allora, questi 2 articoli significano solo una cosa: che il sistema AI che voglio integrare DEVE ESSERE un sistema Open Source. Perchè, in caso contrario, mi risulta molto difficile immaginare di poter applicare le suddette prescrizioni. 

Se qualcuno non è d'accordo, accetto obiezioni.

Peraltro c'è un passaggio specifico molto "criptico": the decisions about any possible trade-off made regarding the technical solutions adopted to comply with the requirements set out in Chapter III, Section 2;

Cosa si intende per "any possible trade-off"? A me non è chiaro. Ma andiamo avanti.

Per quanto riguarda IV.2.c e IV.2.d:

  • (c) the description of the system architecture explaining how software components build on or feed into each other and integrate into the overall processing; the computational resources used to develop, train, test and validate the AI system;
  • (d) where relevant, the data requirements in terms of datasheets describing the training methodologies and techniques and the training data sets used, including a general description of these data sets, information about their provenance, scope and main characteristics; how the data was obtained and selected; labelling procedures (e.g. for supervised learning), data cleaning methodologies (e.g. outliers detection);

..siamo in un ambito più gestibile, perchè se parliamo dell'architettura generale del sistema, dei dati usati per il training, della loro provenienza e delle metodologie di training e data cleaning, siamo dentro un perimetro metodologico che va documentato e tale richiesta è da ritenersi del tutto logica.

L'unico punto realmente "oscuro" si racchiude in una parolina apparentemente innocua: "test"!

the computational resources used to develop, train, test and validate the AI system;

Ad oggi, non esistono metodologie standardizzate e tanto meno "scientifiche" per il test di un sistema AI.

Questo dato è ben noto a tutti coloro che almeno una volta nella vita hanno progettato un chatbot basato sulla AI generativa.

In ogni punto dell'AI Act in cui troverete delle prescrizioni relative "al test del sistema AI", sappiate che state per aprire il vaso di Pandora.

Se dovessi fare una richiesta pressante a coloro che scriveranno gli standard armonizzati a sostegno dell'AI Act, direi che questo punto dovrebbe essere in cima alla lista.

Nessun sistema AI, e sottolineo NESSUNO, può essere testato con i criteri che applichiamo oggi al test dei prodotti software. E questo accade per 2 motivi banali:

  1. Il comportamento di un sistema AI (di QUALSIASI sistema AI) dipende dai dati che gli vengono forniti in ingresso, e la dipendenza è NON DETERMINISTICA.
  2. Un sistema AI può imparare e quindi, a distanza di tempo, lo stesso input può produrre risultati diversi.

Rispolverando i miei studi di Ingegneria, il punto 1 potrebbe essere riformulato dicendo che la funzione di trasferimento di un sistema AI è variabile e la sua variabilità è non nota. Mentre il punto 2 è una caratteristica intrinseca e molto desiderabile di un sistema AI.

Ad oggi, nell'ambito del gruppo degli standard dell'area ISO 42000, il cui capostipite è lo standard 42001, è in via di sviluppo uno standard specifico per il test dei sistemi AI-based. Ma ad oggi, testare un sistema AI è un'attività empirica, che si basa su alcune best practice; tuttavia, non disponiamo ancora di nessuno standard.

A mio avviso, anche il IV.2.e (legato agli articoli 13 e 14, di cui parleremo nei prossimi giorni) è associabile all'attività di test del sistema, quando esplicitamente viene indicato:

including an assessment of the technical measures needed to facilitate the interpretation of the outputs of AI systems

Ma è l'articolo IV.2.g che è quello ESPLICITAMENTE dedicato all'attività di test:

  • (g) the validation and testing procedures used, including information about the validation and testing data used and their main characteristics; metrics used to measure accuracy, robustness and compliance with other relevant requirements set out in Chapter III, Section 2, as well as potentially discriminatory impacts; test logs and all test reports dated and signed by the responsible persons, including with regard to pre-determined changes as referred to under point (f);

Come vedete, anche questo articolo non è nemmeno lontanamente risolutivo rispetto all'esigenza di un'azienda nel determinare il COME DEVO FARLO, ma indica solo il COSA DEVO FARE.

Peraltro, anche in modo abbastanza ridondante e confuso, visto che l'argometno "test" viene declinato in maniera diretta o indiretta attraverso IV.2.cIV.2.d, IV.2.e, e soprattutto IV.2.g.

Infine, il IV.2.f che richiama i contenuti del IV.7 (anche qui, caro legislatore, siamo certi che non si potesse fare uno sforzo di maggiore chiarezza?):

  • (f) where applicable, a detailed description of pre-determined changes to the AI system and its performance, together with all the relevant information related to the technical solutions adopted to ensure continuous compliance of the AI system with the relevant requirements set out in Chapter III, Section 2;

Un articolo che inizia con un cauto where applicable mette già in conto che certe prescrizioni non siano applicabili. Poi, vorrei essere rassicurato sul significato di questa frase:

to ensure continuous compliance of the AI system with the relevant requirements set out in Chapter III, Section 2;

Abbiamo detto che i sistemi AI, per loro natura, possono variare il proprio comportamento nel tempo, perchè sono "sistemi che imparano".

Quindi, posso forse garantire che il mio sistema abbia certe caratteristiche ORA ma faccio fatica a immaginare come poter esprimere la stessa garanzia nel futuro. Infatti, per questo motivo esiste l'attività di risk management, monitoring e controllo in fase di produzione, e armonizzazione (IV.3, IV.5, IV.6, e IV.7). 

Quindi perchè puntualizzare ancora questo elemento nel IV.2.f, salvo poi premettere un where applicable?

Come vi avevo scritto nel post del 9 Febbraio, l'Allegato IV non aveva risolto i miei dubbi che erano stati sollevati dalla lettura dell'Art. 11. 

E spero di avervi mostrato in questo post quanto meno i punti meno chiari del IV.2, che è una delle sezioni chiave dell'Allegato IV.

Il viaggio nell'AI Act non è finito, alla prossima tappa.

Leggi questo articolo...

lunedì 24 febbraio 2025

Un articolo illuminante sull'AI Act e sugli standard armonizzati associati

Vi segnalo questo articolo di Piercosma Bisconti Lucidi e Daniele Nardi, che mette in luce alcune criticità dell'AI Act.

Come sa chi mi segue, sto analizzando l'AI Act dal punto di vista degli obblighi di produzione della documentazione tecnica che dovrà accompagnare i prodotti che integrano, al loro interno, sistemi AI.

Le mie prime perplessità sono confermate da questo articolo.

A presto per analizzare nei dettagli l'Allegato IV.


Leggi questo articolo...