Abbiamo già visto che gli articoli 8,9 e 72 dell’AI Act (AIA) danno indicazioni importanti rispetto agli obblighi di produzione della documentazione tecnica che deve accompagnare un sistema AI ad alto rischio.
Riprendendo la parte finale del post precedente, sono emerse
le seguenti necessità:
- Produrre della documentazione specifica ed aggiuntiva relativa al sistema AI integrato nel nostto processo/servizio/prodotto.
- Produrre della documentazione d’integrazione laddove il sistema AI vada a modificare funzioni pre-esistenti (e quindi già documentate).
- Definire un sistema di valutazione dei rischi relativi all’integrazione del sistema AI e documentare il sistema stesso.
- Definire anche un sistema di analisi post-vendita per migliorare il sistema di valutazione dei rischi; la documentazione del sistema di monitoraggio post-vendita è parte integrante della documentazione indicata nell’allegato IV.
- Aggiornare il sistema di valutazione dei rischi lungo l’intero ciclo di vita del medesimo e, implicitamente, aggiornare la documentazione relativa.
- Definire quali sono i rischi “ragionevolmente”prevedibili e, qualora non eliminabili, fornire documentazione adatta alla eliminazione o mitigazione di questi rischi.
Queste indicazioni emergono all’interno di articoli che non sono specificamente dedicati alla documentazione tecnica, mentre oggi ci focalizziamo sull’articolo 11 che è il primo articolo dedicato “esplicitamente” a questo aspetto.
Per la formulazione esatta dell’Articolo 11, vi rimando
all’AIA.
Nell’articolo 11 si evidenzia, principalmente:
- Che la documentazione tecnica di processo/servizio/prodotto che integra un sistema AI ad alto rischio va definita prima di immettere sul mercato il suddetto processo/servizio/prodotto e va mantenuta costantemente aggiornata (11.1).
- Che i contenuti da inserire nella documentazione sono almeno tutti quelli indicati nell’Allegato IV e che le “Small-Medium Enterprises (SMEs)” possono adempiere a questo compito in un formato “semplificato”, che sarà stabilito dalla Commissione Europea (11.1).
- Se il sistema AI ad alto rischio viene integrato in una delle aree tecnologiche elencate nell’Allegato I, viene redatta un’unica documentazione tecnica contenente tutte le informazioni indicate in 11.1 nonchè la informazioni implicate dall’Allegato I (11.2).
- La Commissione Europea, in corrispondenza all’evoluzione tecnica, si riserva (vedi Articolo 97) di modificare l’Allegato IV ogni qualvolta sarà necessario (11.3).
Il legislatore mi perdonerà se sottolineo l’irritante “vaghezza”
di questo articolo.
In questa sede si stabiliscono i PRINCIPI GENERALI e dobbiamo
aspettare le linee guida e poi gli standard armonizzati.
Ma in questo articolo non c’è scritto veramente NULLA DI UTILE, che non sia men che ovvio. Mi sono sembrati molto più chiari gli articoli 8,9 e 72.
Ma andiamo a vedere cosa viene specificato nell’Allegato 4,
a cui l’articolo 11 rimanda.
ALLEGATO IV
Technical documentation referred to in Article 11(1)
The technical documentation referred to in Article 11(1)
shall contain at least the following information, as applicable to the relevant
AI system:
IV.1
- A general description of the AI system including:
- (a) its intended purpose, the name of the provider and the version of the system reflecting its relation to previous versions;
- (b) how the AI system interacts with, or can be used to interact with, hardware or software, including with other AI systems, that are not part of the AI system itself, where applicable;
- (c) the versions of relevant software or firmware, and any requirements related to version updates;
- (d) the description of all the forms in which the AI system is placed on the market or put into service, such as software packages embedded into hardware, downloads, or APIs;
- (e) the description of the hardware on which the AI system is intended to run;
- (f) where the AI system is a component of products, photographs or illustrations showing external features, the marking and internal layout of those products;
- (g) a basic description of the user-interface provided to the deployer;
- (h) instructions for use for the deployer, and a basic description of the user-interface provided to the deployer, where applicable;
IV.2
- A detailed description of the elements of the AI system and of the process for its development, including:
- (a) the methods and steps performed for the development of the AI system, including, where relevant, recourse to pre-trained systems or tools provided by third parties and how those were used, integrated or modified by the provider;
- (b) the design specifications of the system, namely the general logic of the AI system and of the algorithms; the key design choices including the rationale and assumptions made, including with regard to persons or groups of persons in respect of who, the system is intended to be used; the main classification choices; what the system is designed to optimise for, and the relevance of the different parameters; the description of the expected output and output quality of the system; the decisions about any possible trade-off made regarding the technical solutions adopted to comply with the requirements set out in Chapter III, Section 2;
- (c) the description of the system architecture explaining how software components build on or feed into each other and integrate into the overall processing; the computational resources used to develop, train, test and validate the AI system;
- (d) where relevant, the data requirements in terms of datasheets describing the training methodologies and techniques and the training data sets used, including a general description of these data sets, information about their provenance, scope and main characteristics; how the data was obtained and selected; labelling procedures (e.g. for supervised learning), data cleaning methodologies (e.g. outliers detection);
- (e) assessment of the human oversight measures needed in accordance with Article 14, including an assessment of the technical measures needed to facilitate the interpretation of the outputs of AI systems by the deployers, in accordance with Article 13(3), point (d);
- (f) where applicable, a detailed description of pre-determined changes to the AI system and its performance, together with all the relevant information related to the technical solutions adopted to ensure continuous compliance of the AI system with the relevant requirements set out in Chapter III, Section 2;
- (g) the validation and testing procedures used, including information about the validation and testing data used and their main characteristics; metrics used to measure accuracy, robustness and compliance with other relevant requirements set out in Chapter III, Section 2, as well as potentially discriminatory impacts; test logs and all test reports dated and signed by the responsible persons, including with regard to pre-determined changes as referred to under point (f);
- (h) cybersecurity measures put in place;
IV.3
Detailed information about the monitoring, functioning and
control of the AI system, in particular with regard to: its capabilities and
limitations in performance, including the degrees of accuracy for specific
persons or groups of persons on which the system is intended to be used and the
overall expected level of accuracy in relation to its intended purpose; the
foreseeable unintended outcomes and sources of risks to health and safety,
fundamental rights and discrimination in view of the intended purpose of the AI
system; the human oversight measures needed in accordance with Article 14,
including the technical measures put in place to facilitate the interpretation
of the outputs of AI systems by the deployers; specifications on input data, as
appropriate;
IV.4
A description of the appropriateness of the performance
metrics for the specific AI system;
IV.5
A detailed description of the risk management system in
accordance with Article 9;
IV.6
A description of relevant changes made by the provider to
the system through its lifecycle;
IV.7
A list of the harmonised standards applied in full or in
part the references of which have been published in the Official Journal of the
European Union; where no such harmonised standards have been applied, a
detailed description of the solutions adopted to meet the requirements set out
in Chapter III, Section 2, including a list of other relevant standards and
technical specifications applied;
IV.8
A copy of the EU declaration of conformity referred to in
Article 47;
IV.9
A detailed description of the system in place to evaluate
the AI system performance in the post-market phase in accordance with Article
72, including the post-market monitoring plan referred to in Article 72(3).
Avete la mia stessa sensazione?
L’Allegato 4 descrive TUTTO L’UNIVERSO della documentazione
tecnica possibile e immaginabile, per qualsiasi tipo di area tecnologica dove si
possa andare ad integrare un sistema di AI ad alto rischio.
Non credo che in futuro ci sarà un gran bisogno di modificare
l’Allegato 4, perchè già contiene una larga “fenomenologia” di tutte le esigenze
di documentazione tecnica ragionevolmente prevedibili.
A questo punto, vi rimando ai prossimi post per entrare un
poco più in profondità nell'Allegato 4.
E vi anticipo 2 notizie, una BUONA e una CATTIVA.
NOTIZIA BUONA
Per me e per i miei colleghi si annuncia un future roseo.
Aprire il “vaso di Pandora” dell’Allegato 4 e definire tutta la documentazione necessaria per integrare un sistema AI ad alto rischio in un processo/servizio/prodotto aziendale, sarà il nostro “pane e burro” per molti anni.
NOTIZIA CATTIVA
L’Allegato 4 non è, a sua volta, particolarmente chiaro per molti aspetti. Quindi se l'Articolo 11 era estremamente vago, la mia speranza di trovare ogni risposta nell'Allegato IV è andata in parte delusa.
Ma ne riparleremo presto.
Leggi questo articolo...