lunedì 9 giugno 2025

EU AI Act: consultazione pubblica per la definizione delle regole inerenti ai sistemi AI ad altro rischio

Ci sono molti aspetti critici inerenti alla documentazione tecnica che deve accompagnare i sistemi AI ad alto rischio. Tra i diversi articoli che vi ho proposto fino ad ora, il primo lo trovate qui, e l'ultimo qui.

Di fatto, ho interrotto la mia analisi (che riprenderò presto) perchè man mano che procedevo mi rendevo conto di alcuni nodi difficili da sciogliere.

Come già spiegato nel primo articolo, dobbiamo aspettare la definizione degli standard armonizzati per sapere COME implementare i principi indicati nell'EU AI Act (che prescrive il COSA va fatto).

Mi risulta che ci sia qualche difficoltà nella definizione di questi standard armonizzati e la data inizialmente ipotizzata (Agosto-Settembre 2025) potrebbe "scivolare" in avanti.

Questo non deve stupire: la materia è concettualmente molto potente, con dei passaggi veramente complessi da risolvere nel momento in cui si deve passare dal COSA al COME. In paralleo, ci sono forti interessi che spingono in direzioni diverse.

Del resto, l'argomento AI invade ogni giorno la nostra agenda e, al netto dell'hype alimentato dal marketing, è indubbio che siamo dentro una rivoluzione che sarebbe bene poter gestire e non subire passivamente.

Proprio per tale motivo, ora potete partecipare ad una consultazione pubblica relativa alla definizione delle regole espresse nell'AI Act in merito ai sistemi AI ad alto rischio.

Se andate su questo link trovate tutte le informazioni per partecipare.

Tenete presente che l'AI Act definisce 6 ruoli sui quali insistono le diverse obbligazioni:

  • Provider
  • Deployer
  • Distributor
  • Importer
  • Authorized Representative
  • Consumer

Dal punto di vista degli obblighi inerenti alla documentazione tecnica, le figure più coinvolte sono il Provider, il Deployer, il Distributor e l'Importer.

Prossimamente, un post sull'argomento.

A presto.

Nessun commento:

Posta un commento