(Teleborsa) - Si è svolta oggi, presso il
Senato della Repubblica (Commissioni 8a e 10a riunite), l’Audizione della
Fieg – rappresentata dal Consigliere incaricato per le relazioni sindacali,
Stefano De Alessandri, e dalla Responsabile dell’Area giuridica e internazionale,
Isabella Splendore – sul disegno di legge n.1146, in materia di intelligenza artificiale. Nel sottolineare il grande interesse suscitato dall’iniziativa italiana presso le associazioni europee di settore, come l’
Enpa - che ha prodotto un suo diretto contributo – il Consigliere De Alessandri si è soffermato sugli articoli 23 e 24 del Ddl, in materia di diritto d’autore, che rivestono maggior interesse per l’editoria giornalistica e d’informazione.
In particolare, sul nuovo obbligo di marchiatura che consentirebbe di identificare e riconoscere i c.d. deepfake - obbligo cui farebbero eccezione i programmi e le opere “
manifestamente creative” - la Fieg ha osservato come tale eccezione “introduce un elemento di incertezza giuridica, facendo presumere – con quel “manifestamente” - un innalzamento della soglia di creatività”. Enpa aggiunge che: “Per coerenza con il
diritto dell'UE, il riferimento al ‘manifestamente creativo’ dovrebbe essere sostituito da quello al ‘contenuto creativo soggetto a controllo editoriale e in cui una persona fisica o giuridica detiene la responsabilità editoriale della pubblicazione’.”
In merito all’articolo 24, la Fieg ha invitato, in sintonia con Enpa, a guardare con estrema cautela a “qualsiasi sviluppo normativo che cerchi di estendere le protezioni e i diritti esistenti anche alle opere generate con l'
IA”. Rilevato poi che il testo definitivo dell’articolo 24 risulta essere stato ampiamente rivisto, l’auspicio degli editori Fieg è che almeno vengano recuperati i
requisiti aggiuntivi presenti nelle precedenti versioni.
“Alcuni dei contributi circolati nei mesi precedenti all’approvazione del
disegno di legge – si legge nella nota Fieg - si proponevano di garantire più efficacemente sia la protezione dei contenuti editoriali da usi non autorizzati sia la loro
remunerazione. Si pensi, ad esempio: alla proposta di semplificare le modalità di esercizio dell’
opt-out, anche attraverso il ricorso a clausole di riserva analoghe a quelle già conosciute nel nostro ordinamento; all’invito ad incentivare il ricorso a modelli di licenza condivisi; agli obblighi di registrazione e identificazione delle fonti/contenuti utilizzati, sulla
falsariga delle disposizioni comunitarie; alle ipotesi di remunerazione per l’uso dei contenuti a fini di addestramento e training dei sistemi e modelli di IA, attraverso la possibilità del
riconoscimento di un equo compenso modulabile sulla base delle responsabilità e dei rischi connessi all’uso dei sistemi di
IA. Nessuno di questi aspetti sembra emergere chiaramente dal testo in esame.”
“È fondamentale che le protezioni sul
copyright siano adeguatamente applicate – conclude la Fieg - e che elevati standard di qualità e responsabilità siano il fondamento di queste e di altre nuove tecnologie.”