Gli editori e OpenAIcercano un accordoper l'uso degli articoli

Secondo Bloomberg Intelligence nel 2032 è un mercato da 1.300 mld di dollari

NEW YORK – Sono già 535 le società editoriali, tra cui il New York Times, Reuters e il Washington Post, che da inizio agosto hanno installato barriere digitali nei loro software. Il motivo? Impedire che i contenuti pubblicati vengano utilizzati per rendere ChatGPT più “intelligente”. Alle spalle c’è un importante accordo fra OpenAI e Associated Press del luglio 2023: una sorta di collaborazione, della durata di due anni, che prevede lo scambio di tecnologie e contenuti. Nel futuro, invece, ci saranno molti accordi da definire. La più recente? Arriva dalla News Media Alliance, associazione che rappresenta oltre 2.000 media company tra Stati Uniti e Canada. Lo scorso 30 ottobre è stato pubblicato «How the pervasive copying of expressive works to train and fuel generative artificial intelligence systems is copyright infringement and not a fair use», un white paper utilizzato rendere pubbliche – e dunque più chiare – le intenzioni e le necessità alla base dell’accordo.

Tra i temi c’è l’uso autorizzato dei contenuti

Nell’analisi, contenuta in 77 pagine, ci si concentra principalmente su tre temi. Tra tutti, la necessità di trasparenza da parte degli sviluppatori, a cui fa seguito la richiesta di combattere l’uso, spesso non autorizzato, di contenuti che arricchiscono i  “Large Language Models”, abilissimi algoritmi capaci di riconoscere, generare, riassumere e tradurre contenuti. Gli editori, infine, dovranno essere in grado di concedere l’uso autorizzato dei loro contenuti a condizioni eque, attraverso il riconoscimento del lavoro con citazioni e rimandi ai link delle notizie.

Un mercato da 1.300 miliardi di dollari

I gruppi editoriali tradizionali, per questo, potrebbero chiedere un compenso per l’utilizzo dei loro articoli, fondamentali nella formazione di questi sistemi di Intelligenza artificiale. In questo quadro va inserita la possibilità, per i media, di prendere in mano una fetta del mercato globale. Un mercato che secondo Bloomberg Intelligence potrebbe valere 1.300 miliardi di dollari nel 2032.

Complesso il tema del consenso individuale

Il dibattito, tuttavia, va al di là di una mera questione economica. Da una parte la richiesta di una giusta remunerazione per chi produce questi dati. Dall’altro lato, però, la prospettiva più difficile. I Large Language Models richiedono enormi quantità di dati, rendendo molto complesso il consenso e la remunerazione individuali.

Giulia Chiara Cortese

Cresciuta tra il Vesuvio e il mare, ora con il cuore diviso tra Napoli e Roma. Sono laureata in Lettere moderne alla Sapienza con una tesi in Filologia della Letteratura italiana. Inseguo da sempre il sogno di diventare una giornalista.