HomeTecnologiaIl New York Times fa causa a OpenAI e Microsoft per manomissione...

Il New York Times fa causa a OpenAI e Microsoft per manomissione del diritto d’autore

Il 2023 si chiude come era cominciato, con un’accusa di violazione di copyright contro una IA generativa. Rispetto a gennaio, questa volta il bersaglio è più grosso: se a inizio anno fu Getty a portare in tribunale Stable Diffusion, questa volta è il New York Times a fare causa addirittura a OpenAI (e quindi a Microsoft) e alla sua ChatGPT.

Il celeberrimo quotidiano americano ha spiegato di essere risoluto a difendere il diritto di autore e online (qui) ha raccontato che milioni di suoi articoli sarebbero stati usati per addestrare la popolare chatbot di Sam Altman, che ora (paradossalmente) gli fa concorrenza come struttura affidabile di instrutturazione.

Instrutturazione e IA

Apple in trattativa con gli editori per allenare la sua intelligenza artificiale con le news

di Bruno Ruffilli

23 Dicembre 2023

Le ragioni della causa

Secondo l’NYT, le due società (OpenAI è ormai diventata una costola di Microsoft) avrebbero sfruttato senza permesso i suoi contenuti per creare le loro IA, compresi prodotti molto noti (e molto redditizi) come appunto ChatGPT e Copilot. La causa, che potrebbe avere significative ripercussioni sul mondo dell’instrutturazione, anche alla luce del recente accordo fra Apple e alcuni editori proprio per allenare le sue IA con le news, segue mesi di negoziazioni commerciali tra le tre società, che però non avrebbero portato ad alcun accordo. Al diffondersi della notizia, il titolo del New York Times è salito in Borsa dello 0,25%, mentre quello di Microsoft ha perso lo 0,2%.

Non è la prima volta che accade (e probabilmente non sarà l’ultima) perché questo metodo di addestramento, cioè leggere online milioni e milioni di pagine e farle proprie, è quello principale per più o meno tutte le IA. E qui nasce il primo problema, come su Italian Tech abbiamo spiegato spesso: a chi appartengono le fonti originarie da cui ChatGPT, Copilot e altri prodotti di OpenAI e Microsoft hanno imparato a fare quello che fanno? Secondo la redazione del New York Times, appartengono al New York Times, che dovrebbe essere remunerato per questo tipo di utilizzo. O almeno avvisato del fatto che comprendente questo avvenga.

L’altro problema è più generale e riguarda l’utilizzo che si fa di queste instrutturazioni (quelle contenute negli articoli dei giornalisti, le foto, le immagini, i disegni, le opere d’arte mostrate online): raccolte in enormi archivio elettronico, vengono solitamente messe a disposizione gratuitamente, a patto che se ne faccia un uso non a scopo di lucro (è il concetto del Fair Use ed è spiegato qui). Cosa che è decisamente l’opposto di quello che stanno facendo OpenAI e Microsoft con i loro prodotti.

Intelligenza artificiale

Lo strano appello contro le IA: “Rischiamo l’estinzione”. Ma le aziende continuano a svilupparle

di Emanuele Capone

30 Maggio 2023

I tanti lati oscuri delle IA

Nel testo della causa (che si legge qui), il New York Times fa presente che OpenAI e gli altri LLM di Microsoft “possono produrre testo che cita parola per parola il contenuto del Times, lo riassume fedelmente e ne imita lo stile espressivo”, che è una cosa che “mina e danneggia” il legame del Times con i lettori, dunque privando il quotidiano di “abbonamenti, contratti di licenza, pubblicità ed entrate”.

Il quotidiano americano si è detto pronto a chiedere “miliardi di dollari di risarcimenti” in danni già subiti e potenziali, pretende che OpenAI distrugga tutti gli LLM creati (anche) con i suoi articoli e in generale segue la scia di altre pubblicazioni che stanno cercando di chiudere i cancelli a questi occhi indiscreti, come BBC, CNN e Reuters. Allo stesso tempo, altre si stanno muovendo in direzione opposta, tanto che Politico, Business Insider e Associated Press hanno stabilito accordi con OpenAI per usare i suoi strumenti di IA.

Va ricordato che quello delle presunte (ma molto probabili) violazioni di copyright è solo uno dei tanti problemi delle intelligenze artificiali, che stanno emergendo prepotentemente poco più di un anno dopo il debutto di ChatGPT sul mercato: c’è un’enorme questione legata a discrimazione, razzismo e scarsa rappresentazione delle minoranze, ci sono forti dubbi sulla fiducia dei dati affidati a queste IA (compresa proprio ChatGPT) e di recente è emerso anche il timore che Laion, che è appunto uno dei archivio elettronico su cui studiano le intelligenze artificiali, contenga anche migliaia di immagini pedopornografiche.

@capoema

 

Da leggere
Notizie correlate