Le intelligenze artificiali per la generazione di immagini utilizzano massicci database di immagini raccolte dal web, molti dei quali contengono opere protette da copyright e caricate senza il consenso esplicito degli artisti. Quindi, non si tratta semplicemente di dati “pubblici” nel senso di opere di dominio pubblico o liberamente utilizzabili, ma di immagini spesso protette e usate senza autorizzazione.
La domanda se le intelligenze artificiali “rubino” immagini agli artisti non ha una risposta semplice e definitiva. La realtà è più sfumata e complessa di quanto possa sembrare inizialmente, e dipende da diversi fattori legali, tecnici ed etici che stanno ancora evolvendo attraverso le aule di tribunale di tutto il mondo.
- Le aziende di IA utilizzano spesso il termine “publicly available” (pubblicamente disponibile) per descrivere i dati utilizzati per l’addestramento dei loro modelli. Tuttavia, questo termine può essere fuorviante per diversi motivi:
- “Pubblicamente disponibile” non significa “dominio pubblico”. Molte immagini accessibili su internet sono ancora protette da copyright
- Il termine può suonare come se l’azienda avesse il permesso di utilizzare le informazioni, ma spesso significa semplicemente “non abbiamo violato illegalmente un sistema”
- Secondo Ed Newton-Rex, ex sviluppatore di Stability AI: “Se quel termine confonde le persone. È probabilmente progettato per confondere le persone”
Gli artisti sostengono che l’IA “rubi” le loro opere utilizzandole per creare contenuti concorrenti senza autorizzazione né compenso e moltissimi hanno protestato su piattaforme come ArtStation con la campagna “No AI Art”.
Le Battaglie Legali in Corso:
Vittorie e Sconfitte
Nel 2024, gli artisti hanno ottenuto importanti vittorie legali contro le aziende di IA.
Il giudice William Orrick ha stabilito che Stability AI, Midjourney, DeviantArt e Runway AI stavano violando i diritti degli artisti memorizzando illegalmente le loro opere nei sistemi di generazione di immagini. Il tribunale ha permesso di proseguire le accuse di violazione diretta del copyright e induzione alla violazione del copyright.
Le artiste Sarah Andersen, Kelly McKernan e Karla Ortiz hanno visto confermate le loro “argomentazioni plausibili” su come le loro opere siano state utilizzate illegalmente.
Tuttavia anche le aziende di AI hanno ottenuto importanti vittorie.
Nel giugno 2025, il giudice William Alsup ha stabilito che l’addestramento di AI su materiale coperto da copyright può essere fair use (utilizzato correttamente) se il materiale è stato acquisito legalmente.
Anthropic ha vinto una sentenza storica che stabilisce che l’addestramento dei suoi modelli Claude costituisce un uso “spettacolarmente trasformativo”. Il giudice ha paragonato l’addestramento dell’IA a “qualsiasi lettore che aspira a diventare scrittore”.
Inoltre l’IA che genera immagini é come quella che genera testi, ha bisogno di essere addestrata e quante più informazioni arrivano tanto più elevata sarà la qualità del prodotto. Tranne i casi in cui vengano utilizzati stili riconoscibili, (ad esempio il caso Miyazaki, che ha fatto scalpore, ma tanti altri come Pixar o Disney, per citarne di famosi), le immagini create dall’IA sono da ritenersi comunque originali, perché nascono da un addestramento continuo, basato però su un metodo (quello del reperimento immagini) che é in fase di discussione nei tribunali. Anche i criteri di creazione adesso funzionano molto meglio, infatti adesso è molto raro che un’immagine generata dall’IA crei un personaggio con tre gambe e mani assurde. Quindi l’addestramento funziona.

Conclusione:
Una Zona Grigia in Evoluzione
La risposta alla domanda se le intelligenze artificiali “rubino” davvero immagini agli artisti è, in tutta onestà, un grande e sonoro: dipende.
La verità è che ci muoviamo in un terreno legale ancora incerto, dove le sentenze cambiano da caso a caso e spesso si contraddicono tra loro. Alcune corti iniziano a riconoscere il diritto degli artisti a vedere tutelate le proprie opere, altre invece archiviano tutto con un’alzata di spalle, dichiarando che “tanto sono solo dati”.
Aziende come Stability AI (Stable Diffusion) e Midjourney hanno addestrato i loro modelli su dataset contenenti milioni di immagini prese da internet, comprese opere di illustratori, fotografi e artisti, senza chiedere il permesso né riconoscere compensi agli autori originali.
Alcuni studi scientifici hanno dimostrato che i modelli IA possono anche produrre copie molto simili o quasi identiche di immagini protette, rafforzando le accuse di appropriazione indebita.
In sintesi, le IA stanno usando immagini di artisti senza permesso, attingendo a grandi archivi di immagini reperite sul web, e non solo dati liberamente utilizzabili o di pubblico dominio. Questo fatto alimenta un acceso dibattito legale ed etico sul rispetto dei diritti degli autori e sulla necessità di regolamentazioni più chiare.
Nel frattempo, i legislatori si affannano a rincorrere l’innovazione, cercando di aggiornare norme pensate per un mondo analogico e adattarle a una realtà dove i confini tra ispirazione, rielaborazione e plagio sono sempre più sfumati. E come se non bastasse, ogni Paese interpreta la questione a modo suo.
Ciò che è considerato lecito in un tribunale americano potrebbe essere vietato in Europa o completamente ignorato in Asia.
Insomma, siamo nel bel mezzo di un cambiamento epocale. E no, non è ancora chiaro chi abbia ragione. Ma proprio per questo, è fondamentale continuare a porre domande, pretendere trasparenza e, nel dubbio, far sentire la voce degli artisti.