Non passa giorno senza che qualcuno annunci un prodotto, un servizio o un assistente AI che possa aiutare gli sviluppatori a velocizzare il proprio lavoro. Pochi giorni fa abbiamo parlato di RHEL AI di Red Hat, mentre l’ultima notizia in ordine di tempo è quella di Oracle e del suo Oracle Code Assist che vorrebbe applicare l’AI generativa allo sviluppo Java e SQL.
Se a questo aggiungiamo come la Open Source Initiative stia organizzando una serie di workshop per definire il concetto stesso di Open Source AI, non si può fare altro che citare uno dei nostri meme preferiti:
Inutile quindi stupirsi di come molti sviluppatori abbiano iniziato a fare un uso quotidiano delle AI a supporto del proprio operato ed ovviamente la cosa ha impattato anche il mondo open-source dove le contribuzioni volontarie sono alla base del movimento.
Il problema è che l’utilizzo dell’AI non significa automaticamente qualità, così come non significa nemmeno rispetto dei copyright sul codice, ed i maintainer delle varie distribuzioni se ne sono accorti da tempo, agendo con contromisure.
Due diverse distribuzioni open-source, in due momenti diversi, sono giunte alla stessa conclusione: il codice generato dalle AI verrà rifiutato.
Ha iniziato Gentoo a metà aprile, annunciando la nuova policy in merito alle contribuzioni, che recita quanto segue:
It is expressly forbidden to contribute to Gentoo any content that has been created with the assistance of Natural Language Processing artificial intelligence tools. This motion can be revisited, should a case been made over such a tool that does not pose copyright, ethical and quality concerns.
È espressamente vietato contribuire a Gentoo con qualsiasi contenuto che sia stato creato con l’assistenza di tool di intelligenza artificiale verso il Natural Language Processing. Questa mozione può essere rivista, nel caso in cui si sollevasse un caso su uno strumento che non pone problemi di copyright, etici e di qualità.
Dello stesso avviso i membri del progetto NetBSD i quali nelle linee guida per le contribuzioni al progetto indicano chiaramente “Do not commit tainted code to the repository.” specificando:
Code generated by a large language model or similar technology, such as GitHub/Microsoft’s Copilot, OpenAI’s ChatGPT, or Facebook/Meta’s Code Llama, is presumed to be tainted code, and must not be committed without prior written approval by core.
Si presume che il codice generato da un modello linguistico di grandi dimensioni o da una tecnologia simile, come Copilot di GitHub/Microsoft, ChatGPT di OpenAI o Code Llama di Facebook/Meta, sia codice contaminato che non dovrebbe essere eseguito senza previa approvazione scritta da parte del team Core .
In entrambi i casi quindi non c’è una chiusura totale, ma un chiaro segnale di come il controllo sulla tipologia delle contribuzioni sarà serrato, in particolare per quanto riguarda le questioni di copyright, visto il costante emergere di violazioni in questo senso.
Ed il nemico pubblico numero uno in questo senso è GitHub Copilot.
Vale infatti la pena di ricordare come il prodotto di casa Microsoft, pur non esistendo una prova chiara in questo senso, potrebbe essere stato istruito sull’intero codice ospitato dal portale (quindi letteralmente tutti i progetti open-source del mondo), e le implicazioni legali di questo approccio, nonostante le cause già in corso, sono ancora tutti da esplorare.
C’è da scommettere come politiche di questo tipo verranno adottate presto da altre distribuzioni e sarà interessante capire quali prenderanno una chiara posizione in merito e quali invece non lo faranno, magari per via di accordi esistenti proprio con chi produce prodotti AI.
Da sempre appassionato del mondo open-source e di Linux nel 2009 ho fondato il portale Mia Mamma Usa Linux! per condividere articoli, notizie ed in generale tutto quello che riguarda il mondo del pinguino, con particolare attenzione alle tematiche di interoperabilità, HA e cloud.
E, sì, mia mamma usa Linux dal 2009.
Lascia un commento