Ancora polemiche su GitHub Copilot: alcuni utenti si sono visti suggerire dall’AI parti di loro codice… Protetto da copyright!

Non si placano le polemiche su GitHub Copilot, l’intelligenza artificiale prodotta da Microsoft che vuole agevolare la vita degli sviluppatori andando ad intercettare cosa viene sviluppato per suggerire automaticamente soluzioni funzionanti e funzionali.

Sin dalla sua presentazione la Free Software Foundation aveva manifestato le proprie perplessità sulla tecnologia e certo non aiuterà a conciliare le rimostranze sapere come pare esserci qualche libertà di troppo da parte dello strumento, come racconta Tim Davis in questo tweet:

Professore di informatica all’università del Texas, Davis ha trovato il suo codice, che è pubblicato con licenza LGPL (ossia GNU Lesser General Public License) suggerito e pubblicato senza alcun tipo di attribuzione.

Com’era presumibile, la cosa non gli è andata troppo a genio.

La licenza LGPL, come spiega la pagina del progetto GNU, si riassume in questa spiegazione:

using the Lesser GPL permits use of the library in proprietary programs; using the ordinary GPL for a library makes it available only for free programs.

l’utilizzo della licenza Lesser GPL consente l’uso della libreria all’interno di programmi proprietari; l’utilizzo della licenza GPL standard permette di usare la libreria solo in programmi liberi.

Ora, come spiega Davis, la prova è stata fatta disabilitando il public code. GitHub Copilot infatti include un filtro che rileva i suggerimenti di codice corrispondenti al codice pubblico su GitHub. È possibile scegliere di abilitare o disabilitare il filtro. Quando il filtro è abilitato, GitHub Copilot controlla i suggerimenti di codice con il codice circostante di circa 150 caratteri rispetto al codice pubblico su GitHub. Se c’è una corrispondenza o una corrispondenza prossima, il suggerimento non ti verrà mostrato.

Quindi nonostante il filtro, la prova di Davis ha dimostrato che il codice viene comunque suggerito.

Seguendo i tweet di risposta si scoprono altre cose interessanti, come ad esempio:

Dove viene suggerito il codice niente meno di Quake! Insomma, questa cosa dell’AI sta prendendo un po’ troppo la mano, anche perché come fa notare qualcuno non tutti i repository sono pubblici ed in ogni caso non tutti i repository pubblici sono concessi in licenza open-source. E non tutti i repository open source sono concessi in licenza permissiva.

Insomma, usando la piattaforma GitHub è bene saperlo: il rischio che il vostro codice venga indicizzato, anche se non dovrebbe, è concreto e reale.

Che ne pensate?

Da sempre appassionato del mondo open-source e di Linux nel 2009 ho fondato il portale Mia Mamma Usa Linux! per condividere articoli, notizie ed in generale tutto quello che riguarda il mondo del pinguino, con particolare attenzione alle tematiche di interoperabilità, HA e cloud.
E, sì, mia mamma usa Linux dal 2009.

3 risposte a “Ancora polemiche su GitHub Copilot: alcuni utenti si sono visti suggerire dall’AI parti di loro codice… Protetto da copyright!”

  1. Avatar JaK
    JaK

    Un momento: il codice di Quale È coperto dalla GPL, tant’è che diversi giochi (liberi) sono stati sviluppati da
    esso.

    Forse la cosa che lamenta l’utente è che la FastSquareRoot (usata anche su Quake) viene coperta da una licenza che non è GPL, ma assegnando il copyright all’autore del programma di test che si stava scrivendo.

    Almeno così credo: ho controllato su Wikipedia e Quake è effettivamente su GPL, mentre sulla FSR non ho trovato note su licenze.

  2. Avatar Raoul Scarazzini

    Vero, ed è GPL addirittura dal 1999, ho corretto l’articolo. La cosa che lamenta il professore citato è che comunque lui aveva debitamente impostato il filtro sul codice pubblico, e se l’è comunque ritrovato suggerito.

  3. Avatar JustATiredMan
    JustATiredMan

    inutile lamentarsi. Se hai codice davvero importante, non dovresti usare tools pubblici/cloud come github, perchè non sai mai cosa ci fanno dietro. Ti devi fare il tuo git server personale da qualche parte e stop.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *