Non si placano le polemiche su GitHub Copilot, l’intelligenza artificiale prodotta da Microsoft che vuole agevolare la vita degli sviluppatori andando ad intercettare cosa viene sviluppato per suggerire automaticamente soluzioni funzionanti e funzionali.
Sin dalla sua presentazione la Free Software Foundation aveva manifestato le proprie perplessità sulla tecnologia e certo non aiuterà a conciliare le rimostranze sapere come pare esserci qualche libertà di troppo da parte dello strumento, come racconta Tim Davis in questo tweet:
@github copilot, with “public code” blocked, emits large chunks of my copyrighted code, with no attribution, no LGPL license. For example, the simple prompt “sparse matrix transpose, cs_” produces my cs_transpose in CSparse. My code on left, github on right. Not OK. pic.twitter.com/sqpOThi8nf
— Tim Davis (@DocSparse) October 16, 2022
Professore di informatica all’università del Texas, Davis ha trovato il suo codice, che è pubblicato con licenza LGPL (ossia GNU Lesser General Public License) suggerito e pubblicato senza alcun tipo di attribuzione.
Com’era presumibile, la cosa non gli è andata troppo a genio.
La licenza LGPL, come spiega la pagina del progetto GNU, si riassume in questa spiegazione:
using the Lesser GPL permits use of the library in proprietary programs; using the ordinary GPL for a library makes it available only for free programs.
l’utilizzo della licenza Lesser GPL consente l’uso della libreria all’interno di programmi proprietari; l’utilizzo della licenza GPL standard permette di usare la libreria solo in programmi liberi.
Ora, come spiega Davis, la prova è stata fatta disabilitando il public code. GitHub Copilot infatti include un filtro che rileva i suggerimenti di codice corrispondenti al codice pubblico su GitHub. È possibile scegliere di abilitare o disabilitare il filtro. Quando il filtro è abilitato, GitHub Copilot controlla i suggerimenti di codice con il codice circostante di circa 150 caratteri rispetto al codice pubblico su GitHub. Se c’è una corrispondenza o una corrispondenza prossima, il suggerimento non ti verrà mostrato.
Quindi nonostante il filtro, la prova di Davis ha dimostrato che il codice viene comunque suggerito.
Seguendo i tweet di risposta si scoprono altre cose interessanti, come ad esempio:
I feel sorry for you given how many really bad takes you’re getting here. For some more ammo, here’s a thread that shows that Github Copilot spits out the Quake source code. It just repeats its training data often, even without OSS licenses. Oops.https://t.co/YDN3nBoMYJ
— Chris Rackauckas (@ChrisRackauckas) October 16, 2022
Dove viene suggerito il codice niente meno di Quake! Insomma, questa cosa dell’AI sta prendendo un po’ troppo la mano, anche perché come fa notare qualcuno non tutti i repository sono pubblici ed in ogni caso non tutti i repository pubblici sono concessi in licenza open-source. E non tutti i repository open source sono concessi in licenza permissiva.
Insomma, usando la piattaforma GitHub è bene saperlo: il rischio che il vostro codice venga indicizzato, anche se non dovrebbe, è concreto e reale.
Che ne pensate?
Da sempre appassionato del mondo open-source e di Linux nel 2009 ho fondato il portale Mia Mamma Usa Linux! per condividere articoli, notizie ed in generale tutto quello che riguarda il mondo del pinguino, con particolare attenzione alle tematiche di interoperabilità, HA e cloud.
E, sì, mia mamma usa Linux dal 2009.
Lascia un commento