Il programma di bug bounty del progetto curl è pieno di segnalazioni fatte da intelligenze artificiali

4

Come ogni progetto software particolarmente ampio, anche curl ha da sempre un programma di bug bounty, ossia un compenso rivolto a cacciatori di taglie il cui scopo è quello di scovare problematiche all’interno del codice sorgente il quale, essendo pubblico ed open-source, è liberamente consultabile.

Più è grave la falla scoperta, più in genere è alto il compenso e si fa in fretta a capire come la posta in gioco (ossia soldi veri) renda ghiotta l’opportunità tanto a veri professionisti quanto a, manco a dirlo, approfittatori. Basti dire che, sino ad oggi, il progetto curl ha pagato settantamila dollari in “taglie”.

In apertura di quest’anno, Daniel Stenberg, maintainer e principale sviluppatore di curl, ha raccontato in un post dall’ironico titolo The I in LLM stands for intelligence (La “I” in LLM sta per “intelligenza”) quanto le segnalazioni di potenziali bug da parte di intelligenze artificiali siano aumentate da quando ChatGPT & fratelli sono diventati alla portata di tutti.

Il modus operandi è più o meno questo: agli attuali set di LLM disponibili sul mercato viene dato in pasto del codice curl e ne viene richiesto un output nel formato di “rapporto sulla vulnerabilità della sicurezza”.

La questione è piuttosto semplice quindi, solo che poi la palla passa a curl e qui il problema è che, a detta di Stenberg, ci sono diversi aspetti da valutare per verificarne l’autenticità, con relativo investimento di tempo.

Alcuni report che potrebbero essere sensibili ad esempio sono creati da persone non madre lingua (inglese) che utilizzano, legittimamente, le AI per superare le barriere linguistiche. Il risultato quindi potrebbe essere qualcosa all’apparenza insensato, ma che poi si rivela prezioso. Ecco perché per ogni report viene innescata un’indagine.

Due gli esempi riportati nell’articolo, il primo che mostra alcuni degli aspetti tenuti presente per scartare report auto generati, come il mescolamento di fatti e dettagli relativi a vecchi problemi di sicurezza, creando e inventando qualcosa di nuovo che non ha alcun collegamento con la realtà e che di fatto genera solo entropia.

Il secondo, davvero sorprendente, è la dichiarazione di un buffer overflow che in realtà non esiste. La cosa interessante di questo secondo esempio è l’analisi del dialogo che il reporter instaura con lo stesso Stenberg, dal quale emerge il tipico atteggiamento ripetitivo unito alle frasi di circostanza che abbiamo imparato a conoscere all’interno dei chat bot, non sono ChatGPT.

Certamente è possibile bannare questi reporter fraudolenti una volta scoperti, ma la parte più preoccupante di tutta la faccenda rimane l’aumento costante di questo genere di segnalazioni, ed il conseguente tempo necessario per analizzarli. Si fa in fretta a capire come tutto questo comporterà l’introduzione di pratiche di tutela, quindi così come ci siamo abituati a schiacciare il tasto “I’m not a robot”, anche nell’aprire segnalazioni troveremo presto percorsi più tortuosi.

Della serie “Per colpa di qualcuno, non si fa credito a nessuno“.

Da sempre appassionato del mondo open-source e di Linux nel 2009 ho fondato il portale Mia Mamma Usa Linux! per condividere articoli, notizie ed in generale tutto quello che riguarda il mondo del pinguino, con particolare attenzione alle tematiche di interoperabilità, HA e cloud.
E, sì, mia mamma usa Linux dal 2009.