
I lettori di Mia Mamma Usa Linux sui temi legati all’intelligenza artificiale sono, per così dire, tiepidi. È una cosa che andrà affrontata prima o poi: l’AI non sembra raccogliere consensi o volontà di discussione e questa posizione parzialmente la condivido, principalmente per una ragione: tutto sta andando troppo velocemente.
Ripensando al 15 dicembre 2022, ossia la prima volta che ChatGPT ha fatto irruzione sul portale, di tempo non ne è poi passato troppo, poco più di due anni, eppure da allora lo tsunami AI ha investito tutto e tutti. Insieme alla sua terminologia, che è entrata nel quotidiano.
Pensiamo ad esempio al concetto di Large Language Model (LLM): sconosciuto ai più fino a ChatGPT, ora sulla bocca di tutti.
Così è la vita.
Rimanere al passo con i tempi è complicato per tutti, anche perché, come si diceva, la frequenza di novità è abnorme e quanto si impara (a fatica) oggi è già vecchio. In questo contesto denso di concetti e tecnologie che promettono miracoli tutti, aziende in primis, si approcciano come con il sesso adolescenziale: tutti ne parlano, ma nessuno lo fa veramente.
Ma non c’è tempo, perché c’è già un nuovo concetto, una nuova tecnologia: MCP, un acronimo (e come potrebbe essere altrimenti?) che sta per Model Context Protocol.
Il pretesto per parlare di MCP arriva da Docker, che pochi giorni fa ha presentato il proprio catalogo di server MCP per la gestione di container, immagini, volumi e reti, insieme ad un toolkit che ne standardizza la gestione.
Ma forse è meglio partire dall’inizio: che cosa è il Model Context Protocol?
Il sito ufficiale lo presenta, brillantemente, così:
MCP is an open protocol that standardizes how applications provide context to LLMs. Think of MCP like a USB-C port for AI applications. Just as USB-C provides a standardized way to connect your devices to various peripherals and accessories, MCP provides a standardized way to connect AI models to different data sources and tools.
MCP è un protocollo aperto che standardizza come le applicazioni forniscono contesto agli LLM. Pensate a MCP come alla porta USB-C per le applicazioni AI. Così come USB-C fornisce una modalità standard per connettere i propri dispositivi ai vari accessori e periferiche, MCP fornisce una modalità standard per connettere i modelli AI alle diverse sorgenti di dati ed i loro tool.
Una spiegazione chiara quindi: visto che ciascun LLM per completare le proprie competenze e risposte potrebbe aver bisogno di interfacciarsi con delle fonti live, ecco che viene definito un protocollo standard che i produttori e, allo stato attuale, chiunque può utilizzare per esporre i propri servizi e restituire le informazioni richieste.
Pensandoci, un server altro non è che un’applicazione, e un’applicazione nell’era cloud-native è ormai un container. Ed è qui che si colloca il catalogo MCP Docker.
Il progetto è stato avviato dall’azienda con diversi produttori:
We’re partnering with leaders like Stripe, Elastic, Heroku, Pulumi, Grafana Labs, Kong Inc., Neo4j, New Relic,Continue.dev, and more – each contributing their expertise to help shape a robust, open, and secure MCP ecosystem. This isn’t just another product launch – it’s the foundation of a platform shift. And we’re building it together.
Stiamo lavorando insieme a leader come Stripe, Elastica, Heroku, Pulumi, Grafana Labs, Kong Inc., Neo4j, New Relic, Continue.dev e altri – ciascuno dei quali contribuisce con la propria esperienza per aiutarci a definire un ecosistema MCP robusto, aperto e sicuro. Non si tratta del lancio di un prodotto – sono le fondamenta di un cambiamento di piattaforma. E lo stiamo costruendo insieme.
Le ambizioni non mancano e, come tutti i progetti Docker, anche questo affonda le proprie radici nell’open-source. Infatti tanto Docker, quanto tutte le altre aziende che hanno sviluppato dei server li hanno pubblicati su GitHub.
Le notizie buone però finiscono qui.
Infatti la tecnologia promossa da diverse realtà lo scorso novembre (si ritorna alla velocità degli sviluppi e delle adozioni) sta spopolando, e dando un’occhiata al repository GitHub dei server MCP, il numero di server esistenti è già enorme, tanto che orientarsi è già un problema.
Certo, un catalogo come quello di Docker aiuta certamente, ma la domanda nasce spontanea: alla sicurezza qualcuno ci sta pensando o no?
Come recita questo articolo di Dev Class, ci sono alcune problematiche fondamentali relative ad MCP che andrebbero indirizzate prima che sia troppo tardi:
- Non esiste un registro ufficiale per i server MCP (è previsto in futuro, ma al momento non c’è).
- Il sistema per come è strutturato oggi è favorevole a typosquatting e impersonificazione, con attori malevoli che potrebbero far installare server MCP dannosi.
- I server legittimi potrebbero comunque soffrire di compromissioni con codice malevolo inserito dopo aver guadagnato fiducia e diffusione (qualcuno ha detto XZ?).
- I server legittimi potrebbero tranquillamente essere vulnerabili a prompt injection, dove contenuti non attendibili potrebbero manipolare server MCP legittimi per eseguire strumenti in modo imprevisto o pericoloso.
E queste sono solo le prime, e se vogliamo più banali, tematiche che emergono da una prima analisi.
Nel frattempo però il messaggio che passa è: “se sei un’azienda e non hai un server MCP, rimani indietro“.
Così l’elenco crescerà ancora, ed ancora, ed ancora.
Concludo citando la frase “La pandemia non ci ha insegnato nulla.“, a cui associo un comando sed
con questo argomento s/pandemia/vicenda XZ/g
.
I lettori abituali di MMUL di cui si parlava in apertura, che di tempo per studiare sed
ne hanno avuto, comprenderanno sicuramente.
Da sempre appassionato del mondo open-source e di Linux nel 2009 ho fondato il portale Mia Mamma Usa Linux! per condividere articoli, notizie ed in generale tutto quello che riguarda il mondo del pinguino, con particolare attenzione alle tematiche di interoperabilità, HA e cloud.
E, sì, mia mamma usa Linux dal 2009.
Lascia un commento