Ci si avvia verso la fine dell’anno sempre carichi di speranze per il successivo, forse quest’anno ancora più del solito. Essendo ovviamente Kubernetes sulla cresta dell’onda, è normale chiedersi -anche considerando l’attuale livello di maturità del progetto- quale sarà il futuro del famoso orchestratore, al netto dell’abbandono di Docker.
Nonostante oramai sia marcato da alcuni come “noiosamente affidabile” (e non stiamo parlando di persone che passano di qua per caso, ma di Clayton Coleman, capo-sviluppatore di OpenShift), ci sono ancora ambiti in cui si può migliorare.
Semplificazione per l’uso con AI e ML
E’ innegabile che, grazie alla sua capacità e velocità nello scalare orizzontalmente, Kubernetes sia spesso usato per progetti di ricerca e sviluppo sulle intelligenze artificiali ed il machine learning. E proprio questo largo utilizzo fa pensare che nel 2021 ci sarà una ricerca per semplificare il processo di sviluppo di tutti questi software che, girando su container, sono perfetti per l’uso su Kubernetes, permettendo alle aziende che necessitano di queste tecnologie di concentrarsi di più sui processi di implementazione ed istruzione, rispetto che sull’erogazione delle risorse necessarie a risolvere i problemi.
Miglioramento dell’uso per sviluppatori e sistemisti
Dopo il cloud, i container e gli orchestrator, la parola d’ordine per “il nuovo modo di fare le cose” è solo una: serverless. Certo, i server alla fine sono fisicamente da qualche parte, ma con questa idea in testa (oramai supportata e largamente pubblicizzata dai principali cloud provider come Azure, AWS e Google), nel prossimo anno forse inizieremo ad assistere ad una semplificazione nell’uso di Kubernetes, sia per gli sviluppatori che per i sistemisti che lo mantengono, al fine di avvicinare qualsiasi infrastruttura che lo usi al concetto serverless, nel quale ci si dimentica (o quasi) dell’infrastruttura sottostante.
Automatizzare l’automatizzabile
L’automatizzazione è uno dei concetti base di Kubernetes, basti pensare al suo supporto nativo per l’autoscaling delle applicazioni basato sull’analisi del carico e/o del traffico in arrivo, e lo stesso concetto stesso di “orchestrator” è proprio quello di avere una gestione automatica della distribuzione dei lavori e dei carichi sui nostri sistemi. Cosa si può fare ancora?
Beh, molte operazioni sono ancora manuali, basti pensare all’installazione ed all’upgrade, piuttosto che alla gestione del ripristino dell’infrastruttura quando qualcosa va storto su uno o più nodi. Insomma, volendo si può automatizzare ancora di più!
Orizzonti sempre più ampi
Insomma, quando parliamo di cloud ibrido o di “multi-cloud” le soluzioni sono diverse e quasi tutte portano con se una realtà: le nostre applicazioni non risiedono più in un solo posto ma, virtualmente, posso stare ovunque. E le soluzioni che permettono questa cosa sono molteplici e sempre più economiche. Se fino a ieri era appannaggio delle Telco avere infrastrutture geograficamente distribuite, l’adozione di soluzioni enterprise -in genere pesantemente basate su Kubernetes- potrebbe portare sempre più aziende ad “espandere i propri orizzonti” in questo modo.
Evoluzione di soluzioni integrate di terze parti
Ma come, non stavamo parlando di Kubernetes? Certo, ma se avete avuto modo di snocciolare un pochino più nel dettaglio l’orchestrator, sapete che da solo non è la soluzione a tutto, ma che ha bisogno di diversi altri software “corollari” per risolvere alcuni suoi limiti. Analisi di sicurezza, gestione centralizzata dei log, processi di CI/CD, c’è sempre un software per questo. E fortunatamente, grazie alla Cloud Native Computing Foundation tutti questi pezzi del puzzle sono standardizzati per cooperare perfettamente tra di loro. C’è un solo problema adesso: il puzzle sta diventando un pochino complesso.
Con decine, se non centinaia di soluzioni possibili per ogni problema, le aziende devono continuare a spendere tempo (e denaro) per selezionare, integrare, testare e mantenere le soluzioni migliori alle loro richieste. Oppure? Beh, oppure si affidano a partner in grado di fornire soluzioni che siano flessibili e semplici da usare, appoggiandosi a loro per la gestione dell’”infrastruttura Kubernetes” e concentrandosi sullo sviluppo e gestione del software necessario al loro business. Potremmo quindi vedere, già dal prossimo anno, un’esplosione di soluzioni integrate fornite da partner terzi.
Si potrebbe andare avanti a parlare per ore di cosa è migliorabile ed in che direzione potrebbe andare questo pazzo pazzo mondo di Kubernetes, ma questo ci sembra un buon punto di partenza per l’anno che verrà. Voi vedete sviluppi di altro tipo?
Utente Linux/Unix da più di 20 anni, cerco sempre di condividere il mio know-how; occasionalmente, litigo con lo sviluppatore di Postfix e risolvo piccoli bug in GNOME. Adoro tutto ciò che può essere automatizzato e reso dinamico, l’HA e l’universo container. Autore dal 2011, provo a condividere quei piccoli tips&tricks che migliorano il lavoro e la giornata.
Lascia un commento