MachineLearning e Container: due tecnologie a braccetto

0

Ultimamente nel mondo Linux parlare di container è all’ultima moda, tante sono le notizie, e quando si parla di container non si può non parlare di Kubernetes.

Se guardiamo però le notizie più in auge nell’informatica più “generalista”, escludendo le ultime diatribe della Google o Apple di turno, il machine learning è sicuramente sulla cresta dell’onda. Questi sistemi complessi che, quando vengono forniti di moli di dati, sono in grado di apprendere in maniera autonoma a compiere azioni specifiche.

Ma come si incontrano questi due mondi? Molto semplice, grazie a Kubeflow!

Questo progetto è nato -indovinate un pò- nei laboratori di Google e, di fatto, viene rilasciato in open source sui repository GitHub della stessa.

L’idea è quella di avere un sistema per approntare un software di machine learning sopra quello che è il re degli orchestrator di container, ovvero Kubernetes.

This project marks the beginning of the end of the data scientist and/or software engineer as disparate roles. Like DevOps has merged operations and development, DataDevOps will consume data science.

Questo progetto segna l’inizio della fine dei data scientist e degli ingegneri software come ruoli separati. Come i DevOps hano fuso gli sviluppatori con gli operatori, i DataDevOps consumeranno dati scientifici.

Questo quanto afferma Philip Winder, ingegnere e consulente presso Container Solution, in un post sul blog dell’azienda.

Entrando a far parte dello stesso progetto Kubernetes, Kubeflow diventa anch’esso parte integrante della Cloud Native Computing Foundation, entrando a far parte di quei grossi player software che stanno gettando le basi di uno standard per quanto riguarda diverse tecnologie legate al mondo del cloud.

Sicuramente l’idea di poter scalare rapidamente in un sistema perfettamente orchestrato è l’ideale nel caso questi sistemi di Machine Learning necessitino di picchi di risorse per eseguire operazioni avanzate, anche se l’elasticità viene sempre ad un prezzo: con un sistema di container ed un orchestrator, si va ad aggiungere overhead (in termini di uso di risorse) su sistemi che tendenzialmente devono essere il più rapidi possibili per simulare (o battere) quello che è il cervello umano.

Staremo a vedere se questo sarà un limite, certo che con tutta la potenza di calcolo di Google alle spalle, polmone di crescita ce n’è in abbondanza.

Utente Linux/Unix da più di 20 anni, cerco sempre di condividere il mio know-how; occasionalmente, litigo con lo sviluppatore di Postfix e risolvo piccoli bug in GNOME. Adoro tutto ciò che può essere automatizzato e reso dinamico, l’HA e l’universo container. Autore dal 2011, provo a condividere quei piccoli tips&tricks che migliorano il lavoro e la giornata.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *