Come Red Hat ha portato l’AI open-source a riconoscere le immagini nei reparti di radiologia pediatrica

È una bella storia quella che raccontiamo a proposito di Red Hat e di come sia riuscita a portare l’AI, specificamente quella open-source di cui l’azienda dal cappello rosso si sta facendo promotrice con il suo RHEL AI di cui abbiamo recentemente parlato, all’interno di un contesto in cui davvero può fare la differenza.

Diciamo la verità, tolti i vezzi di qualcuno che vorrebbe diventare scrittore senza averne il talento, e di chi vorrebbe usare ChatGPT per smettere di programmare, è raro trovare delle applicazioni che appaiono realmente utili nel quotidiano, dove cioè automazioni e intelligenza artificiale dovrebbero migliorare la qualità della vita, ma il contesto descritto da Chris Wright, CTO di Red Hat, rientra decisamente in questa casistica:

Boston Children’s Hospital exemplifies the positive impact artificial intelligence can have in the healthcare field and how it fuels innovation beyond traditional enterprise IT. Red Hat is proud to collaborate with Boston Children’s Hospital by providing the technology foundation for efforts to make a difference in the health of future generations.

Il Boston Children’s Hospital esemplifica l’impatto positivo che l’intelligenza artificiale può avere nel campo sanitario e come alimenta l’innovazione oltre l’IT aziendale tradizionale. Red Hat è orgogliosa di collaborare con il Boston Children’s Hospital fornendo le basi tecnologiche per gli sforzi volti a fare la differenza nella salute delle generazioni future.

Ma nello specifico, in cosa Red Hat ha supportato l’ospedale? Prima che il Boston Children’s Hospital iniziasse a sperimentare l’intelligenza artificiale in radiologia, le misurazioni “quantitative” dovevano essere eseguite manualmente, il che era un compito che richiedeva molto tempo e personale. Inoltre altri tipi di analisi delle immagini più complessi venivano eseguiti completamente offline ed al di fuori del flusso di lavoro clinico.

Essendo questo un ambito in cui le tempistiche sono essenziali, poiché prima si scoprono le rilevanze e prima è possibile agire per preservare la vita dei piccoli pazienti, l’ospedale sta sperimentando Red Hat OpenShift tramite ChRIS Research Integration Service, una piattaforma di immagini mediche basata sul web.

L’applicazione AI in esecuzione in ChRIS nell’infrastruttura basata su Red Hat OpenShift ha il potenziale per esaminare automaticamente le radiografie ed identificare le immagini diagnostiche più preziose tra le migliaia scattate per segnalare eventuali discrepanze da mostrare al radiologo.

Il tutto riducendo i tempi di intervento drasticamente, tutto a beneficio dei pazienti.

E non finisce qui poiché come riporta l’articolo ogni innovazione viene poi trasferita nel public research cloud, come ad esempio il Massachusetts Open Cloud (MOC), dove chiaramente le informazioni condivise possono essere sfruttate in maniera aperta per contribuire come fondamento alle ricerche che verranno.

Il tutto in pieno stile open-source quindi con l’invidiabile valore aggiunto di contribuire a rendere più curabili patologie importanti come quelle descritte.

Mai come per Red Hat quindi la parola giusta da usare per concludere è… Chapeau!

Da sempre appassionato del mondo open-source e di Linux nel 2009 ho fondato il portale Mia Mamma Usa Linux! per condividere articoli, notizie ed in generale tutto quello che riguarda il mondo del pinguino, con particolare attenzione alle tematiche di interoperabilità, HA e cloud.
E, sì, mia mamma usa Linux dal 2009.

5 risposte a “Come Red Hat ha portato l’AI open-source a riconoscere le immagini nei reparti di radiologia pediatrica”

  1. Avatar Raoul Scarazzini

    Penso tu abbia indicato la vera discriminante che ci porterà a dire se questa bolla AI lascerà qualcosa di buono oppure no, ossia il progresso.
    Il resto sono solo esercizi di stile, per lo più inutili e dispendiosi.

  2. Avatar Giok
    Giok

    Ottimo articolo, un consiglio: bisognerebbe aumentare l'interlinea del testo da 1.5 ad 1.8 per migliorare la leggibilità, con le righe così vicine la lettura diventa difficoltosa.

  3. Avatar Giok
    Giok

    Magari qualche altro utente che legge questo articolo potrebbe dire la sua

  4. Avatar Raoul Scarazzini

    Fatto, anche se non convintissimo sia meglio, ma proviamo!

  5. Avatar Stefano B
    Stefano B

    Basti pensare al devastante impatto che hanno avuto piattaforme come AlphaFold/AlphaFold2/AlphaFold3 nelle simulazioni proteiche.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *