News Ticker

Seminario "Evoluzione della virtualizzazione su Linux": video tre - "KVM, Libvirt e QEMU"

Ecco la terza parte del del seminario di miamammausalinux.org, intitolato "Evoluzione della virtualizzazione su su Linux" che si è svolto nella giornata del 29 giugno 2012, presso l'hotel Holiday Inn di Rho. In questo video vengono trattate nel dettaglio le tecnologie impiegate per la virtualizzazione, con approfondimenti sul modulo KVM, il sistema Libvirt e l'emulatore QEMU.

Parte tre - "KVM, Libvirt e QEMU":

La serie completa dei video di questo seminario:

Il canale Youtube di MiaMammaUsaLinux: http://www.youtube.com/user/MiaMammaUsaLinux

Un ringraziamento particolare a Lorenzo, per il costante e preziosissimo supporto video che ci ha permesso di condividere l'evento con quanti non sono riusciti a partecipare.

Buona visione!

  • Una spiegazione chiara semplice e ben fatta!!! Ottimo lavoro!!
    Attendo la parte di RHEV accennata cui mi interessa particolarmente.

  • Claudio

    Ciao Raoul,
    avrei due domande:
    hai mai configurto su guest VM machine linux (ESX) heartbeat e DRDB?
    Sai se ci sono problemi di funzionamento?

    Grazie in anticipo...

  • Ciao Claudio,
    nessun problema per l'utilizzo di Heartbeat e DRBD su macchine virtuali, chiaramente le reti dei nodi che faranno parte del cluster dovranno comunicare, ma a parte quello tutto può essere configurato come di consueto.

  • Claudio

    Grazie Raoul,
    sei stato gentilissimo e celerissimo.
    Se non disturbo vorrei farti un'altra domanda riguardante heartbeeat e Mysql Cluster:

    Io ho 2 Mysql Node (che in verità fungono anche da Server Management) e un Data Nodes composto da 4 nodi.
    Avrei pensato di mettere in HA i due Mysql Node tramite heartbeat.
    E' un operazione che mi consigli o ci sono alternative migliori?
    Grazie ancora...

    P.s
    Per future domane o confronti di idee ti devo scrivere tramite questi form o hai un indirizzo email che metti a disposizione?

  • Il management node di MySQL nasce come un'entità a se stante, da cui i data node non dipendono, perciò anche se crolla non perdi il servizio.

    Certo è possibile però pensare di includerlo in una conf HA, per avere ridondanza anche in quel senso. Io, personalmente, eviterei per pura riduzione della complessità generale dell'architettura. Ma è un parere del tutto personale, tecnicamente si può fare.

    Riguardo al ps: usiamo il sito, così chiunque può usufruire degli spunti che emergono nelle discussioni.

  • Ciao a tutti!
    Esiste una guida su come dedicare una periferica PCI alla macchina guest?

    Ci sto provando da un po' ma l'errore che ottengo è questo:
    errore: Impossibile avviare il dominio xxxxxxxx
    errore: internal error: process exited while connecting to monitor: qemu-system-x86_64: -device vfio-pci,host=03:00.0,id=hostdev0,bus=pci.0,addr=0x7: vfio: error, group 5 is not viable, please ensure all devices within the iommu_group are bound to their vfio bus driver.
    qemu-system-x86_64: -device vfio-pci,host=03:00.0,id=hostdev0,bus=pci.0,addr=0x7: vfio: failed to get group 5
    qemu-system-x86_64: -device vfio-pci,host=03:00.0,id=hostdev0,bus=pci.0,addr=0x7: Device initialization failed.
    qemu-system-x86_64: -device vfio-pci,host=03:00.0,id=hostdev0,bus=pci.0,addr=0x7: Device 'vfio-pci' could not be initialized

    Qualsiasi illuminazione è graditissima 😀

  • Grazie Raoul per la veloce risposta!
    Avevo già seguito quella guida e il risultato è purtroppo quello che vedi nel precedente messaggio...
    Da ignorante mi è sorto un dubbio.. quel "group 5 is not viable" mi ha fatto venire un dubbio: se io lancio il comando "virsh nodedev-list --tree" mi ritorna
    +- pci_0000_00_1e_0
    | |
    | +- pci_0000_03_00_0
    | +- pci_0000_03_02_0
    | |
    | +- net_eth0_00_1e_67_2c_ff_75

    Quella che a me interessa è SOLO la 3.00.0 non vorrei che "dipendendo" da 00.1e.0 ci siano problemi... per quanto ne capisco il group 5 è:
    /sys/kernel/iommu_groups/5/devices/0000:00:1e.0
    /sys/kernel/iommu_groups/5/devices/0000:03:00.0
    /sys/kernel/iommu_groups/5/devices/0000:03:02.0

    Ringrazio per il supporto 😉

  • Potresti provare ad aggiungerli tutti in sequenza, oppure provare la via dell'hotplug. Purtroppo non riesco ad essere molto d'aiuto in quanto il setup è decisamente "particolare"...

  • Grazie. Se ce ne salto fuori vi aggiorno 😉