Hypervisor e virtualizzazione: cosa sono e come funzionano

413
Hypervisor e virtualizzazione
adv

Computer virtuali ospitati su macchine fisiche. E’ la nuova frontiera per ottimizzare i tempi di lavoro ma anche per proteggersi dagli attacchi

Molto spesso “hypervisor” e virtualizzazione vengono intesi come la stessa cosa. In realtà le funzioni, seppur molto simili, sono diverse. La virtualizzazione server cos’è? In sostanza, la virtualizzazione di una risorsa (quale può essere anche un normale computer) è la creazione, appunto virtuale, di una versione fisica.

Tutto ciò che la risorsa contiene, hardware (scheda madre, memoria, persino virtualizzazione CPU) e software, vengono resi astratti e quindi consultabili virtualmente. L’hypervisor, invece, viene chiamato anche “virtual machine monitor”, ed è un componente imprescindibile per qualsiasi macchina virtuale.

Senza hypervisor non può esistere la virtualizzazione. E’ proprio l’hypervisor, infatti, che guida questo processo svolgendo attività da super partes dedita a monitorare eventuali bug e malfunzionamenti di tutte le funzioni dei sistemi operativi e delle applicazioni, in modo da poter così intervenire e risolverli tempestivamente.

L’hypervisor ha giocato un ruolo fondamentale nell’innovazione del cloud. Questo ha generato nel mondo informatico numerosi vantaggi. L’hypervisor in concreto, è appunto, un processo che consente, in maniera distinta e separata, di far divenire le componenti fisiche, in componenti virtuali.

Così facendo, la macchina fisica, può ospitare più macchine virtuali, in modo da velocizzare le operazioni di calcolo e ottimizzare tempi e risultati in base alle operazioni richieste. Attualmente le piattaforme di virtualizzazione più autorevoli sono Vmware, Hypervisor Microsoft e Vsphere hypervisor. Vm Ware hypervisor in particolare è una branca della Dell Technologies.

Il concetto di virtualizzazione nasce a cavallo degli anni ’60 e ’70 nei laboratori dell’IBM. I programmatori attraverso questo sistema riuscivano a testare hardware sperimentali e fare debug senza compromettere in maniera irreversibile la stabilità di un sistema, ed arrivando così a risparmiare anche le ingenti spese che prima di allora bisognava sostenere per effettuare operazioni simili.

Tutt’oggi gli hypervisor vengono ancora usati per collaudare software e sperimentazione informatiche. Nel primo decennio del 2000 poi Linux e altri sistemi simili hanno iniziato a sfruttare la virtualizzazione principalmente per ridurre i costi ma anche per migliorare la sicurezza e la stabilità dei server.

Questo ha portato l’hypervisor a crescere e migliorarsi per cercare di essere uno strumento sempre più affidabile. Se oggi è possibile che un computer svolga un lavoro simultaneo lo si deve soprattutto all’hypervisor. Nel 2005 poi l’hypervisor comincia ad essere disponibile (e di seguito apprezzato) anche su larga scala, dato che i produttori di processori hanno aggiunto la virtualizzazione ai loro prodotti (in particolare quelli basati su x86) ed in modo che anche gli utenti meno esperti potessero usufruire dei vantaggi che questo comporta su pc e server.

Quando un hypervisor è programmato direttamente su di una CPU sin dall’inizio si parla di hypervisor embedded. Ma per comprendere appunto i vantaggi bisogna fare una considerazione doverosa, banale quanto necessaria: anche se su una macchina fisica funzionano diverse macchine virtuali, ognuna è separata dall’altra. Questo perché se una macchina virtuale subisce un attacco o un qualunque malfunzionamento si può intervenire direttamente su di essa senza che venga danneggiato l’intero sistema.

Oltretutto le macchine virtuali non necessitano per forza dell’hardware fisico sul quale sono state create, ma possono essere spostate grazie ai server, rendendo così il cambiamento di hardware molto più semplice.

Il server Vmware è uno dei migliori per l’hypervisor. Esistono però due tipi di hypervisor. Quelli chiamati “nativi” (o “bare metal”) e quelli “hosted”. I primi vengono impiantati sull’hardware per gestire le macchine virtuali ospitate. I secondi si poggiano su un sistema operativo guest che viene eseguito come processo sull’host. Gli hypervisor sono, infatti, lo strumento chiave che separano il sistema operativo guest dal sistema operativo host. VMware Workstation, VMware Player, VirtualBox e Parallels Desktop per Mac sono solo alcuni dei software che includono il tipo di virtualizzazione hosted. Gli hypervisor-layer anti rooktit sono tra l’altro utilissimi per fermare tutti quei malware che spesso mettono a rischio la sicurezza di dati e informazioni.

Tuttavia gli hypervisor rischiano ben presto di essere sostituiti dai “container”. La differenza sostanziale è che mente gli hypervisor nel processo di virtualizzazione non fanno distinzione tra componenti hardware e sistema operativo virtualizzando così tutto l’insieme per poter funzionare, isolando anche tutti i sistemi operativi singolarmente per ogni macchina virtuale, i container usano invece un unico sistema operativo; mentre i processori, la memoria fisica e tutte le componenti hardware restano condivisibili per tutte le macchine virtuali presenti.

Questo fa sì che i container risultino molto più leggeri e non utilizzino grandi risorse di sistema. Il rovescio della medaglia è che però i container risultano essere meno sicuri degli hypervisor perché se un attacco ad un container arriva ad influenzare il sistema operativo tutte le macchine virtuali che sono ospitate ne risentirebbero, cosa che con gli hypervisor non può accadere.

E’ molto probabile che nel prossimo futuro le aziende usino una combinazione di entrambi i sistemi, magari con delle migliorie. Il punto che interessa le aziende è infatti quello di riuscire a gestire sistemi operativi andando ad emulare le istanze di tante macchine e dei relativi sistemi operativi usandone una sola fisica.

Questo agevolerebbe il mantenimento di un insieme di applicazioni su un singolo server e con un maggior livello di affidabilità, sicurezza e una considerevole riduzione di spazi e dei costi di gestione e manutenzione.

Il punto di forza dell’hypervisor è quello di operare in maniera cristallina senza intaccare le prestazioni dei sistemi operativi osservando compatibilità, performance e semplicità. Ormai virtualizzazione fa rima con sicurezza informatica.