Il mainframe: una risposta alla complessità

A rischio di sembrare anacronistici, è il caso di sottolineare la modernità del mainframe, che nel corso degli anni ha saputo modificarsi ed evolvere, diventando per tanti aspetti ancora più attuale di molte tecnologie emerse nel corso degli ultimi decenni di vita dell’Information Technology. Il mainframe ha oggi tutte le caratteristiche di un super-server, eppure il suo nome si porta dietro, nell’immaginario collettivo del comparto, un’immagine legata oltre misura alla tradizione. Tuttavia, la sua attuale struttura architetturale in grado di crescere progressivamente e agevolmente al crescere delle esigenze dei clienti, la sua caratteristica intrinseca di sistema già partizionabile e virtualizzato nativamente, la sua capacità d’operare con sistemi operativi anche open source, abbinati alla tradizionale capacità d’assicurare performance e qualità del servizio al massimo livello oggi ottenibile, continuano a farlo rimanere imprescindibile per quanti non si possano permettere dall’It un fermo, una sospensione del servizio, un rallentamento, una failure.
Costi sotto controllo
Nel suo posizionamento attuale, in uno scenario in cui consolidamento e virtualizzazione assumono un ruolo fondamentale dopo la proliferazione spesso incontrollata di sistemi centrali e dipartimentali, dopo l’essere scappato di mano a molte grandi utenze It il moltiplicarsi di sistemi periferici unitariamente a basso costo ma la cui gestione diventa sempre più complessa e costosa, il mainframe appare come una soluzione che,a ben fare i conti, presenta un costo di possesso e gestione sovente competitivo, per chi necessita di prestazioni al top. Peraltro, il mainframe non è una scelta architetturale dedicata solo alle grandi utenze; anche medie imprese con rilevanti esigenze di servizio It, possono trovare nel mainframe una soluzione adeguata, forse non percepita come alla moda, ma il cui rifiuto, origina il più delle volte da preconcetti o dalla rincorsa all’innovazione presunta. Certo, le caratteristiche del mainframe sono oggi tali da richiedere una importante revisione dell’impostazione del software; è ovvio che utilizzare un mainframe con applicazioni che datano di qualche decennio e senza una profonda revisione del portafoglio applicativo dell’azienda, è penalizzante come lo è l’utilizzo di una qualsiasi soluzione datata.
Ma al tempo stesso, non sempre la soluzione adeguata è il re- platforming, il portare le applicazioni su tecnologie diverse e non sempre più competitive nei fatti; spesso, lo è il re - hosting, inteso non come adozione di nuove tecnologie hardware, ma come revisione del portafoglio complessivo, infrastrutturale ed applicativo, prendendo atto che su tecnologie fortemente innovative come quelle che caratterizzano il mainframe del terzo millennio si possono ottenere prestazioni e livelli di servizio di rilievo, e al tempo stesso forme di flessibilità anche superiori a quanto raggiungibile con altre soluzioni.
La tendenza a spostare applicazioni dal mainframe verso soluzioni industry standard è forte, sulla base della convinzione di poter trovare sul mercato provider, tecnologie, applicazioni più convenienti sotto il profilo economico, più “maneggevoli”, e che è in teoria più agevole mettere in diretta competizione fra loro attraverso confronti omogenei.
Ma il risparmio economico è sovente solo apparente, in un contesto in cui i “costi nascosti” delle imprese per l’It sono crescenti e non solo “importanti”, e al tempo stesso vengono sovente tenuti nascosti, al punto da emergere solo a fronte di una analisi più attenta e oculata.
Standardizzazione e flessibilità
In uno scenario in cui la concentrazione dell’It in grandi data center diventa sempre più reale, in cui il Cloud Computing è anticipatore di una tendenza sempre più forte all’It “industriale”, intesa non come produzione di beni bensì come industrializzazione del servizio reso, il mainframe può essere considerato oggi come una soluzione che permette rinnovate certezze, in grado di assicurare una gestione delle risorse di calcolo che assicura valore reale del servizio ottenuto.
Al tempo stesso, il mainframe del terzo millennio non necessita più di pool di specialisti in crescita lineare con le potenze gestite e con i carichi di lavoro supportati, grazie alla progettazione esclusiva e alla sofisticata gestione delle componenti interne, tipiche proprio dell’ambiente operativo del mainframe.
Il ruolo di Ibm
Certo, mainframe è oggi sinonimo di Ibm; sono lontani i tempi della competizione diretta, dei “compatibili”. Ma la loro scomparsa non va attribuita, come erroneamente si tende a fare, alla iper-competizione, bensì alla impossibilità per altri attori del comparto It di operare investimenti di tale rilievo che solo un’azienda leader da sempre può permettersi. E in quest’ottica, è importante prendere atto dei poderosi investimenti condotti da Ibm non solo sulle architetture interne dei sistemi,ma anche sullo sviluppo e sul rilascio di strumenti che consentono, ad esempio, lo sviluppo di applicazioni e la conversione delle applicazioni ospitate dal mainframe al fine di farle “girare” in modalità web, usando anche competenze inter-piattaforma già disponibili sul mercato, e rese proprie da Ibm anche attraverso l’acquisto di aziende di middleware specializzate. È così che l’offerta Ibm si è arricchita, ad esempio, dei tool di Rational,oggi Ibm a tutti gli effetti, che puntano soprattutto sull’aiutare gli sviluppatori anche non specialisti a realizzare applicazioni anche complesse, come di soluzioni di terze parti. Su queste, negli ultimi cinque anni continua a crescere sia il numero di Isv (vendor indipendenti di software) ingaggiato su mainframe, sia il numero delle applicazioni per ambienti operativi mission-critical tipici del mainframe, quali z/Os e z/Vse, oltre a Java e Linux, peraltro pienamente compatibili con i mainframe, ben sapendo che nel mondo gran parte dei dati aziendali “critici” risiede su mainframe, e che la sicurezza e la stabilità della piattaforma System z sono fuori discussione. Può sembrare che soluzioni studiate per sistemi Unix e Windows siano meno costose, soprattutto per la componente hardware, ma da un’analisi complessiva, che prenda in esame anche il costo del software, della manutenzione, del networking, del personale e il potenziale svantaggio di un aumento del downtime fanno scoprire una realtà spesso sottostimata.
*Amministratore delegato

di Sirmi