Data center: i trend tecnologici del futuro

RSS

Roba di Internet / RSS 224 Views

Fonte: Techcrunch.

Fonte: Techcrunch.

L’esperto D.Chernicoff ha parlato in un contributo pubblicato su Enterprise.nxt dei trend tecnologici che interesseranno i data center (dc) nel 2018 ma non solo – si intuisce indirettamente che è un’analisi di medio termine. L’editorialista specifica inoltre che ogni anno le previsioni degli addetti ai lavori sono innumerevoli ed eterogenee, dettagliate o generiche, ma che a grandi linee possono essere tutte ricondotte ad una precisa lista che andremo ad esaminare nel post odierno, a cominciare dalla sicurezza.

Aumento della spesa per la sicurezza delle infrastrutture IT

Prevedibilmente è il tema della sicurezza ad aggiudicarsi l’apertura dell’articolo. Di vicende inerenti la delicata e cruciale tematica è possibile citarne diverse, dagli attacchi DDoS record e Mirai (2016) fino a Wannacrypt (2017) ed alle vulnerabilità Spectre/Meltdown (2018). Se, a fronte di quanto accennato, ciò dovrebbe qualificare la questione come una delle imprescindibili problematiche da appuntare sull’agenda di ogni data center operator, da ora in avanti sarà a tutti gli effetti la priorità n.1 , afferma Chernicoff:

la spesa di bilancio sarà reindirizzata alla formazione aggiuntiva del personale IT; all’assunzione di esperti di sicurezza, potenzialmente al livello dei CIO (Chief Security Officer); all’acceleramento [del processo di sostituzione dell’hardware al fine di] mitigare problematiche inerenti [la vecchia strumentazione].

In modo quasi “ossessivo”, si intuisce leggendo tra le righe, la sicurezza diverrà la lente attraverso la quale le compagnie giudicheranno prestazioni, idoneità delle task e qualità delle soluzioni on premise ed off premise, con alcune dovute precisazioni: come accade di frequente, sia per consuetudine umana che per calcoli strettamente finanziari, una volta superati i periodi di crisi si tenderà in alcuni casi a tornare ai consueti standard (meno rigorosi del solito), preferendo magari al mantenimento e sovvenzionamento delle pratiche di sicurezza più efficaci (applicazione costante di patch e fix che salvaguardino la sicurezza dell’infrastruttura) un modus operandi più apatico – ovvero la corsa all’aggiornamento all’indomani “dell’annuncio shock” riguardante una qualsiasi falla di sistema o simile.

Edge Computing

Un altro termine più volte citato su InternetPost. L’edge computing è un recente trend legato al “potenziale” sviluppo dell’Internet delle Cose ed all’analisi dei dati. Con lo sviluppo di tecnologie sempre più avanzate, inclusi sensori in grado di raccogliere innumerevoli dati, sarà possibile sul medio termine usufruire di servizi innovativi come la gestione da remoto del sistema di sicurezza di un’infrastruttura o di un’abitazione, il monitoraggio della qualità dell’aria e molto altro ancora.

I dati “captati” da molteplici sensori dovranno tuttavia essere immagazzinati in “archivi” posizionati strategicamente, vicini alle aree d’interesse ed ai potenziali clienti, nei quali sarà inoltre possibile effettuare una prima analisi di quanto raccolto – anche per questioni “logistiche”, si immagini il dover spedire i dati ad un data center situato a chilometri di distanza, effettuare le dovute analisi e rispedire infine il tutto ai diretti interessati.

L’Edge computing avvicina la computazione ai servizi consumer ed abbassa i requisiti di banda necessari a fornire i servizi all’utente finale. In aggiunta ad una migliore gestione della banda, le tecnologie edge che si focalizzano sulla gestione dello storage rendono più semplice ai vendor l’archiviazione dei dati [nei pressi delle aree in cui sono] effettivamente più utilizzati [e richiesti], limitando l’invio di richieste a location remote.

I data center giocheranno ancora una volta un ruolo importante perché saranno non solo il punto di riferimento per le infrastrutture edge, che invieranno ai dc i dati “setacciati” in prima istanza e riceveranno allo stesso tempi dai dc i dati successivamente “raffinati”, ma avranno anche il delicato compito di preservare la sicurezza dei dati in transito, tematica sempre più attuale con l’approssimarsi del GDPR.

[una delle conseguenze derivanti dal supporto dei data center all’edge computing] saranno i cambiamenti [necessari ai modelli di sicurezza cloud e storage]. Gli esperti sottolineano l’esigenza di porre maggiore enfasi sugli strumenti di gestione che permettono agli admin di osservare e controllare l’intero processo […]. L’obiettivo è quello di avere degli admin che controllino [il flusso dalle infrastrutture edge] alla centrale IT [e utilizzino su quest’ultimi strumenti di tracciamento e segnalazione].

Serverless computing

Di serverless si è parlato nei post Serverless: un nuovo standard per il cloud computing? (intervista all’ideatore del framework che ha dato il nome alla tecnologia)Serverless: l’erede della multi-tenancy?WordPress: il futuro è serverless?In estrema sintesi tale tecnologia è considerabile come il passaggio successivo dei servizi nel cloud in quanto l’utente, oltre a non doversi più occupare della manutenzione sistemistica, vedrà eseguite automaticamente alcune operazioni precedentemente a suo carico e necessarie all’esecuzione di una determinata task o funzione:

[serverless è] un modello computazionale nel quale i server dedicati o le VM in esecuzione non sono più necessarie. E’ infatti la piattaforma stessa del provider ad avviare ed interrompere i vari processi (scalando all’occorrenza il tutto) e lasciando al cliente l’onere di pagare una somma pari al tempo di esecuzione impiegato.

I data center tradizionali, osserva Chernicoff, supporteranno indubbiamente l’avanzata del promettente modello.

Strategie multicloud

La tendenza di affidarsi a differenti provider si consoliderà ulteriormente. Come già detto in altre occasioni anche le infrastrutture dei provider sono soggette ad imprevisti vari (malfunzionamenti dell’hardware, disservizi legati al fornitore di connettività o di energia elettrica, eventi naturali come terremoti ed inondazioni etc.) che possono causare l’interruzione del servizio (downtime) per un periodo di tempo variabile.

Le perdite finanziarie, e non solo, provocate dai downtime variano in base alla tipologia di business ed alla grandezza dell’azienda ma per rendere l’idea basti pensare che nel nel 2016 Amazon (area geografica del Nord America), per circa 20 minuti di downtime, ha “bruciato” quasi 4 milioni di dollari.

Con l’elezione delle strategie multicloud a “standard”, gli esperti prefigurano l’insorgere di nuove ardue sfide per il settore IT, in particolare modo la creazione di strumenti che consentano di gestire e controllare adeguatamente ambienti multicloud e serverless (anche dal punto di vista della sicurezza). Sul lungo termine, in assenza di questi tool, l’utilità di tali strategie risulterà fortemente limitata – sottolinea.

Hybrid IT

Il cloud pubblico è l’ambiente in cui provider come AWS e Google sperano di raccogliere la totalità o quasi dei workload aziendali. In realtà una controparte off premise continuerà a coesistere ancora a lungo con la nuvola ed anzi ricoprirà una posizione di primo piano nell’agenda dei data center operator:

Il software defined data center continua ad essere il modello dei data center del futuro. Come risultato, non sorprende che l’hybrid IT sia in cima alla lista [dei fattori che nel 2018] avranno il più profondo impatto sui data center. Con i progressi ottenuti in settori come le tecnologie storage, infrastructure as a code [(“macchine, storage e dispositivi di rete sono visti come servizi e gestiti via singole applicazioni”)], intelligenze artificiali e machine learning, così come l’high performance computing, non dovrebbe essere una novità che le tecnologie in grado di [rafforzare la sinergia tra l’on e l’off premise] saranno in cima agli interessi dei data center operator.

Modello a consumo e personale qualificato

Secondo Chernicoff il modello a consumo potrebbe avere successo anche nel segmento delle apparecchiature on premise, dal classico computer fino agli switch di rete per spiegare meglio di cosa si sta parlando. I vendor cercheranno di sviluppare nuove soluzioni ad un ritmo più celere rispetto al classico ciclo d’acquisto dell’IT tradizionale. Ciò consentirà alle compagnie di velocizzare il passaggio a tecnologie in grado di rispondere meglio alle proprie esigenze di business – senza che debbano più preoccuparsi dei costi irrecuperabili.

Chiude il lungo articolo una questione che sembra ormai perdurare da alcuni anni, la scarsa reperibilità di esperti in tecnologie cloud e sicurezza informatica. In particolare modo per quest’ultima si è più volte parlato di “carenza cronica” e di (si stima) circa 3 milioni e mezzo di posti vacanti entro il 2021. Il successo delle tecnologie e dei servizi forniti dai data center dipenderà sul lungo termine anche da questo, conclude l’esperto.

Fonti: 1, 2

Comments