• Non ci sono risultati.

infrastrutture in Edge Computing

N/A
N/A
Protected

Academic year: 2022

Condividi "infrastrutture in Edge Computing"

Copied!
12
0
0

Testo completo

(1)

Risoluzione delle sfide legate alle infrastrutture in Edge Computing

White Paper 277

Revisione 0

Di Patrick Donovan e Wendy Torell

VOTA QUESTO WHITE PAPER 

Riepilogo

Le installazioni di Edge Computing (sistemi IT distribuiti) stanno assumendo un ruolo sempre più importante.

L'implementazione e il funzionamento dei sistemi IT periferici, tuttavia, presentano delle sfide che è necessario superare. Per farlo, è necessario abbandonare i

tradizionali metodi di selezione, configurazione, assemblaggio, uso e manutenzione di questi sistemi.

Questo documento descrive il nuovo modello che si sta imponendo e che prevede un ecosistema integrato, costituito da partner, fornitori e utenti finali. Tale

ecosistema e la correlata soluzione di Micro Data Center

possono dare una risposta alle specifiche problematiche

delle applicazioni periferiche.

(2)

In un momento in cui tutto viene "digitalizzato", si affermano sempre maggiormente tecnologie come IoT, apprendimento automatico, intelligenza artificiale, robotica, realtà virtuale/aumentata e analisi dei dati/video.

Le aziende hanno bisogno di queste tecnologie per mantenere un vantaggio competitivo e rimanere protagoniste nei loro settori. Il problema è che i Data Center ad architettura centralizzata non sono in grado di gestire le problematiche legate a latenza, larghezza di banda, autonomia e requisiti normativi/di sicurezza. È per questo motivo che si sta attualmente affermando un'architettura ibrida end-to-end, costituita da (1) Data Center periferici locali, (2) Data Center periferici regionali e (3) Data Center centralizzati/cloud. E questa architettura ibrida, inclusa la periferia a livello locale, deve essere altamente resiliente, come spiegato nel White Paper 256, La ridefinizione di resilienza nell’Edge Computing.La Figura 1 propone uno schema semplificato di questa architettura.

Questo documento spiega che, anche se i piccoli centri locali di elaborazione non sono mai stati trattati come un Data Center centrale in termini di criticità e ridondanza elettrica, la loro disponibilità è sempre più necessaria per la continuità del servizio. Nell'ambito della trasformazione digitale, i nuovi sistemi IT vengono implementati on-premise per svolgere funzioni critiche che si basano sulla connettività di rete al cloud. Quando il punto di accesso è inattivo, la produttività può risentirne fino al completo arresto dell'attività, a prescindere che si tratti della fornitura di prodotti o di servizi.

I centri periferici locali potrebbero essere legati a impianti di produzione, magazzini di distribuzione, succursali bancarie, negozi al dettaglio, strutture sanitarie, ecc. Ci sono numerosi casi in cui le suddette tecnologie sono state distribuite su diversi mercati verticali.

Basti pensare, ad esempio, alle tecnologie di analisi video.

Negli ambienti di vendita al dettaglio, abbiamo identificato numerose applicazioni:

dall'osservazione delle espressioni facciali dei clienti alla determinazione del momento in cui si formano le code o, addirittura, all'eliminazione del tradizionale processo di "check out". Negli impianti di produzione - ad esempio, nell'industria automobilistica - vengono utilizzati per la sicurezza personale, il rilevamento dei difetti di produzione e la semplificazione delle operazioni;

nei centri finanziari, per il conteggio delle persone e la classificazione delle caratteristiche demografiche; nelle strutture sanitarie, per monitorare i pazienti e capire quando è necessario intervenire. Dato che tecnologie come queste stanno diventando una parte sempre più integrante delle attività quotidiane e/o della "customer experience", i centri di elaborazione periferici in cui risiedono le corrispondenti apparecchiature IT distribuite devono essere solidi e affidabili.

Il sistema IT non è più considerato un centro di costo ma un'esigenza strettamente connessa alla strategia aziendale e al profitto; ciò rende la resilienza ancora più indispensabile.

Rispetto ai centri regionali o dai Data Center centralizzati, gli ambienti periferici locali hanno due problematiche specifiche che rendono difficile ottenere la necessaria resilienza: (1) mancanza di personale sul posto e (2) un gran numero di siti geograficamente lontani.

Introduzione

Figura 1

Architettura ibrida dei Data Center

(3)

In questo documento, ci occuperemo dei problemi più comuni degli ambienti periferici e di ciò che serve per progettare, assemblare, implementare e gestire un'infrastruttura robusta, in grado di garantire la disponibilità delle applicazioni critiche senza che il personale sul posto trascuri le proprie attività. Riteniamo che la risposta risieda nel disporre di un miglior ecosistema di partner, di strumenti per tutto il ciclo di vita e di una soluzione di Micro Data Center pienamente integrata.

Ecosistema di partner - provate a pensare a un'organizzazione con decine, centinaia o addirittura migliaia di centri periferici locali (a volte, più centri all'interno di una singola struttura). Come distribuire l'infrastruttura IT e di supporto in modo standardizzato, monitorare e manutenere le apparecchiature in tutti questi centri? È la collaborazione tra fornitori di apparecchiature e di servizi, integratori e utenti finali, in tutte le fasi del ciclo di vita del Data Center periferico, ad assicurare l'installazione delle giuste apparecchiature, la presenza dei giusti strumenti di gestione e la definizione dei giusti protocolli d'uso e manutenzione.

Micro Data Center integrato - questo è il sistema completo che emerge

dall'ecosistema di partner. Comprende hardware e software IT (ad es. l'infrastruttura convergente), l'hardware dell'infrastruttura fisica e gli strumenti software di

monitoraggio/gestione dell'ambiente periferico. Una soluzione efficace deve essere facile da implementare e da gestire, deve garantire che il sistema IT sia al riparo da minacce fisiche e rimanga resiliente a problemi di alimentazione e blackout durante tutto il suo ciclo di vita.

Per la maggior parte delle aziende con Data Center periferici, è costoso, inefficiente, poco pratico e inaffidabile progettare, implementare e gestire questi centri senza un approccio integrato. Secondo World Wide Technology1, un fornitore globale di soluzioni IT, la capacità di preconfigurare piattaforme e dispositivi prima della spedizione sul posto:

• riduce i costi di sviluppo in campo dal 25 al 40 percento

• aumenta la velocità di elaborazione del 20 percento

• riduce i costi di manutenzione del 7 percento

Le operazioni di selezione, configurazione, implementazione e manutenzione dell'infrastruttura IT sono sempre state problematiche.

I responsabili dei centri di edge computing, tuttavia, devono spesso affrontare l'ulteriore sfida di doverlo fare in diverse sedi in cui il personale è insufficiente o del tutto inesistente.

Lavorare con l'ecosistema giusto significa eliminare o almeno attenuare le sfide descritte di seguito.

Selezione e configurazione - scegliere e configurare i componenti dell'infrastruttura può rivelarsi complesso. Se non immediatamente identificato, un solo errore può ripercuotersi su centinaia di installazioni. Le parti dell'infrastruttura devono essere selezionate in modo che, oltre a supportare l'applicazione prevista, siano anche compatibili tra loro e adattabili alle condizioni di ogni centro locale. Questa complessità è alla base degli errori più comuni in cui ci si imbatte a livello periferico:

1 https://www.wwt.com/wp-content/uploads/2015/03/WWT_Integration_Centers_Overview.pdf, Accesso il 28 febbraio 2019

Sfide dei centri

periferici (edge)

(4)

• UPS sottodimensionato o sovradimensionato rispetto al carico IT previsto

• nessuna considerazione della ridondanza o del bypass dell'UPS (sostituzione dell'UPS senza tempi di inattività)

• Prese insufficienti (o di tipo sbagliato) su PDU in rack/UPS

• insufficienza dello spazio U nei rack o dello spazio di riserva per future espansioni

• mancata ordinazione dei kit di accessori necessari per l'installazione in rack e il cablaggio

• mancata considerazione dei vincoli di spazio per il posizionamento delle apparecchiature Implementazione - installare tutti i componenti in ogni sito può essere un'operazione

complessa per la logistica e il personale. Alcuni dei problemi più comuni includono:

• trovare lo spazio a parete per montare gli armadi

• siti non preparati a gestire la rimozione della grande quantità di materiali di scarto

• componenti che non arrivano in tempo per l'installazione

• perdita di piccoli componenti durante l'assemblaggio sul posto

• difficoltà a ottenere il necessario numero di indirizzi IP

• impianto elettrico non pronto all'installazione delle apparecchiature IT

Uso e manutenzione - i Micro Data Center remoti hanno una serie di problematiche peculiari, tra cui:

• problemi di ricerca guasti senza personale sul posto

• gestione di grandi volumi di allarmi e avvisi di cambio di stato

• nessuna possibilità di sapere se c'è un problema fino a quando non succede qualcosa

• dover trattare con più fornitori in caso di problemi

• eseguire aggiornamenti del sistema e delle patch di sicurezza

• sapere, in tempo reale, chi accede al sistema a livello locale o remoto

• standardizzare il servizio di manutenzione in tutte le sedi

Fondamentalmente, sono i numerosi siti e l'insufficienza del personale, insieme a una

crescente criticità, a rendere insostenibili le tradizionali soluzioni di implementazione e uso dei sistemi IT periferici.

Ma queste problematiche possono finalmente essere affrontate con il nuovo modello che sta emergendo. Questo paradigma si basa su standardizzazione, integrazione, collaborazione e strumenti di gestione basati su cloud. È così che nascono soluzioni integrate di Micro Data Center che includono sistemi IT preconfigurati, rack, alimentazione, raffreddamento, sicurezza (fisica e informatica) e gestione.

Un Micro Data Center efficace è il frutto di un ecosistema integrato di partner che lavorano insieme per risolvere i problemi dei centri periferici in ogni fase del loro ciclo di vita. Le sezioni che seguono spiegano come creare questo ecosistema e la soluzione di Micro Data Center risultante.

Per affrontare le numerose sfide sopra elencate e ridurre la complessità, è indispensabile creare un ecosistema integrato di partner. Questa rete collaborativa di persone e

strumenti è un nuovo modello emergente che non si è ancora affermato dappertutto. È l'utente finale che deve cercare fornitori di apparecchiature, integratori e prestatori di servizi che adottino i principi esposti in questo documento e abbiano le capacità necessarie.

Questo ecosistema dovrebbe essere incentrato sull'utente finale e sulle esigenze tecnologiche degli ambienti periferici della sua attività (Figura 2). Ogni soggetto ha una precisa serie di funzioni all'interno dell'ecosistema e insieme, oltre a creare una soluzione

Un ecosistema

integrato di

partner

(5)

completa e integrata di Micro Data Center, rendono più rapida e semplice l'implementazione e supportano meglio i processi di manutenzione. Questo è particolarmente importante per i siti non presidiati (senza personale sul posto).

Va sottolineato che, anche se nell'illustrazione compaiono cinque soggetti distinti, non è sempre così. A volte, un partner ricopre più ruoli o due partner condividono una serie di ruoli o, ancora, l'utente finale si occupa di alcune funzioni con personale IT e servizi interni. Ciò che rimane invariato sono le funzioni da svolgere e il rapporto di collaborazione da instaurare.

Senza un ecosistema di partner che lavorano insieme, diventa molto difficile fornire e gestire i Micro Data Center in modo standardizzato, prevedibile, efficiente e affidabile. Insieme, invece, è possibile affrontare i problemi di configurazione, integrazione, consegna, uso e

manutenzione.

Utente finale: comunica le esigenze aziendali

In qualità di utente finale, il vostro obiettivo è quello di rispondere alle esigenze aziendali e quindi, a seconda dei casi, migliorare l'esperienza dei clienti, aumentare i ricavi, accelerare il processo di produzione, ridurre il numero di addetti nei centri di distribuzione, migliorare la sicurezza dei pazienti e così via. Potreste avere un piano specifico per implementare le

tecnologie necessarie a raggiungere questi obiettivi oppure decidere di affidarvi a un consulente per identificare le tecnologie e le applicazioni in grado di aiutarvi. Potreste, ad esempio, voler implementare funzioni di analisi video nei punti vendita al dettaglio per ridurre le code ma, se non esiste una risorsa competente interna, la scelta dell'hardware e del software dovrebbe essere gestita da un partner. Molte delle moderne tecnologie sono strettamente integrate e questo può aumentare la complessità. L'analisi video potrebbe ad esempio collegarsi a un sistema esistente di videosorveglianza. La selezione e l'integrazione delle tecnologie richiede una profonda conoscenza delle loro interazioni e questo può essere garantito solo dalla giusta rete di partner. È anche importante che l'utente finale comunichi le condizioni di ogni sito in termini di impiego del locale, entrate/uscite, condizioni ambientali, disponibilità di energia, risorse per il raffreddamento (ad es. canalizzazioni) ed eventuali vincoli.

Fornitore IT : promuove l'interoperabilità attraverso progetti di riferimento, strumenti, API e programmi di certificazione

I fornitori IT forniscono i server, i dispositivi di storage e di rete e, naturalmente, i software necessari alle applicazioni aziendali. L'infrastruttura convergente o iperconvergente (HCI) è un approccio IT che prevede l'integrazione di server, storage, switch di rete e firewall in un unico dispositivo hardware. Questo può semplificare le operazioni di configurazione e prova che Figura 2

Ecosistema integrato di partner

(6)

prima implicavano il coinvolgimento di più persone con diverse competenze; ora basta una sola persona.

Che si tratti di HCI o meno, i fornitori IT utilizzano le loro competenze per configurare hardware e software IT in modo da renderli compatibili con quelli di altri fornitori. Il fornitore IT dovrebbe:

• disporre di un'offerta abbastanza ampia da rispondere alla maggior parte delle esigenze

• sviluppare progetti IT di riferimento basati su esperienze e applicazioni specifiche

• offrire strumenti di configurazione di facile uso per personalizzare le soluzioni in base a specifiche esigenze

• sviluppare soluzioni di infrastruttura convergenti per alleggerire il carico di lavoro degli integratori per l'installazione e la configurazione

• favorire l'interoperabilità a monte e a valle con altri fornitori di hardware e software

• sviluppare strumenti di gestione con API pubbliche, in modo che i dati siano accessibili da tutti i partner

Fornitore dell'infrastruttura fisica: semplifica l'implementazione e le operazioni attraverso strumenti di configurazione, progetti di riferimento, infrastruttura resiliente e strumenti di gestione

Il fornitore dell'infrastruttura fisica è responsabile delle apparecchiature volte a garantire la sicurezza e l'operatività del sistema IT.

Ciò include i contenitori fisici (rack) delle apparecchiature IT, l'UPS (gruppo di continuità), la distribuzione dell'alimentazione nei rack (PDU in rack), il raffreddamento, il monitoraggio ambientale (sensori di temperatura, umidità e acqua), le telecamere di sicurezza, il controllo degli accessi e il software di gestione. Il fornitore dell'infrastruttura fisica dovrebbe:

• creare strumenti di configurazione basati su regole a seconda delle esigenze dello stack IT (v. Figura 3)

• sviluppare progetti di riferimento per Micro Data Center

• conoscere gli elementi di criticità e i rischi legati ai tempi di inattività

• proporre soluzioni in grado di fornire una risposta adeguata ai requisiti di sicurezza ambientale, protezione fisica e gestione

• sviluppare strumenti di gestione con API pubbliche, in modo che i dati siano accessibili da tutti i partner

• prevedere attività offsite di integrazione e collaudo, in modo da spedire prodotti preconfigurati senza incorrere nei problemi legati a danni o garanzie

• favorire l'interoperabilità a monte e a valle con altri fornitori di hardware e software

(7)

Integratore di sistemi: aggiunge valore attraverso la completa integrazione di hardware, software e infrastruttura fisica IT

L'integratore di sistemi è un'azienda che si occupa di associare le diverse soluzioni necessarie a raggiungere l'obiettivo aziendale. Svolge un ruolo chiave nell'ecosistema, in quanto

coordinatore di tutte le parti coinvolte. L'integratore di sistemi dovrebbe:

• tradurre le esigenze aziendali in requisiti IT

• avere esperienza nel settore e nelle tecnologie che tratta

• aiutare a stabilire lo stack IT più adatto a supportare l'applicazione aziendale

• conoscere perfettamente le problematiche di integrazione dell'hardware e del software IT

• collaborare sistematicamente con i fornitori di infrastrutture IT e fisiche

• aiutare a determinare l'infrastruttura fisica IT in base ai requisiti di alimentazione, dimensioni, peso, connettività, criticità, ecc.

Esistono molte soluzioni tecnologiche di nicchia che rispondono a sfide e obiettivi di tipo specifico per l'utente finale. L'integratore non deve necessariamente essere un esperto di ogni mercato e ogni tecnologia ma deve avere vaste conoscenze e poter contare sui partner quando necessario. Prendiamo ad esempio l'implementazione di un nuovo sistema robotico, destinato a migliorare l'efficienza di movimentazione dei prodotti all'interno di in un magazzino, che prevede l'integrazione nel sistema aziendale di gestione delle scorte. Collegarsi ai sistemi back- end di gestione dati può essere un'operazione complessa. L'integratore conosce il sistema IT ma potrebbe non sapere nulla di robotica.

Provider di servizi gestiti: si occupa della gestione e della manutenzione dell'infrastruttura periferica attraverso strumenti di gestione e servizi digitali

Un provider di servizi gestiti (MSP), specializzato in IT (Information Technology) e/o OT (Operations Technology), è una società che aiuta a gestire i siti, sostituendo completamente o parzialmente il personale on-premise. I suoi servizi includono spesso il monitoraggio remoto, la manutenzione proattiva, gli interventi di riparazione e i servizi di aggiornamento.

Figura 3 Esempio di uno strumento di configurazione di soluzioni periferiche

(8)

È qui che la collaborazione diventa fondamentale. I fornitori delle infrastrutture IT, OT e fisiche devono offrire soluzioni di gestione con API aperte, a cui il provider di servizi gestiti possa collegarsi senza problemi. I provider di servizi gestiti diventano gli occhi e le orecchie dei Micro Data Center. Implementano i servizi digitali offerti dai fornitori. In questo ecosistema, tutti i soggetti devono essere in grado di accedere esattamente agli stessi dati, nello stesso momento. Uno dei partner potrebbe dover risolvere il problema, il provider di servizi gestiti potrebbe doversi recare sul posto per le riparazioni; è quindi importante che tutti lavorino dallo stesso set di dati. La gestione basata su cloud proposta dai fornitori assicura la visibilità e la connettività dell'intero ecosistema. Ciò viene discusso in maniera più dettagliata nella sezione seguente.

Quando l'ecosistema funziona correttamente, le soluzioni integrate di Micro Data Center sono efficaci (come illustrato nella Figura 4). Trattandosi essenzialmente un completo "Data Center in rack", l'infrastruttura fisica e i sistemi IT vengono preconfigurati, collaudati e magari

installati nel rack prima della consegna sul posto. Ciò semplifica l'implementazione riducendo gli errori, i lavori sul posto e le interruzioni delle attività aziendali. Una soluzione efficace migliora le operazioni consentendo ai provider di servizi gestiti di ottimizzare le capacità di gestione e servizio a distanza.

Sono tre gli elementi chiave di una soluzione efficace per i Micro Data Center. I dettagli sono riportati di seguito.

1. Preconfigurazione e collaudo

In una soluzione preconfigurata, parti e componenti sono stati progettati dal costruttore e convalidati dall'integratore per lavorare insieme. Ciò minimizza gli inevitabili errori di selezione dei singoli componenti. Consente di risparmiare tempo ed elimina le congetture associate alla progettazione da zero. Quando un sistema è collaudato significa, in genere, che è già stato costruito. Il fornitore o l'integratore di sistemi si limita a metterlo in servizio e a provare il Micro Data Center per assicurarsi che tutto funzioni a dovere.

Le soluzioni preconfigurate e messe in servizio riducono o prevengono l'insorgere di problemi sul posto, consentendo di risparmiare tempo ed evitare rifacimenti. La nostra esperienza con i Data Center prefabbricati dimostra che è possibile ridurre di circa il 50% i tempi di progettazione e sviluppo, come documentato nel White Paper 163, Benefits and Drawbacks of Prefabricated Modules for Data Centers.

Il prodotto

dell'ecosistema

Figura 4

Esempio di Micro Data Center completamente integrato

(9)

I fornitori dovrebbero offrire strumenti di configurazione basati su regole che consentano ai partner e agli utenti finali di risparmiare tempo nella progettazione dei Micro Data Center. Nello specifico, questi strumenti consentono agli utenti di selezionare e configurare i Micro Data Center in modi altamente personalizzabili ma con la certezza che le varie apparecchiature siano compatibili (ad es. compatibilità tra PDU in rack e UPS). Un altro modo è quello di ricorrere ai progetti di riferimento.

Si tratta di soluzioni ben definite per un determinato stack IT (ad es. una specifica soluzione di infrastruttura iperconvergente) che includono sintesi del progetto, distinta dei materiali, altezza dei rack, linee elettriche e disposizione a pavimento. Questi strumenti possono semplificare e velocizzare le fasi di pianificazione e sviluppo di un sistema IT periferico e distribuito. I progetti di riferimento sono spesso integrati nello strumento di configurazione del fornitore e

rappresentano un ottimo punto di partenza per sviluppare l'applicazione aziendale.

2. Inclusione dell'infrastruttura necessaria a mantenere la resilienza del sistema IT I Micro Data Center dovrebbero includere tutta l'infrastruttura fisica necessaria a supportare, alimentare, raffreddare, proteggere e monitorare le apparecchiature IT. Questi elementi tendono ad essere altamente standardizzati e quindi facilmente adattabili alle diverse esigenze.

Un efficace strumento di configurazione basato su regole consente di selezionare le dimensioni, la quantità e i livelli di ridondanza di ogni componente, per garantirne la compatibilità all'interno del sistema. Quello che segue è un elenco dei principali sottosistemi:

Armadio rack - contiene e protegge le apparecchiature IT e l'infrastruttura di supporto.

I rack dovrebbero poter essere spediti a destinazione completamente assemblati, con tutte le apparecchiature preinstallate al loro interno. Ciò richiede un "imballaggio a prova d'urto" per carichi pesanti, in grado di proteggere i dispositivi IT sensibili.

Unità di distribuzione dell'alimentazione del rack (PDU in rack) - distribuisce e controlla l'alimentazione CA delle singole apparecchiature IT. Se la gestione delle singole prese non è necessaria e l'UPS è correttamente configurato in termini di prese e tensione di uscita, le PDU in rack potrebbero non servire. Le PDU in rack potrebbero non servire anche quando l'UPS è cablato.

Tenere presente che alcuni UPS prevedono il monitoraggio delle prese.

Gruppo di continuità (UPS) - assicura l'alimentazione di emergenza a batteria, la regolazione della tensione e la protezione dalle sovratensioni per garantire la continuità di servizio delle apparecchiature IT, a prescindere da ciò che accade alla rete elettrica. Considerata la criticità del sistema IT, un UPS è consigliabile anche quando è presente un generatore di riserva. Per evitare l'interruzione di carichi e processi particolarmente critici, alcuni utenti dispongono di un interruttore di bypass per sostituire l'UPS. In alcuni casi, gli utenti dispongono di due percorsi di alimentazione delle apparecchiature IT e/o utilizzano due UPS per garantire la ridondanza in caso di guasto o manutenzione.

Unità di raffreddamento attivo o passivo - assicurano che le apparecchiature IT non si spengano a causa del surriscaldamento. I sistemi passivi includono le funzioni di ventilazione del rack stesso e le ventole che aiutano a estrarre il calore dissipato dall'armadio in un plenum di ritorno o in un sistema di canalizzazione. Per ambienti ad alta densità, potrebbero essere necessari sistemi di raffreddamento attivi. Ciò può essere ottenuto con condizionatori d'aria per sale computer (CRAC) a espansione diretta, sistemi di raffreddamento "mini -split" aggiuntivi o addirittura unità di trattamento dell'aria con acqua refrigerata (a condizione che sia presente un chiller per dissipare il calore).

Vedere il White Paper 68, Strategie di raffreddamento per armadi di cablaggio IT e sale di dimensioni limitate.Per la maggior parte delle installazioni a rack singolo è sufficiente un sistema passivo.

Sicurezza e monitoraggio ambientale - sistema che include telecamere, serrature e sensori per il monitoraggio e la protezione del Micro Data Center dalle minacce ambientali.

La natura critica dei sistemi IT e la mancanza di personale sul posto rende questa

(10)

soluzione particolarmente importante. Ciò è ancora più vero se si pensa ai sempre più rigorosi requisiti di sicurezza di normative come GDPR, HIPPA e PCI.

3. Utilizzo di API aperte e strumenti di gestione software su cloud

La gestione del software è fondamentale per i provider di servizi gestiti e i team operativi.

Questi strumenti sono necessari per garantire la visibilità e il controllo da remoto. Tuttavia, quando i siti sono numerosi e non si dispone di personale specializzato sul posto, è necessario un approccio diverso rispetto ai tradizionali software su licenza comunemente utilizzati per la gestione delle infrastrutture di sistemi IT e Data Center on -premise. Ora sono emerse nuove suite software che offrono API aperte e si avvalgono di tecnologie basate su cloud, IoT, analisi dei dati e intelligenza artificiale. Questi nuovi strumenti sono ciò che collega i membri dell'ecosistema alla fase operativa del Micro Data Center. Queste nuove funzionalità e i provider di servizi gestiti che le utilizzano aumentano il personale di cui l'utente finale può disporre, assicurando la visibilità a distanza e il controllo proattivo di tutti gli asset del Micro Data Center. Questi nuovi strumenti aiutano a risolvere le sfide operative dei sistemi IT distribuiti e periferici nei seguenti modi :

• Software su cloud - consente scalabilità illimitata e manutenzione automatica. Patch di sicurezza e correzioni degli errori, ad esempio, possono essere implementate

automaticamente e in remoto dai fornitori dell'ecosistema, senza intervento del personale interno.

• API aperte - consentono ai provider di servizi gestiti di acquisire i dati del sistema nei loro strumenti di monitoraggio e gestione a distanza (RMM), per disporre di una vista completa degli stack IT e infrastrutturali da un'unica posizione.

• Servizi digitali - collegano tra loro provider di servizi gestiti e fornitori di infrastrutture per ottimizzare la manutenzione. Le operazioni di manutenzione proattiva e sostituzione dei componenti, ad esempio, potrebbero avvenire anche prima che il sito si accorga che c'è un problema.

• Tecnologie basate su analisi dei dati e intelligenza artificiale - diversamente dagli strumenti tradizionali, forniscono ai provider di servizi gestiti informazioni realmente utilizzabili. L'intelligenza artificiale, ad esempio, potrebbe prevedere con largo anticipo la necessità di sostituire una batteria e ottimizzare la pianificazione degli interventi. Ciò è particolarmente utile nella gestione dei siti geograficamente distribuiti, in quanto i lavori possono essere programmati a costi inferiori rispetto a quelli che avrebbero in situazioni di emergenza.

• Gestione di allarmi e notifiche - fondamentale nella ricerca delle cause alla radice dei problemi o per stabilire quali allarmi o dispositivi sono più critici e richiedono attenzione.

Una catena di negozi al dettaglio, ad esempio, può avere migliaia di UPS distribuiti in tutto il paese. Il responsabile dovrebbe gestire centinaia di migliaia di punti dati e notifiche di cambio di stato. In questo modo, sarebbe facile perdere di vista gli allarmi critici o essere tempestati di allarmi di cui non si conosce la ragione. Con strumenti software efficaci, invece, l'attenzione del responsabile verrebbe richiamata solo sulle unità UPS che hanno effettivamente bisogno di attenzione o sull'allarme alla base di una "cascata di allarmi".

La combinazione di questi strumenti contribuisce a mantenere la visibilità e il controllo su tutti gli asset periferici, assicurando la necessaria resilienza di questi centri.

E diventa possibile la gestione completamente in remoto o quasi dei sistemi IT. Per ulteriori informazioni sulle funzionalità dei moderni strumenti di monitoraggio remoto, vedere il White Paper 237, Il Monitoraggio Remoto Digitale: come cambia la gestione e la manutenzione dei Data Center

(11)

Nei moderni Data Center ad architettura ibrida, la periferia della rete richiede la stessa elevata resilienza dei Data Center centralizzati o su cloud. Ma ci sono due importanti differenze: (1) in genere, i siti periferici non dispongono di personale addestrato sul posto; e (2) possono essere numerosi. Questo crea una serie di problematiche specifiche che impongono di pensare in modo olistico e collaborativo quando si tratta di distribuire il sistema IT.

Riteniamo che la risposta più adatta sia un ecosistema collaborativo di fornitori e partner.

Ciò consente all'utente finale di disporre di personale aggiuntivo per tutto il ciclo di vita dei centri - configurazione, assemblaggio e consegna, uso e manutenzione - assicurando una resilienza economicamente conveniente.

Con il giusto ecosistema, è possibile creare un Micro Data Center completamente integrato che include IT, infrastruttura fisica e strumenti di gestione. Quando si pianifica la distribuzione IT in ambienti periferici, ci sono tre importanti regole da seguire:

• Scegliere fornitori che offrono strumenti di configurazione online basati su regole e progetti di riferimento, per semplificare e accelerare la selezione e la configurazione, garantire l'interoperabilità con sistemi di terze parti e disporre di soluzioni resilienti che consentano la gestione di siti geograficamente distanti.

• Scegliere integratori di sistemi in grado di creare e consegnare Micro Data Center completamente assemblati e collaudati. Ciò assicura l'ottimizzazione delle risorse e riduce il rischio di errori che possono causare ritardi e tempi di inattività.

• Scegliere provider di servizi gestiti che possono collegarsi agli strumenti di gestione su cloud e ai servizi digitali dei fornitori, in modo da avere la necessaria visibilità e il controllo dei numerosi asset di un sistema IT distribuito.

Informazioni sugli autori

Patrick Donovan è Senior Research Analyst per il Data Center Science Center di Schneider Electric. Vanta un'esperienza ultraventennale nello sviluppo e nel supporto dei sistemi critici di alimentazione e raffreddamento per l'unità operativa IT di Schneider Electric; ha realizzato, inoltre, diverse soluzioni premiate per la disponibilità, l'efficienza e la protezione dell'alimentazione. Autore di numerosi white paper, articoli di settore e valutazioni tecniche, le sue ricerche sulle tecnologie e sui mercati delle infrastrutture fisiche per Data Center rappresentano un guida preziosa sui migliori standard in materia di pianificazione, progettazione e gestione delle strutture dei Data Center.

Wendy Torell è Senior Research Analyst presso il Data Center Science Center di Schneider Electric. In questa veste, si occupa di individuare le best practice di progettazione e gestione dei Data Center, pubblica white paper e articoli e sviluppa TradeOff Tools per aiutare i clienti a ottimizzare disponibilità, efficienza e costi dei loro Data Center. Inoltre, fornisce consulenze su standard progettuali e approcci scientifici alla disponibilità per l'attuazione degli obiettivi di rendimento dei Data Center. Ha conseguito il diploma di laurea in ingegneria meccanica presso lo Union College di Schenectady (NY) e un MBA della University of Rhode Island. Wendy è un ingegnere affidabilista certificato ASQ.

Conclusioni

VOTA QUESTO WHITE PAPER 

(12)

White Paper 256

La ridefinizione di resilienza nell’Edge Computing.

Contattaci

Per formulare pareri e commenti sul contenuto di questo White Paper:

Data Center Science Center dcsc@schneider-electric.com

Per formulare richieste specifiche sulla progettazione dei Data Center:

Rivolgersi al rappresentante Schneider Electric all'indirizzo

www.apc.com/support/contact/index.cfm White Paper 68

Strategie di raffreddamento per armadi di cablaggio IT e sale di dimensioni limitate

White Paper 237

Il Monitoraggio Remoto Digitale: come cambia la gestione e la manutenzione dei Data Center

Sfoglia tutti White Paper

whitepapers.apc.com

Sfoglia tutti i TradeOff Tools™ tools.apc.com

Risorse

© 2019 Schneider Electric. Tutti i diritti riservati.

Riferimenti

Documenti correlati

Activision potrà modificare e aggiornare (o chiedere all'utente di aggiornare) il Programma, i Servizi online o i Contenuti forniti dal servizio senza preavviso al fine di

X, effettuando in trenta episodi distinti nel periodo compreso tra il (OMISSIS) e il (OMISSIS) l'inserimento nell'apposita apparecchiatura della scheda magnetica,

Durante il periodo di accesso al Servizio MCE come indicato in un ordine ("Durata del Servizio MCE"), MicroStrategy concede al Cliente e ai suoi consociati un diritto non

2.8 Il Cliente riconosce che il Servizio si basa su una tecnologia in continua evoluzione, per cui accetta che ENGSOFT SRL apporti delle modifiche alle caratteristiche tecniche ed

L'Utente finale può: (i) installare e utilizzare ciascuna copia o Istanza del Software su un singolo Processore designato o Server per ciascun Utente identificato autorizzato

Per questo motivo recentemente il paradigma Edge Computing è stato proposto come nuovo approccio per la creazione di soluzioni, in cui i dispositivi posti alla frontiera della

Se il Cliente userà un Prodotto al di fuori del campo della licenza che ha per questo Prodotto, MicroStrategy avrà il diritto di fatturare il Cliente e il Cliente deve pagare

sede.bruxelles@unioncamere-europa.eu Lo stato dell’arte dell’apprendistato europeo: il database del Cedefop Recente il lancio, da parte del Centro eu- ropeo per lo sviluppo