• Non ci sono risultati.

AI fatta bene: Con una base solida, tutti possono completare con successo un viaggio, nessuno escluso

N/A
N/A
Protected

Academic year: 2022

Condividi "AI fatta bene: Con una base solida, tutti possono completare con successo un viaggio, nessuno escluso"

Copied!
11
0
0

Testo completo

(1)

Con una base solida, tutti possono completare con successo un

viaggio, nessuno escluso

Come il modello AI Data-Train-Inference di IBM crea

i presupposti per il successo a lungo termine dell’azienda

(2)

In che modo tale conoscenza avrebbe un impatto sui processi aziendali e sulle applicazioni su cui si basa l’organizzazione per rimanere

competitiva?

L’AI aziendale è stata tradizionalmente al centro dell’attenzione da parte di esperti di analisi con una profonda conoscenza della costruzione e dell’addestramento dei modelli. Ma tutto ciò sta cambiando man mano che le iniziative basate sull’AI si estendono a tutta l’azienda. E in prima linea in questo cambiamento c’è un framework

Panoramica

Cosa accadrebbe se si scoprisse che non è necessario un background di data

science per comprendere, interpretare e agire sugli aspetti più complicati dell’AI aziendale?

Train

Data Inference

basato sul valore per le iniziative di AI. Si chiama modello AI Data-Train-Inference (DTI) e

spiegarlo è l’obiettivo di questo documento.

Prima di entrare nelle specifiche, è importante sapere che il modello DTI non è un workflow lineare. È invece un circuito continuo costituito da tre fasi che interagiscono in ogni momento.

E poiché il processo è costante, le informazioni estratte sono più ricche e più preziose.

Il risultato? Le parti direttamente interessate possono prendere decisioni più intelligenti con più rapidità e maggiore sicurezza.

Il modello AI Data-Train-Inference (DTI)

(3)

Delle tre fasi, gli esperti di AI indicano la fase dei dati come la più dispendiosa in termini di tempo.

La quantità di lavoro richiesta per preparare i dati esistenti per l’“ingestione”, il termine usato comunemente per il caricamento dei dati in un modello AI per l’addestramento, è intensiva.

Come dice il vecchio proverbio, “garbage in means garbage out” ossia se inserisci

spazzatura, otterrai spazzatura. Questo è più vero che mai nel regno dell’AI. Partendo da dati discutibili in termini di qualità, attendibilità o quantità, si creeranno modelli AI discutibili che generano risultati dubbi per l’azienda. Se non si comincia da una base di dati solida i progetti AI partiranno col piede sbagliato e andranno sempre peggio.

“Dati discutibili in termini di qualità, attendibilità

o quantità creeranno modelli AI discutibili che generano risultati dubbi per l’azienda.”

Fase 1:

Lo sapevi?

Le vaste ondate di dati che permeano il nostro mondo, insieme alle capacità in rapido aumento della nostra infrastruttura di server, hanno innescato la rivoluzione dell’AI nell’ultimo decennio.

I dati utilizzati per l’addestramento dell’AI provengono da ogni sorta di fonti diverse.

Queste possono essere fonti familiari e ben comprese, come vendite precedenti o numeri relativi ai clienti ottenute dal data warehouse aziendale esistente. Possono anche provenire in tempo reale da fonti come i dispositivi IOT (Internet of Things)

“at the edge” o da altri flussi di dati Internet, come Twitter.

Train

Data Inference

Data

(4)

Prima verità: i dati provengono da molte fonti diverse.

Possono essere in qualsiasi formato non elaborato come testo, immagine, suono o valori numerici non elaborati. I team di data science impiegano enormi quantità di tempo ad acquisire dati, quindi a ripulirli e convertirli in formati corretti per essere utilizzati da strutture definite e portati nell’ambiente. Questi sono passaggi importanti. L’analisi e l’identificazione di caratteristiche specifiche dei set di dati sono importanti per i modelli, che influenzano i risultati i quali a loro volta determinano il valore aziendale.

Seconda verità: molti dati possono essere una benedizione e una maledizione. I dati all’interno dell’azienda sono spesso frammentati o risiedono in luoghi diversi. Conclusioni scientifiche esatte spesso derivano dalla somma di diverse fonti diverse, ma la duplicazione può portare a risultati imprevisti e negativi.

Le quattro verità riguardo ai dati

Terza verità: la tempestività dei dati è fondamentale.

Con le condizioni di base che cambiano rapidamente, i modelli AI devono essere alimentati con dati aggiornati per continuare a portare avanti il valore aziendale. Senza dati aggiornati, il valore del modello ne risentirà.

I modelli sono “freschi” solo il giorno in cui i dati di base sono stati portati in produzione e devono essere costantemente aggiornati con nuovi dati. Ciò indica la natura ciclica di questa fase in sé e dell’intero modello Data-Train-Inference. Per mantenere la rilevanza, è necessario predisporre un piano per aggiornare continuamente i set di dati di base per i modelli di addestramento.

Quarta verità: lo spostamento di enormi quantità di dati nel data center richiede un’infrastruttura di elaborazione unica. Senza la giusta infrastruttura per questa attività, il workflow dell’AI subisce rallentamenti in termini di velocità di trasmissione e prestazioni prima ancora di aver raggiunto la fase più impegnativa: l’addestramento.

Quindi? Dati puliti, pertinenti e aggiornati sono fondamentali per ottenere informazioni utili preziose.

Tutto questo lavoro viene prima ancora di pensare di avviare il primo carico di lavoro di addestramento.

(5)

L’addestramento è la fase del workflow dell’AI che la maggior parte di coloro che non sono data scientist considerano quando sentono parlare dei carichi di lavoro AI. Questa non è una visione del tutto inesatta. L’addestramento è dove avviene la magia dell’artificial

intelligence, dove i dati diventano modelli AI.

Senza addentrarsi nella teoria alla base del machine learning, del deep learning e dell’artificial intelligence, l’addestramento può essere sintetizzato come un processo iterativo in cui i dati della fase precedente vengono utilizzati per creare modelli. E quei modelli generano previsioni future su dati simili nel mondo reale. Solo negli ultimi 10 anni è stato possibile risolvere problemi in questo modo, grazie all’avvento di unità di elaborazione grafica o GPU (Graphics Processing Units).

I server che utilizzano sia le unità di

elaborazione centrale (CPU) sia queste nuove GPU sono considerati “accelerati”. Poiché i data center tradizionalmente incentrati sulla CPU si stanno facendo carico di più carichi di lavoro AI, è necessario potenziare il data center dotandolo di server basati su acceleratori.

Questa maggiore potenza di elaborazione comporta anche un più elevato costo delle risorse. Ecco perché la corretta allocazione di queste costose risorse è fondamentale.

Un’allocazione errata può condannare il progetto AI a un rapido fallimento.

“L’addestramento è dove avviene la magia

dell’artificial intelligence, dove i dati diventano

modelli AI.”

Train

Data Inference

Fase 2:

Train

(6)

Anche in condizioni ideali, l’addestramento di un solo modello potrebbe richiedere giorni, settimane o addirittura mesi. Inoltre, i modelli ordinari vengono in genere addestrati da cinque a sei volte prima di essere messi in produzione.

Accelerare le prestazioni per l’addestramento di un modello è di inestimabile valore, ma è necessaria una combinazione di velocità e precisione per promuovere il valore associato ai tempi di immissione nel mercato.

Una delle attività più dispendiose in termini di tempo nel flusso di addestramento è l’impostazione e la reimpostazione di

iperparametri per i modelli. Gli iperparametri sono valori che il data scientist sceglie per il modello prima dell’inizio dell’addestramento.

I modelli moderni possono averne centinaia.

Il processo iterativo di impostazione e

reimpostazione può richiedere ore, anche con modelli che utilizzano set di dati di esempio.

L’automazione delle ricerche di iperparametri e l’esecuzione di queste ricerche in parallelo possono far risparmiare settimane o addirittura mesi ai data scientist e ridurre i tempi di

raggiungimento dei risultati e della precisione.

La necessità di velocità (e precisione)

“Accelerare le prestazioni per l’addestramento di un modello è di inestimabile valore, ma è necessaria una combinazione di velocità e precisione per promuovere il valore associato ai tempi di immissione nel mercato.

Lo sapevi?

Giorni, settimane o mesi potrebbero essere sprecati se il data scientist che lavora sul modello non è in grado di determinare in anticipo il successo dei parametri del modello.

Strumenti come la visualizzazione dell’addestramento consentono ai data scientist di vedere il progresso dell’addestramento e avvisare che l’addestramento non sta convergendo.

I team addetti ai dati possono interrompere il processo, regolare nuovamente i parametri e riavviare il processo entro le prime ore dell’addestramento, anziché attendere fino alla fine per vedere il risultato negativo.

(7)

“Un conflitto secolare”

A differenza del codice tradizionale, i modelli AI si discostano dai dati di base nel tempo se non sono ri-addestrati su dati aggiornati. Pertanto, qualsiasi modello esistente deve essere costantemente riqualificato per conservare la rilevanza e l’utilità.

Tuttavia, occorre anche essere in grado di attuare e promuovere rapidamente nuovi modelli in produzione.

Ciò pone i leader IT al centro di un conflitto secolare sull’allocazione delle risorse. Alcuni carichi di lavoro o tenant sono più importanti di altri. In alternativa, sono soggetti ad accordi sul livello dei servizi (SLA) più aggressivi. Ciò dovrebbe riflettersi nel livello di pianificazione delle risorse. Un programma di pianificazione più veloce e più efficiente aiuta a raggiungere più rapidamente i livelli di precisione del modello rilevanti per l’azienda.

In mancanza di ciò, ne consegue il caos. Ogni data scientist o progetto è confinato in una scatola,

creando in definitiva un silo di elaborazione. Ciò limita l’utente a una singola macchina che non può essere estesa oltre.

Si verifica anche uno spreco di risorse quando quel singolo utente non utilizza la macchina.

La condivisione equa e la pianificazione basata sulle priorità supporta la condivisione dinamica delle risorse della GPU tra più processi di addestramento.

Inoltre, consente il diritto di opzione e recupero delle GPU senza sopprimere alcun processo. Ciò mantiene produttivi i costosi team di data science;

nessuno sarà bloccato o privo di risorse GPU. Al contrario, si potrà continuare a utilizzare quelle risorse costose e a massimizzarne l’utilizzo grazie all’elasticità di scambiare GPU da un carico di lavoro a un altro.

La consapevolezza della natura preziosa delle risorse di addestramento e lo sforzo necessario per garantire il successo in questa fase produrranno il risultato finale: un modello che produce valore per l’azienda. Tuttavia, il processo non finisce al termine del modello. Ora deve essere implementato.

(8)

Nell’AI, l’implementazione nella produzione è la fase in cui è possibile ottenere informazioni utili dal modello. Ciò è noto come inferenza (che alcuni chiamano anche punteggio o

“scoring”). Questa è la fase in cui si concretizza il valore del deep learning e dove è possibile esaminare concetti di AI più avanzati, come la possibilità di spiegare e le metriche di equità.

La fase dell’inferenza è in realtà la somma di tutte le fasi precedenti. Se i dati erano errati o l’addestramento era inadeguato, l’inferenza ne risentirà. Senza una corretta inferenza, tutti gli sforzi precedenti sono inutili.

La sfida principale in questa fase è diversa dalla fase di addestramento. Mentre l’addestramento può avvenire in più cicli, richiedendo giorni o settimane di tempo del progetto, l’inferenza è spesso un processo secondario che richiede informazioni rapide e accurate.

“La fase dell’inferenza è in realtà la somma di tutte le fasi precedenti.

Senza una corretta

inferenza, tutti gli sforzi precedenti sono inutili.”

Train

Data Inference

Fase 3:

Inference

(9)

Un esempio di inferenza in azione

Si consideri un processore dei pagamenti che abbia addestrato un modello per rilevare le frodi che si verificano nelle transazioni dei consumatori sulla piattaforma. I clienti non tollereranno indebiti ritardi nell’elaborazione dei pagamenti. Pertanto, il processore deve inserire uno SLA secondario nelle informazioni del modello AI per garantire che ogni transazione proceda senza intoppi e che l’esperienza dei clienti non sia influenzata dal controllo antifrode.

Per risolvere questi problemi, anche l’hardware di base deve essere diverso. Mentre l’addestramento viene svolto a livello centrale nei data center, l’inferenza viene generalmente eseguita “at the edge”, su dispositivi come ad esempio gli smartphone, o “near-edge”.

Un esempio di scenario “near-edge” è un piccolo server rack in esecuzione in un negozio al dettaglio.

In particolare, il server sta generando informazioni utili in tempo reale sulle transazioni dei clienti o sui feed video nel negozio.

Con una pianificazione e un’allocazione adeguate delle risorse, è possibile estrarre più rapidamente informazioni utili dai modelli. Con una strategia di scalabilità continua, è possibile scalare rapidamente le esigenze di inferenza a livello locale o “at the edge” per gestire la domanda.

Analogamente alla fase di addestramento, la capacità di spostare in modo elastico attività di inferenza in un pool di risorse comuni può aiutare a soddisfare SLA aggressivi.

Come indicato dal circuito a frecce nel framework DTI, i dati acquisiti nel mondo reale tramite inferenza vengono reimmessi nel workflow nella fase dei dati. Questa azione ciclica migliora costantemente la precisione del modello poiché vengono applicati dati di base più approfonditi e più freschi. E così, il ciclo ricomincia.

(10)

In ogni fase del workflow dell’AI, per avere successo è necessario disporre della giusta combinazione di persone, processi e

infrastruttura (sia hardware che software).

Questi sono i componenti fondamentali per costruire una base solida, la chiave per implementare l’AI in tutta l’azienda.

IBM® dispone di un’infrastruttura AI che si adatta alle mutevoli priorità aziendali, in modo che l’organizzazione raggiunga gli obiettivi prefissati in ogni fase del percorso AI. E IBM Power Systems fornisce

l’infrastruttura AI aziendale leader del settore, appositamente progettata per machine learning, deep learning e inferenza.

Così equipaggiati è possibile:

Tutti questi vantaggi sono garantiti dalla comprovata sicurezza di Power Systems, che integra perfettamente framework open source garantiti da IBM.

L’AI fatta bene paga enormi dividendi. Ora che sapete cosa serve per tracciare un percorso all’insegna dell’AI che porti sempre al successo, rimane solo una domanda:

Promuovere idee e funzionalità innovative nell’azienda.

Aumentare la sicurezza nelle decisioni aziendali su vasta scala.

Utilizzare al meglio persone, processi e processori, con una soluzione progettata per crescere con l’organizzazione.

Ottenere risultati significativi più rapidamente con la massima velocità di trasmissione dati del settore e grazie alla ricerca IBM, rimanendo all’avanguardia della tecnologia AI.

Composizione del modello

Visitate:

ibm.biz/EnterpriseAI

Siete pronti per cominciare?

(11)

essere marchi di IBM o di altre aziende. La lista aggiornata dei marchi registrati di IBM è disponibile sul sito www.ibm.com/legal/copytrade.shtml alla voce “Copyright and trademark information”.

74027174-ITIT-00

Riferimenti

Documenti correlati

8.2 P-Learning non potrà essere ritenuta responsabile in caso di malfunzionamenti che dovessero interrompere la fruibilità del corso acquistato. In tale caso P

https://corsi.p-learning.com/; in questo caso l’attivazione dei corsi verrà fatta su richiesta dell’abbonato che dovrà inviare una mail

The rest of the thesis is organized as follows: in chapter 2, we briefly describe the most important elements of CNNs, well-known architectures and also the training process of

Sapienza University of Rome, Italy - Machine Learning (2020/2021). Example:

Embedding Nearest Neighbors of Words

This has created fertile ground for the application of Machine Learning techniques typically used in different fields of science, such as engineering, by combining them with

The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine

Per lo più dei tre criteri viene utilizzato Nearest Neighbour poiché tale criterio permette di valutare le distanze da ogni dato nello spazio dei parametri a tutti i nodi chiusi