Che materia stai cercando?

Sistemi informativi a supporto delle decisioni aziendali

Appunti di Sistemi informativi a supporto delle decisioni aziendali basati su appunti personali del publisher presi alle lezioni della prof. Frigerio dell’università degli Studi Cattolica del Sacro Cuore - Milano Unicatt. Scarica il file in formato PDF!

Esame di Sistemi informativi a supporto delle decisioni aziendali docente Prof. C. Frigerio

Anteprima

ESTRATTO DOCUMENTO

La multicanalità è permettere ai clienti di scegliere su quale canale svolgere l’ETFS (ad esempio può fare la

transazione tramite sportello, posta, web…). Il concetto principale è che il cliente sceglie la sua opzione

preferita. Le frecce nere rappresentano i possibili percorsi che il cliente può scegliere. Tali percorsi poi

forniscono informazioni all’azienda riguardo i clienti e le loro abitudini. Quindi l’ETFS ci permette di vedere

le opzioni e la multicanalità offerta dalla nostra azienda, ma mi permette anche di visualizzare i canali dove

passano i dati (frecce nere).

Un esempio di engage (chi lavora nel marketing deve trovare nuovi segmenti di clientela e fare sì che

tornino): Tipicamente un’impresa che riesce a fidelizzare il 90%

dei clienti ha una buona performance in termini di ETFS.

Un’impresa che riesce ad attirare il 10% dei nuovi clienti

è una buona impresa in termini di marketing.

Riassumendo: la raccolta dati da sola è solo un costo per l’impresa (corrente elettrica, hardware,

software) allora si investe in DSS che ci permette di risalire dal piano dei dati al piano delle informazioni.

Al terzo piano ci sono gli umani che si scambiano conoscenza.

Cos’è un sistema informativo? Un insieme di assets, di elementi, che permettono di elaborare dati per la

produzione di informazioni. Il dato è una parte elementare, mentre l’informazione è una elaborazione del

dato. La conoscenza è data dalle informazioni + esperienza.

Gli assets che compongono i sistemi informativi sono:

- Le tecnologie. Insieme di hardware (i computer), reti, software (programmi, applicazioni che sono

quegli oggetti che elaborano le informazioni, quindi fanno in modo che i dati si trasformino in

elaborazioni). La parte più importante del sistema informativo è il software: è il brain, il core

tecnologico, è la capacità elaborativa del computer. Abbiamo software di base, cioè Android, cioè i

software che fanno funzionare l’hardware; quelli operativi servono invece per elaborare gli altri

software

- Persone. Chi sono le persone in un sistema informativo? Sono gli utenti, cioè coloro che

interagiscono col sistema, richiedendogli di fare operazioni, inserendo dati. L’utente è il ruolo

fondamentale: può essere operativo-amministrativo (il ragioniere che fa la fattura) e decisionale

(amm. delegato, direttore marketing, ecc.).

L’informatica parla in modo diverso a seconda degli utenti con cui si interfaccia: avremo applicazioni

semplici vs complesse; standard vs dinamiche; ecc. Ruolo cruciale è rappresentato dai progettisti di area IT,

i quali definiscono l’obiettivo del sistema e lo realizzano. Sino a qualche anno fa, il mondo dell’utente e

quello del programmatore/progettista erano molto separati: questi ultimi erano tutti diplomati o laureati in

informatica, possedevano linguaggio di programmazione tecnico, erano lontani dalle persone normali

anche fisicamente. Ora, sempre più, utente e sviluppatore/programmatore si stanno avvicinando non è

più necessario avere competenze altamente informatica. Ma perché? Il software si sviluppa partendo dalle

interfacce, il codice si auto-genera l’informatica ha messo nelle mani dell’utente la possibilità di generare

del software (pensiamo al blog quando creo il blog, il software è creato dall’ambiente di sviluppo)

l’utente è autonomo nella programmazione e nella progettazione. Ad es. i sistemi decisionali aziendali sono

molto basati su logiche e statistiche: è sempre più sviluppata la possibilità per l’utente (di area marketing,

ecc.) di svilupparsi i propri report non deve più andare a chiedere all’IT di sviluppare il report. Altro

esempio è Excel: è un software aperto, in cui l’utente programma e progetta autonomamente

Sistemi informativi direzionali, poiché gli utenti sono orientati alla parte direzionale gli assets di cui sopra

hanno valore immateriale. Le caratteristiche del valore sono:

 Soggettività. I decisori sono tutti uguali? Pensiamo ai decisori in azienda: sono i top manager e gli

amm. delegati, che prendono decisioni strategiche, prendono decisioni sulle divisioni, ecc.; sono i

middle manager, responsabili delle diverse caselline. Essi non sono necessariamente al vertice,

perché prendono decisioni più operative che tattiche, e stanno a capo delle unità che stanno alla

base della piramide. Un esempio di decisione strategica del board è come allocare le risorse alle

varie unità (di solito si fa due volte all’anno o una volta al mese) è una decisione strategica

poiché è di medio lungo periodo, perché riguarda l’impresa nella sua totalità o quasi e impatta su

più divisioni, perché per prenderla c’è bisogno di più conoscenza quindi i decisori devono possedere

info ampie e complesse. Il rischio è ovviamente più alto in caso di decisione strategica dato che il

livello di incertezza è alto.

Facciamo un esempio di decisione operativa: ogni area è a sé stante; pensiamo all’area marketing qual è

la campagna da realizzare per quel dato prodotto; quanti venditori ho (area sales).

Pensiamo a decisioni tattiche sull’area programmazione e controllo: reporting, analisi scostamenti,

andamento quindi se siamo dentro o fuori ai limiti di budget

 Temporaneità. L’informazione per l’utente decisore è cruciale a livello temporale, perché la

decisione deve essere presa né troppo prima né troppo dopo quando devo creare l’informazione

che mi serve? Quando devo aggiornarla? Se sono un direttore marketing che deve fare up selling o

pro selling di un prodotto, e devo fare analisi sui clienti, quale aggiornamento richiederei al mio

sistema? Voglio avere la mia base clienti adesso? Voglio conoscere la base clienti a un mese fa? In

un mondo digitale, il digitale sta portando tutto al real time: fatte 100 info aziendali, quante sono

real time? Difficile dirlo, ma possiamo affermare che se sono Google allora tutte 100 sono real

time; se sono azienda e-commerce allora 90 su 100; se sono ATM quindi azienda di pubblica

amministrazione, il patrimonio informativo real time sarà 30 su 100, perché in generale tutto è

aggiornato a T-1, ma perché? Perché non è detto che i database lavorino tutti in tempo reale, non è

detto che lavorino da lunedì a domenica 24H su 24H. Dal punto di vista operativo manca qualcuno

che controlli che i database funzioni in modo continuativo e aggiornato real time quindi c’è un

problema organizzativo di base. Pensiamo ai bonifici: se lo faccio oggi, arriva al destinatario fra

qualche giorno (tuttavia ora si sta avanzando la possibilità di fare instant payment); se faccio il

bonifico di sabato, parte di lunedì, quindi l’informazione per quell’arco temporale rimane sospesa,

e non è più real time infatti, la parte operativa manca (la banca di domenica è chiusa)

L’informazione è una risorsa vista come:

- Nuova risorsa economica che può essere offerta sul mercato

- Nascita di molte realtà economiche che producono informazioni per altre aziende

- Informazioni esterne prodotte fuori delle aziende che le utilizzano (consentono miglioramento

delle performance)

- Sempre > richiesta di info (banche dati)

Informazione e decisione:

Vincoli individuali del processo di gestione del flusso informativo: se noi lasciassimo tutte le decisioni agli

individui, senza usare macchine e sistemi informatici, ci renderemmo conto della presenza di alcuni limiti.

Vediamo quali:

- L’umano, più di 8 ore max, non riesce a tenere sempre costante l’attenzione tempi e capacità di

attenzione limitati. La tecnologia ci aiuta a bypassare questo vincolo. Tuttavia, ci sono momenti in

cui la rete o l’app non vanno, ma sono momentanei, NON fisiologici come i limiti umani

- Capacità di memoria contenuta i sistemi informativi hanno capacità di memoria ormai infinita

(es. Google, che si basa su una tecnologia di CLOUD COMPUTING, la quale consente alle macchine

di usare le memorie non proprie, ma degli altri prima le macchine avevano la propria memoria,

così come ogni uomo ha il proprio cervello. Ora le macchine usano “il cervello” altrui quando il loro

non è libero. Il cc è un insieme di elaboratori che usano memoria libera). Pensiamo a Google Drive,

memoria esterna presente sulla rete i documenti possono essere sul server di Google, ma anche

su altri server, e ciò consente a Google di ottimizzare la sua capacità di memoria

- Limitate capacità di comprensione gli umani non capiscono tutto allo stesso modo per svariati

motivi. Gli umani hanno modo di vedere le cose basandosi sulle proprie esperienze pregresse; il

machine learning fa emergere cose che noi non comprendiamo: sono tecniche statistiche che,

basandosi sui big data, trovano relazioni fra le cose che noi umani non siamo in grado di captare

la macchina inoltre APPRENDE, quindi non applica sempre lo stesso modello, perché se

quest’ultimo non va bene lo ritara sulla base dell’esperienza (un po’ come fa il nostro cervello in

modo molto più limitato). Pensiamo a Microsoft che ha creato una chat in grado di rispondere

come un umano; solo che poi chat box ha appreso contenuti razzisti parlando con persone vere di

contenuti razzisti, quindi hanno dovuto prontamente eliminarla è un esempio di quanto questa

chat fosse stata intelligente ad apprendere

- Presenza di forti problemi di comunicazione gli umani comunicano in modo diverso gli uni dagli

altri, perché c’è chi sa parlare bene o chi sa persuadere… pensiamo a quanto sia rilevante la

comunicazione con clienti e colleghi in un consiglio di amministrazione

Le teorie delle decisioni distinguono 3 situazioni: di certezza, quando ho completa conoscenza di tutte le

alternative d’azione; di rischio, quando conosco la probabilità delle conseguenze di ogni alternativa

d’azione; di incertezza, quando non si è in grado di assegnare alle conseguenze delle proprie azioni una

probabilità di accadimento. I sistemi sono rivolti alla soluzione di problemi di incertezza decisionale.

L’incertezza contenuta in una decisione può essere ulteriormente distinta in:

1- Incertezza nelle preferenze (le preferenze sono costanti, le alternative sono limitate) nel fare

pricing, devo tener più in considerazione se il cliente è uomo o donna, o se è giovane o vecchio?

2- Incertezza nella valutazione di azioni e di effetti se io faccio qualcosa cosa succede? Spesso

quando prendo una decisione so quale sia l’azione, ma non quale sia la reazione

3- Incertezza nelle relazioni causa/effetto

4- Incertezza nelle alternative di comportamento

L’incertezza si manifesta attraverso:

 Problemi strutturati ripetitivi, si risolvono con una metodologia predefinita e soluzioni standard:

ciò significa che viene razionalizzato un comportamento o una decisione. Le conoscenze

quantitative risolvono una incertezza e, per tale motivo sono importantissime. La matematica serve

a trovare procedure standard per risolvere problemi ricorrenti, affinché si possa giungere alla

decisione che è la variabile Y.

Pensiamo a Google maps = metto nella app la localizzazione, la destinazione, andare a piedi o in auto o coi

mezzi, ecc. e poi la funzione obiettivo quindi voglio pedaggio o no, ecc. Questo è un problema strutturato

perché l’algoritmo ottimizza una serie di alternative strutturate. Ogni volta che chiedo di risolvere quel

problema, l’algoritmo risolve sempre allo stesso modo (se tutti mettiamo la stessa localizzazione,

destinazione, ecc. allora Google maps ci risolve sempre allo stesso modo)

 Problemi semi strutturati richiedono in parte la ricerca di soluzioni comportamentali i cui risultati

non sono noti ex ante. Alcuni problemi non hanno una soluzione standard che li risolva quando

faccio il budget ho il problema della soggettività dei decisori

 Problemi non strutturati complessi, si riferiscono ad eventi inaspettati e per i quali non è

possibile adottare standard già noti. Devono essere risolti ex novo. La statistica risolve problemi più

incerti rispetto a quelli di matematica il machine learning mi aiuta a risolvere problemi che non

sarei in grado di risolvere. I problemi non strutturati sono i più incerti

I sistemi informativi possono gestire tutti e tre questi problemi? Si. Nel primo caso, possono addirittura

automatizzare o sostituire (es. Google automatizza il call center); negli altri due casi i sistemi informativi

sono di supporto. Al momento, le tecnologie sono molto costose, dato che non c’è intelligenza artificiale

dappertutto. IBM WATSON è un motore digitale in ambito medico per stimare statisticamente la

probabilità che ci ammaliamo di qualsiasi patologia, a seconda del nostro stile di vita i medici non

conoscono tutti i casi di malattie al mondo, ma solo quelli di cui hanno avuto esperienza.

TIPOLOGIE DI SISTEMI INFORMATIVI

Dopo aver scelto l’area funzionale, devo capire per quale livello operativo voglio trovare la soluzione. Più

andiamo alla base della piramide (quindi più pensiamo a un utente operativo) più i sistemi divengono

gestionali piuttosto che decisionali ad es. il sistema gestionale usato dalle aziende per la fatturazione.

Attenzione a NON prendere i sistemi gestionali. Quindi dobbiamo focalizzarci sul top management: ad es.

su HR valuto il capitale umano (ho bisogno di assumere?) che è una decisione a tutti gli effetti.

I SEI PRINCIPALI TIPI DI SISTEMI INFORMATIVI

Il MIS si basa su problemi strutturati il management information system ci dice ad esempio quanto

stanno andando le vendite di un tal prodotto in una tal zona. Il MIS ce l’ha l’area vendite, l’area marketing,

l’area finanza quando valuta il cash flow. Ad es. l’area vendite prende tutti i dati del sistema e fa un

algoritmo semplice. Il MIS è la base dei sistemi informativi decisionali, è la base del reporting.

Il DSS simula la probabilità che succeda qualcosa, quindi guarda avanti (il MIS guarda allo storico).

L’ESS serve a fare pianificazioni di lungo periodo, per fare proiezioni basate non solo su dati interni, ma

anche esterni.

Tutti questi sistemi aziendali, che possono essere più di uno in azienda, devono essere integrati gli uni con

gli altri, affinché si scambino dati. Il sistema paghe potrebbe alimentare il sistema del controllo di gestione,

dato che qui ho bisogno di conoscere gli stipendi il sogno delle aziende è avere un sistema che integri

tutto. SAP è uno dei più grandi produttori al mondo, che cerca di fare tutto. Nelle aziende di pdz troviamo

tanti sistemi integrati, mentre in quelle di servizio un po’ meno. Dobbiamo capire se tali aziende hanno un

ERP oppure no. Se l’azienda ha ERP allora si basa su sistemi integrati.

Obiettivi dell’integrazione fra sistemi informativi:

 Ottimizzare la trasmissione delle info

 Razionalizzare i flussi di lavoro

 Ridurre ridondanza e duplicazione di dati

 Ridurre contraddizioni e inconsistenza dei dati

 Aumentare chiarezza e affidabilità dei dati

 Ridurre tempi e costi per acquisire i dati

 Coordinare le interdipendenze fra le diverse attività

CLOUD COMPUTING

Parliamo della cosiddetta “nuvola” una impresa deve essere in grado di estrarre dai dati qualcosa che

abbia un valore; infatti, il manager che prende decisioni deve trovarsi di fronte qualcosa di utile per

l’umano (le informazioni) da cui estrarre conoscenza.

La grande enfasi posta sul big data (miliardi di giga) si focalizza su:

1- Data fusion. È la raccolta dati; essi sono generati da sensori, dall’Internet of Things (è ad es. io che

comando alla lavatrice di accendersi alle ore 12 perché tra un’ora torno a casa), dai networks, dal

stream processing, dagli agents

2- Data analytics. È la spremitura dei dati. Come si fa a tirar fuori qualcosa dai dati? Come si fa ad

ottenere informazioni dai dati? Tramite algoritmi, tramite lo scienziato dei dati (data science),

tramite statistics tools (statistiche, clustering, ecc.)

3- Data visualization. Cosa vede il decision maker? Egli si serve di grafici, di modelli di business, di

customer value proposition

Il cloud computing ci serve perché ci stiamo ponendo un problema di raccolta dei dati: esso è l’informatica

delle nuvole. Il primo storico articolo dove, per la prima volta, si è parlato di “nuvola” risale al 1997.

Tale decreto ministeriale italiano

parla di cloud computing se noi

siamo direttore dei sistemi

informativi di una pubblica

amministrazione (ad es. della ASL di

Milano 3) allora il legislatore dice che

quando una p.a. sceglie il fornitore di

servizi informatici deve valutare tutta

una serie di alternative. In questa

serie, la p.a. dovrà valutare software

fruibile in modalità cloud computing.

Il c.c. è una modalità diversa di usare

l’informatica.

Il decreto 2012 della CE parla del cloud computing, che si trova sul tavolo della commissione UE da molto

tempo per motivi geo politici perché i big 5 sono tutti in America (Google, Facebook, Amazon, ecc.) e

l’Europa ha cominciato a preoccuparsi.

Internet è una collezione di router. Questi router collegano reti e, in questo articolo del 1997, viene citata la

“cloud” come una “rete di reti”. Nel 2001, Markoff parla di una nuvola in grado di aiutarci.

Se noi prendiamo un browser e digitiamo “tigre”, questa parola (che è una stringa di bit) viaggia per tutta la

nuvola e arriva a un data center che sta dall’altro lato della nuvola. Il motore di ricerca lavora su un indice

che esiste già: esso trova la parola “tigre” e tutte le pagine ad essa connesse; poi le manda alla nuvola che a

sua volta le rimanda all’utilizzatore. Ma il motore di ricerca dove va a cercare i dati? Il software e i dati si

trovano dall’altro lato della nuvola; nell’era del cloud computing sono fuori dal controllo dell’utente. Lo

user è solo un fruitore del servizio (ad es. cercare la parola “tigre”).

Il CC è una architettura dove i dati e le istruzioni stanno da un’altra parte. In parole semplici, il cloud

computing è la distribuzione di servizi di calcolo, come server, risorse di archiviazione, database, rete,

software, analisi e molto altro, tramite Internet ("il cloud"). Le società che offrono questi servizi di calcolo

sono dette provider di servizi cloud e in genere addebitano un costo per i servizi di cloud computing in base

all'utilizzo, in modo analogo alle spese domestiche per acqua o elettricità.

Usi del cloud computing

Probabilmente stai usando il cloud computing proprio adesso, anche se non te ne rendi conto. Se usi un

servizio online per inviare posta elettronica, modificare documenti, guardare film o programmi TV,

ascoltare musica, giocare oppure archiviare immagini o altri file, è probabile che tutto questo sia possibile

grazie al cloud computing, che agisce dietro le quinte. I primi servizi di cloud computing risalgono appena a

una decina di anni fa, ma già molte organizzazioni, dalle piccole startup alle multinazionali, dagli enti

pubblici alle organizzazioni no profit, stanno adottando questa tecnologia per i motivi più vari. Ecco alcune

delle attività che puoi svolgere con il cloud:

Creare nuovi servizi e app

Archiviare i dati ed eseguirne il backup e il ripristino

Ospitare siti Web e blog

Trasmettere in streaming audio e video

Fornire software on demand

Analizzare i dati per ricavarne modelli ed eseguire stime

Principali vantaggi del cloud computing

Il cloud computing rappresenta un grande cambiamento rispetto alla visione tradizionale delle aziende in

materia di risorse IT. Cos'è il cloud computing? Perché è così diffuso? Ecco sei motivi comuni per cui le

organizzazioni ricorrono ai servizi di cloud computing:

1. Costo

Il cloud computing elimina le spese di capitale associate all'acquisto di hardware e software e alla

configurazione e alla gestione di data center locali, che richiedono rack di server, elettricità 24 ore su 24 per

alimentazione e raffreddamento ed esperti IT per la gestione dell'infrastruttura. I conti tornano in fretta.

2. Velocità

La maggior parte dei servizi di cloud computing viene fornita in modalità self-service e on demand, quindi è

possibile effettuare il provisioning anche di grandi quantità di risorse di calcolo in pochi minuti, in genere

con pochi clic del mouse, e questo garantisce alle aziende eccezionale flessibilità senza la pressione legata

alla necessità di pianificare la capacità.

3. Scalabilità globale

I vantaggi dei servizi di cloud computing includono la possibilità di usufruire di scalabilità elastica. In materia

di cloud questo significa fornire la giusta quantità di risorse IT, ad esempio una quantità maggiore o minore

di potenza di calcolo, risorse di archiviazione e larghezza di banda, proprio quando è necessario e dalla

posizione geografica appropriata.

4. Produttività

I data center locali richiedono in genere molto spazio per rack e impilamento dei server, nonché

configurazione di hardware, applicazione di patch software e altre attività di gestione IT dispendiose in

termini di tempo. Il cloud computing elimina la necessità di molte di queste attività, consentendo ai team IT

di dedicare il loro tempo al raggiungimento di obiettivi aziendali più importanti.

5. Prestazioni

I più grandi servizi di cloud computing vengono eseguiti su una rete mondiale di data center sicuri,

aggiornati regolarmente all'ultima generazione di hardware, veloce ed efficiente. Questo offre diversi

vantaggi rispetto a un singolo data center aziendale, tra cui latenza di rete ridotta per le applicazioni e

maggiori economie di scala.

6. Affidabilità

Il cloud computing aumenta la semplicità e riduce i costi di backup dei dati, ripristino di emergenza e

continuità aziendale, grazie alla possibilità di eseguire il mirroring dei dati in più siti ridondanti nella rete del

provider di servizi cloud.

Come nasce questa idea di affittare spazio? Amazon si accorse che, nonostante avesse data center

giganteschi per supportare i picchi di domanda di acquisto sul web, questi stessi data center erano usati

solo al 18%. Quindi aveva un sacco di memoria non utilizzata, e decise di affittarla. Questo modello di

business si focalizzava sulla vendita di memoria; poi, con un software proprio di Amazon, i dati in affitto che

Amazon custodiva venivano rielaborati. Ecco che nasce l’informatica in termini di servizio: non è più il

semplice acquisto di hardware e software, bensì una architettura in cui lo user ha solo input e output.

Nel bilancio di una azienda, prima dell’avvento dell’era del cloud computing, l’informatica era una capex. Il

CC è una architettura che ha consentito all’informatica di diventare un servizio, e il servizio si paga al

consumo (quindi l’informatica passa da essere una capex a una opex sono le due grandi aree del

bilancio l’opex si paga a consumo, quindi non registro più l’informatica nell’area capex che si occupa

delle spese in investimento, ma la registro come un servizio).

Possiamo definire il cloud computing anche come uno spanning layer lo s.l. è un concetto importante,

dato che ci semplifica l’informatica stessa:

Qualcuno prende in consegna qualcosa e fa un servizio per me c’è una interfaccia standard è uno

spanning layer. Lo s.l. crea opportunità di business, crea innovazione; esso disaccoppia il fruitore del

servizio dall’erogatore del servizio. Il livello che disaccoppia è: standard, open (pubblico/non è un segreto

industriale). Queste due caratteristiche possiamo applicarle al bit, inventando un pacchetto dei bit; poi

definiamo lo s.l. dei bit (ovvero il TCP/IP) da qui è fiorita tutta l’industria dei trasportatori di bit.

CARATTERISTICHE ESSENZIALI DEL CLOUD COMPUTING

 Rete a banda larga broad network access. La banda larga è una rete che mette a disposizione

degli utenti una velocità di bit al secondo che va nell’ordine di un milione (10^6) di bit al secondo

(es. 10^6 = mega; 10^3 = kilo; ecc.). L’ordine di grandezza di 10^6 vuol dire che stiamo parlando di

megabit al secondo

 Rapid elasticity elasticità rapida. Il fornitore di servizi ha un problema: se ci colleghiamo in 10 va

bene, se ci colleghiamo in 1839928 deve saper erogare lo stesso tipo di servizio. Quindi l’elasticità

vuol dire che idealmente il servizio cloud è scalabile, cioè erogato allo stesso tempo per tutti gli

utenti

 Measured service servizio misurato. È chiaro che tutti i servizi pagati come servizio hanno un

contatore (es. quello del taxi), quindi qualcuno contabilizza i consumi

 On demand self-service il fruitore richiede un servizio quando si collega, e ne fruisce in self-

service poiché dall’altro lato non c’è nessuno

 Resource pooling: significa che i dati stanno su una macchina condivisa e io accetto tale

condivisione; se io affitto il software che mi elabora i dati e affitto il software che li elabora, io devo

accettare che dall’altro lato i dati viaggino in qualsiasi posto

Tipi di servizi cloud: IaaS, PaaS, SaaS

La maggior parte dei servizi di cloud computing rientra in tre ampie categorie: infrastruttura distribuita

come servizio (IaaS, Infrastructure as a Service), piattaforma distribuita come servizio (PaaS, Platform as a

Service) e software come un servizio (SaaS, Software as a Service). Talvolta si parla di stack di cloud

computing, in quanto queste categorie sono basate una sull'altra. La conoscenza di queste soluzioni e delle

loro differenze semplifica il raggiungimento degli obiettivi aziendali.

Infrastruttura distribuita come servizio (IaaS, Infrastructure as a Service) si tratta della categoria più di

base dei servizi di cloud computing. Con una soluzione IaaS, affitti l'infrastruttura IT, ovvero server e

macchine virtuali (VM), risorse di archiviazione, reti e sistemi operativi, da un provider di servizi cloud con

pagamento in base al consumo. È la possibilità di affittare una infrastruttura informatica.

PaaS (piattaforma distribuita come servizio, Platform as a Service) si riferisce a servizi di cloud computing

che forniscono un ambiente on demand per lo sviluppo, il test, la distribuzione e la gestione di applicazioni

software. Una soluzione PaaS è progettata per consentire agli sviluppatori di creare in modo più semplice e

rapido app Web o per dispositivi mobili, senza doversi preoccupare della configurazione o della gestione

dell'infrastruttura di server sottostante, della rete di archiviazione e dei database necessari per lo sviluppo.

SaaS (Software as a Service, software come un servizio) è un metodo per la distribuzione di applicazioni

software tramite Internet, on demand e in genere in base a una sottoscrizione. Con una soluzione SaaS, i

provider di servizi cloud ospitano e gestiscono l'applicazione software e l'infrastruttura sottostante e si

occupano delle attività di manutenzione, come gli aggiornamenti software e l'applicazione di patch di

protezione. Gli utenti si connettono all'applicazione tramite Internet, in genere con un Web browser nel

telefono, tablet o PC. Il SaaS vuol dire che fruisco di un software a distanza, non in qualità di proprietario,

ma in qualità di semplice fruitore. Un esempio è il motore di ricerca Google.

Tipi di distribuzioni cloud: cloud pubblico, privato, ibrido, community

Il deployment model dice dove passano i bit. Una rete aziendale è fatta da tante reti: essa è privata e si

chiama INTRANET usa gli stessi protocolli dell’Internet ma è privata, quindi c’è una “porta” (c.d. firework)

che separa il traffico aziendale e sensibile da quello pubblico. A questo punto possiamo chiederci: i dati (bit)

passano attraverso il firework? Se non lo attraversano allora restano nella Intranet; se lo attraversano

dobbiamo giustificarne il perché. Per fruire del cloud computing i bit devono uscire, ma attraversano il

firework? Se non lo attraversano allora il cloud è privato. Il traffico “non mission critical” attraversa il

firework.

I cloud pubblici sono di proprietà di un provider di servizi cloud di terze parti, che fornisce le risorse di

calcolo, come server e risorse di archiviazione, tramite Internet. Microsoft Azure è un esempio di cloud

pubblico. Con un cloud pubblico, hardware, software e altra infrastruttura di supporto sono tutti di

proprietà del provider di servizi cloud e gestiti da esso. Puoi accedere a questi servizi e gestire il tuo account

usando un Web browser. Il cloud computing è erogato su Internet.

Un cloud privato si riferisce alle risorse di cloud computing usate esclusivamente da una singola azienda o

organizzazione. Un cloud privato può trovarsi fisicamente nel data center locale della società. Alcune

società, inoltre, pagano provider di servizi di terze parti per ospitare il proprio cloud privato. Un cloud

privato è un cloud in cui servizi e infrastruttura sono gestiti in una rete privata. In tal caso i bit NON

attraversano il firework poiché il cloud computing è erogato sulla Intranet. La rete della Cattolica è protetta

da firework? Si.

I cloud ibridi combinano cloud privato e pubblico, grazie a una tecnologia che consente la condivisione di

dati e applicazioni tra i due tipi di cloud. Consentendo lo spostamento di dati e applicazioni tra cloud

privato e pubblico, il cloud ibrido offre alle aziende maggiore flessibilità e più opzioni di distribuzione. Le

aziende hanno la possibilità di distinguere le operazioni mission critical (contabilità) da quelle non mission

critical (navigazione sul web), facendo attraversare il firework solo a quelle non critical. Le preoccupazioni

principali di un’azienda che usa cloud computing sono: l’uso non autorizzato dei miei dati, la loro

disponibilità, la loro confidenzialità, la loro integrità, la sicurezza, la possibilità di fare audit quindi

controllare come viene erogato il servizio, ecc.

La community è una modalità intermedia vicina all’ibrido.

Questioni principali sul cloud computing

Tutti quando ci colleghiamo con lo smartphone su un browser stiamo andando su un cloud possiamo

collegarci al cloud sul cellulare, sul tablet, ecc. quindi si può accedere ai servizi cloud con qualsiasi

dispositivo. La strong authentication è la non possibilità di collegarsi e fruire di un servizio gratuitamente

(se così fosse, l’autenticazione sarebbe zero); abbiamo anche un livello di autenticazione debole, ad

esempio blackboard, perché richiede login e password. È debole perché basta conoscere qualcosa. Una

strong authentication è legata a servizi delicati, tipo il conto corrente: essa richiede almeno di avere un

oggetto nelle nostre mani (ad es. il token della banca). Nel cloud computing osserveremo il passaggio dal

livello zero al livello strong. Le cose che useremo non saranno più nostre, ma le useremo per quello che

dobbiamo farci (non per forza dobbiamo controllare una infrastruttura informatica per fruire di un servizio

informatico). Parliamo ora di cloud broker l’erogatore da cui acquisto il servizio cloud ne è il proprietario

o è solo un intermediario? Il cloud broker non ne è il proprietario, ma acquista un pezzo qua e un pezzo là e

poi offre il servizio. Altro tema cruciale è la perdita del perimetro il concetto di perimetro aziendale

diviene sempre più sfumato. Il cloud computing fa perdere il concetto di perimetro aziendale, poiché è

difficile da definire. Il firework è un dispositivo di sicurezza, e se voglio usufruire del servizio cloud pubblico

lo devo attraversare; esso è diverso dal “downbridge”, che è il ponte levatoio. Altro tema: i dati sono

clonabili a un costo ridicolo il controllo dei miei dati è un aspetto delicatissimo, perché se con un niente

possono essere clonati bisogna stare molto attenti (mi devo quindi chiedere se sono crittografati, quali

livello di autenticazione mettere, ecc.). Una volta che i dati sensibili escono dal firework io devo stare

molto attento a:

Data location dove staranno i miei dati?

- Data encryption una volta che i dati sono depositati, ammesso che uno riesca a entrare, leggerà

- tutto o sono crittografati?

Data mining è l’estrazione di valore dai dati. Quando i miei stanno altrove, chi estrae valore? Solo

- io o anche chi mi ha erogato il servizio e mi gestisce i dati sui server? E quel valore di chi sarà poi se

non lo estraggo solo io? Siccome l’uso dell’informazione non è un bene non disponibile a un altro

nel tempo in cui io ne fruisco, mi devo porre queste domande

Users’ profiling i profili degli utenti

- Data loss and leaks perdita dei dati dal serbatoio dei dati oppure qualcuno sta facendo una copia

- dei miei dati a mia insaputa

Function creep

-

Parliamo di monopoly and lock in il fatto che i big del cloud computing siano tutti USA e siano un po’ dei

monopolisti. Per questo l’UE li teme. Il lock in vuol dire che ho i miei dati su Facebook e se voglio spostarli

da lì non posso, perché c’è una serratura che li tiene chiusi dentro. Nel cloud computing bisogna stare

attenti a non restare chiusi dentro, quindi bloccati da un fornitore.

L’imperialismo culturale è legato al fatto che col cloud perdiamo la diversità.

Esiste l’assicurazione contro ai rischi legati alla perdita di dati? Le assicurazione a volte vendono falsa

sicurezza che mi proteggono da un certo rischio. Esiste l’assicurazione informatica? Non è mai esistita. Il

rischio informatico è un rischio troppo alto da stimare, è troppo difficile capire quanto vale un bit perso. Per

la prima volta, col cloud, molte assicurazioni stanno riconsiderando il rischio cybernetico/informatico. La

tracciatura del cloud serve a quando succede qualcosa per risalire a un’infrazione, ecc. nel mondo del

cloud è importante tracciare il corso degli eventi.

TESTIMONIANZA ACCENTURE

Accenture ambiente molto dinamico. Vediamo una presentazione di un progetto fatto all’estero per

capire come poi presenteremo il progetto qualora venissimo scelte. L’esempio è sui Big Data, quindi su un

mondo che vuole migliorare le capacità di analisi dei dati, è un mondo che consente di fare analisi

predittive per capire quali siano le esigenze dei clienti. Lo studio è stato fatto in due steps: as is, quindi

situazione attuale del cliente, e to be, come sarà quello che offre Accenture quindi il design.

Agenda: executive summary (messaggi chiave di ciò che si è scoperto, è una sorta di sunto);

recommendations (linee guida da seguire nella progettazione); roadmap; business case (una iniziativa deve

essere finanziata e bisogna capire quanto costa avviare il percorso di trasformazione); Appendix (slides di

dettaglio da usare per spiegare eventualmente cose che mi chiedono).

1 slide: VALUE MISSION l’iniziativa mira a creare una piattaforma di Big Data per l’analisi di dati, non per

un fine a se stesso, ma per estrarre informazioni di valore. L’iniziativa richiama il concetto di analytics, a

testimonianza del fatto che siamo passati a poco a poco da analisi statiche dei dati ad analisi dinamiche.

Questo perché si cerca di non perdere mai clienti. Questa iniziativa vuole introdurre un mondo real time

per la rete di distribuzione elettrica. Perché si vuole fare questa cosa? Per produrre valore e migliorare i

ricavi.

2 slide: OBIETTIVI il progetto deve catturare i benchmark di mercato. Si vogliono fare raccomandazioni

affinchè il cliente possa fare un salto di qualità; si vogliono includere i benefici derivanti dall’iniziativa.

3 slide: INCOMING DATA perché hanno usato i big data per questa iniziativa?

4 slide: si vogliono migliorare le attività di analisi, quindi diminuire l’attività di reporting e incrementare

quella di analysis and insights. Ne risulta che aumentano gli advanced analytics, che dà il vero valore

predittivo per migliorare la situazione dei clienti. Advanced analytics per l’analisi specifica del dato.

5 slide: classifichiamo le iniziative possibili, stimiamo l’effort da mettere sul campo per poterle realizzare.

Le iniziative possono avere un effort alto, ma possono anche massimizzare notevolmente i rendimenti

aziendali; altre iniziative servono per la raccolta dei dati. Quindi il progetto è stato suddiviso in tante

attività, altrimenti diventa troppo lungo e complesso.

Sistema pilot: nell’attesa di implementare il sistema a livello industriale, trovo delle risorse ridotte per

capire se la mia idea funziona. Fare il pilota anticipa la bontà dell’idea, a far capire ai miei utenti come il

sistema funziona. Quando il cambiamento nel mondo analytics richiede nuovi strumenti, il pilota è un

testing su clientela. Quanto dura? Poco, per definizione. Dura di solito 1 o 2 mesi, se il progetto totale dura

6 mesi. Se l’arco temporale del progetto è più lungo può dare anche 3m.

6 slide: descriviamo in modo preciso le iniziative. Information flow data quality, data collection,

advanced analytics, enterprise visualization. Tanti progetti sono falliti perché la data quality era pessima.

Bisogna garantire al dato che sia certificato, quindi valido e quadrato, altrimenti non si riescono a compiere

analisi corrette.

7 slide: PREREQUISITI DELLE INIZIATIVE quanto sarà lungo il progetto? Quanto costerà? Net benefits su

5 anni = tot. poi calcolo costi e benefici.

Il progetto d’esempio dura circa 2 anni. Sarebbe carino calcolare costi e benefici tenendo in considerazione

diverse fasce temporali.

8 slide: HIGH LEVEL COST ASSUMPTIONS un progetto prevede personale interno ed esterno, quindi

quanto sforzo richiede? Quanto costa il progetto fatto da Accenture? Costa una certa media % perché

include tante competenze e skill. In Italia, un progetto costa in media 900 euro al giorno + costo di

implementazione pari a 500 o 600 euro al giorno. Il costo di manutenzione è molto più basso rispetto a

quello di implementazione, quindi costa circa 250 euro al giorno. Se ovviamente il cliente ha tutte le

competenze per gestire in autonomia il sistema, si possono abbattere i costi, ma se non è in grado allora

sarà la società di consulenza a fare manutenzione.

9 slide: devo far capire il perché io abbia costruito questo percorso. Spiego perché la situazione attuale non

è più sostenibile nel tempo. A livello aziendale, ogni ufficio si faceva le sue analisi statistiche, col rischio di

interpretare in modo diverso le cose questo comportava un grandissimo spreco di risorse e competenze,

nonché l’uso di strumenti diversi. Bisogna spiegare i motivi per cui da un punto di vista informatico serve

fare questo progetto di trasformazione.

10 slide: HYBRID PLATFORM OPTION il progetto non ha solo obiettivi di business per l’utente finale, ma

anche di revisione della piattaforma tecnologica perché il nuovo progetto potrebbe costar meno rispetto

all’architettura già esistente.

11 slide: WHERE DOES THE COMPANY WANT TO BE?

12 slide: BIG DATA ARCHITECTURE OPTIONS sarebbe la nostra software selection. Il trend è verso il

cloud. Il cloud è sicuro, e implica uno sforzo di integrazione in più perché bisogna fare in modo che tutto

funzioni coi tempi giusti. Il cloud pubblico è esterno; poi esiste quello on premises che è intermedio (ho

sistemi interni configurati in casa ma li uso come se fossero una nuvola, e se decido in futuro di andare sul

cloud pubblico posso farlo a costo zero); poi esiste quello privato. Per quanto riguarda l’oper source, non è

vero che è gratuito, perché qualsiasi software open source ormai è dietro una società che ne garantisce il

mantenimento. Molte volte l’open source puro non è sicuro, quindi i grossi istituti fanno attenzione alla

sicurezza e lo scartano.

13 slide: analizzo singolarmente le varie opzioni della software selection. Analizzo pro e contro. Ad

esempio, fra i contro ritroviamo limitazioni in termini di architettura dello spazio disco + se voglio andare a

sostituire un sistema con qualcos altro ho dei costi sul sistema vecchio, perché magari mi supportava

applicazioni specifiche. Un cliente valuta il sistema nuovo, ma magari quel sistema fa una tecnologia che

oggi non ho in casa quindi devo crearmi delle skill, perché devo fare formazione.

14 slide: roadmap carico di lavoro: devo dire ai clienti in quanto tempo penso di realizzare il lavoro.

Quindi il progetto deve essere sostenibile. Le frecce della figura indicano le propedeuticità. Per fare una

certa attività ho bisogno di un periodo, e uso i giorni-uomo = ad es. 3 settimane per fare un lavoro, due

uomini = 3*5gg lavorativi*2 = FTE = sforzo progettuale (per capire quanto fa l’azienda e quanto fa

l’esterno). L’esterno è la società di consulenza.

Per un progetto di Big Data e di analytics, il progetto durerà 3 o 4 mesi.

15 slide: INFORMATION FLOW

BUSINESS CASE – ANALISI DEI COSTI E DEI BENIFICI DERIVANTI DAL PROGETTO

È difficile che per l’azienda scelta, essendo essa grande, non ci siano mai stati sistemi informativi, e che il

nostro è il primo sistema che implementano. Se il nostro è un caso di marketing, ci sta che ci sia una

diminuzione in termini di tempo di analisi di controllo e di qualità del dato, quindi una diminuzione di un

paio di dipendenti nel dipartimento IT il risparmio di persone è efficienza, quindi automatizzare il sistema

consente di ridurre i costi. Efficienza = diminuisco un costo produttivo, ad esempio il personale, il costo

delle macchine (quindi dei server se decido di andare in cloud, ho una riduzione di server in casa dato

che non li uso più per l’analisi del dato). Se l’obiettivo è l’aumento delle vendite, io lo stimo e lo metto nei

ricavi; dal lato dei costi, diminuisco i costi di pdz come ad esempio il costo di magazzino.

Benefici (diminuzione dei costi e vantaggi sull’efficienza):

- Guardare al numero di persone che posso risparmiare;

- Se ci sono esternalizzazioni che prima non venivano fatte, avrò un risparmio in termini di

diminuzione del costo del personale;

- La diminuzione del costo del personale è efficienza;

- Se prima avevo un sistema, e ne compro un altro, si spegne il costo del precedente sistema.

Benefici (vantaggi sui ricavi e sui margini):


ACQUISTATO

1 volte

PAGINE

36

PESO

4.08 MB

PUBBLICATO

9 mesi fa


DETTAGLI
Corso di laurea: Corso di laurea magistrale in management per l'impresa (MILANO - ROMA)
SSD:

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher valeria1494 di informazioni apprese con la frequenza delle lezioni di Sistemi informativi a supporto delle decisioni aziendali e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Cattolica del Sacro Cuore - Milano Unicatt o del prof Frigerio Chiara.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea magistrale in management per l'impresa (milano - roma)

Economia dell'istruzione
Appunto
Riassunto esame Gestione delle Risorse Umane, prof. Manzolini, libro consigliato Risorse Umane. Persone, Relazioni e Valore, Costa
Appunto
Apppunti di Metodologie 2 (bilancio consolidato e analisi di bilancio) + temi d'esame svolti
Appunto
sunti Marketing Business to Business, prof. Tunisini
Appunto