Anteprima
Vedrai una selezione di 4 pagine su 14
IT Governance big data Pag. 1 IT Governance big data Pag. 2
Anteprima di 4 pagg. su 14.
Scarica il documento per vederlo tutto.
IT Governance big data Pag. 6
Anteprima di 4 pagg. su 14.
Scarica il documento per vederlo tutto.
IT Governance big data Pag. 11
1 su 14
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

MODELLI DI RIFERIMENTO

Esistono diversi modelli di riferimento che possono essere tra loro complementari o concorrenti. È opportuno costruire un modello che integri diversi modelli e soprattutto bisogna valutare l'effettiva efficacia dei vari modelli da adottare in relazione alle situazioni da affrontare. I principali sono:

  1. ITIL: già so
  2. COBIT: è un insieme di Best Practice per la gestione dell'IT e fornisce ai dirigenti misure, indicatori e processi per l'uso, il controllo e la gestione di un'azienda.
  3. CoSo: aiuta le aziende a valutare e a migliorare i propri sistemi di controllo interno.
  4. ISO 27001: è una norma che fornisce i requisiti di sicurezza nelle IT.
  5. ISO 20000: è la norma ISO che certifica l'organizzazione e l'azienda per l'adozione di determinati principi; riguarda l'ITIL.
  6. CMM: già so
  7. MOF: framework creato da Microsoft per la gestione degli strumenti; compatibile con ITIL.

MSF: frame work creato da Microsoft relativo allo sviluppo e alla gestione.

PMI: raccoglie informazioni nel campo del Project Management.

Prince2: metodo di gestione dei progetti creato in Europa.

MSP: metodo di gestione dei programmi nato in Europa.

Integrazione tra modelli:

  • Rosso = Strutture & Ruoli
  • Giallo = Tecnologie
  • Rosa = Processi
  • Verde = Metriche
  • Arancione = Controlli

Complementarietà tra modelli:

COBIT e ITIL sono 2 modelli complementari che lavorano bene insieme in quanto hanno aree di sovrapposizione limitate, fornendo governance, processi, linee guida, strumenti e soluzioni. L'ITIL è più operativo mentre il COBIT è più incentrato sul controllo.

I vantaggi che si possono ricavare dall'utilizzo di un modello sono:

  • Miglioramento dei processi aziendali, del business, dell'efficienza dell'azienda e del personale;
  • Riduzione dei costi e ottimizzazione dei servizi;
  • Riduzione dei rischi;

Crescita culturale;

Ottimizzazione delle risorse.

2 CASI

1) Bank of New York Company: fondata nel 1784 è la financial holding più vecchia degli USA con un giro d'affari di 102 miliardi e l'amministrazione di 10,8 trilioni di dollari. Tra il 2002 e il 2005 decide di avviare un processo di ristrutturazione dell'intera infrastruttura ICT soprattutto per quanto riguarda la gestione del Trableshooting (risoluzione dei problemi) e perché, dopo la tragedia dell'11 settembre, hanno deciso di de-localizzare i propri data-centers in vari luoghi diversi per evitare la centralizzazione dei sistemi informatici in pochi uffici. Gli obiettivi furono 4:

  1. Realizzare un sistema di comunicazione globale tra le varie sedi del tipo web-oriented;
  2. Costruire 2 data centers, uno incentrato sul garantire la continuazione dei servizi in caso di malfunzionamenti/incidenti, l'altro per la sperimentazione di nuovi prodotti;
  3. Realizzare una Wide Area Network (WAN).
permette l'accesso a più reti internet; 4) Gestire l'organizzazione con personale interno e ridurre al minimo i soggetti esterni. Da tempo, all'interno di questa banca, sono stati adottati i modelli ITIL che hanno consentito la creazione di best practice per la gestione di malfunzionamenti e inefficienze dei servizi forniti. Attraverso i "feedback loop", vengono ridotti i futuri incidenti mediante l'analisi e la memorizzazione in un database degli incidenti già avvenuti e risolti tramite azioni correttive apposite. È importante comprendere la differenza tra incident e problem, poiché l'incident indica la disgregazione del servizio e rappresenta quindi un campanello d'allarme per la continuità del servizio, mentre il problem si verifica quando un servizio si interrompe. Ad ogni incidente viene assegnato un Severity Number, da 1 (grave) a 4 (non grave), e il soggetto che

Identifica l'incidente diventa il proprietario, collaborando direttamente alla risoluzione. In generale le cause che hanno portato a questi incidenti sono principalmente da imputare all'errore umano, ma anche a disfunzioni operative e del software. I vantaggi dell'applicazione del modello ITIL sono riconducibili alla netta riduzione degli incidenti di severità 1 e in generale dei malfunzionamenti di qualsiasi tipo.

US Air Force: 6

Tutte le operazioni dell'aviazione statunitense sono gestite dall'Air Operations Centers che è un sistema informatizzato che gestisce la catena C2 (comando e controllo) della USAF. Nasce dalle informazioni che il sottotenente Henry Arnold comunicava chiamate Kill Chain nel 1912 che poi si sono trasformate in questa struttura funzionale ed autonoma. L'aviazione militare statunitense decise di trasformare il suo datato sistema di gestione delle funzioni IT in un sistema in grado di gestire le moderne tecnologie IT.

attraverso il miglioramento dell'organizzazione dell'IT management, passando quindi da un'infrastruttura di gestione dei componenti ad un'infrastruttura di gestione dei servizi IT. La gestione delle funzioni di gestione C2 prevedeva un modello di pianificazione centralizzata ed esecuzione decentrata, dove l'AOC rappresenta appunto il nucleo centralizzato. Questo processo di Change Management fu portato a compimento da 3 teams principali che portarono al nuovo modello di riferimento dell'AOC, dove finiva l'era della gestione industriale dei processi e iniziava l'era delle organizzazioni basate sulle informazioni ragionate, sulla rapidità di gestione delle criticità e sull'uniformità della formazione del personale. La funzione di controllo venne affidata completamente dall'AOC all'Information Technology. BIG DATA I Big Data sono un'elevatissima quantità di dati provenienti da fonti diverse e

Rilasciati informati diversi (ª) che superano la portata degli ambienti hardware e degli strumenti software comunemente usati per gestirli ed elaborarli. I dati che sono privi di brevetti e non sono coperti da copyright vengono resi accessibili a tutti. Essi si basano sulle 5 V, ovvero:

  • Volume dimensione dei dati: gigabyte, terabyte, petabyte, exabyte, zettabyte.
  • Velocità velocità di generazione dei nuovi dati e di analisi: periodica, vicino al tempo reale, al tempo reale.
  • Varietà (ª) strutturati, semi strutturati, non strutturati, testi, immagine, audio, video, registrazioni.
  • Veracità i dati vengono considerati incerti e necessitano della validazione.
  • Valore riferito al valore prodotto a seguito dell'analisi.

I rischi principali relativi ai Big Data sono l'ingestibilità dei dati a disposizione, la non scalabilità, l'inefficacia delle analisi, i costi e la privacy.

L'obiettivo alla base

Il compito della gestione di questi dati è quello di saper prendere decisioni strategiche sfruttando la loro disponibilità e in particolare le decisioni si dovranno basare su:

  1. Acquisizione selezione, filtraggio, generazione di metadati e gestione dellaprovenienza.
  2. Estrazione trasformazione, aggregazione e gestione degli errori.
  3. Integrazione standardizzazione, gestione conflitti e definizione mapping.
  4. Analisi esplorazione, apprendimento e visualizzazione.
  5. Interpretazione conoscenza del dominio, della provenienza e identificazione pattern.
  6. Decisione capacità manageriali e miglioramento del processo.

Alcune tecniche di analisi dei Big Data sono:

  • Data mining;
  • Crowdsourcing;
  • Data fusion & data integration;
  • Machine learning.

Alcune tecnologie per i Big Data sono:

  • Business Intelligence (BI);
  • Cloud computing;
  • Sistema distribuito (Hadoop).

Possiamo avere 3 tipi di distribuzione di risorse e servizi:

  1. Architettura distribuita
(computer autonomi che interagiscono per un obiettivo comune e sono caratterizzati da una scalabilità orizzontale); 2) Fault-tolerant (replicazione di risorse); 3) Elaborazione distribuita (paradigma Map-Reduce e Modello Shared-nothing). I vantaggi che portano lo sfruttamento dei Big Data sono riconducibili alla creazione di trasparenza, individuazione dei bisogni, personalizzazione, supporto alle decisioni e innovazione di prodotti e servizi. Per fare ciò è indispensabile reclutare personale esperto, condividere i dati tra agenzie diverse, introdurre la cultura del rinnovamento continuo e un supporto politico. C'è stato un nuovo approccio fondato sull'andare a capire come gestire al meglio una mole così grande di dati, di diversi formati con i sistemi tradizionali. La soluzione fu introdurre nel 2004, da parte di Google, un nuovo paradigma di programmazione conosciuto come Map Reduce. Esso possiamo definirlo come un paradigma di programmazione perilprocessamento e la generazione di dati massivi, attraverso un algoritmo parallelo edistribuito su di un cluster. Attraverso questo paradigma, l'utente definisce la funzione mapanalizzando una coppia key/value e genera un insieme intermedio di coppie key/value; successivamente, specificando la funzione reduce, avverrà l'unione tra i valori intermediassociati a queste coppie. Quindi permette al programmatore di utilizzare facilmente lerisorse di un sistema distribuito e parallelo. L'esecuzione di una programmazione di Map Reduce è composta da 4 fasi: I. Split dei dati in input, dividendo i dati in n partizioni assegnate a differenti mapper; II. Fase di Map, dove in parallelo ogni mapper prende in input una coppia key/value,mentre in output restituisce zero o più coppie key/value in risposta a quelladeterminata coppia key/value in input; III. Fase di shuffle e ordinamento, dove per ogni coppia ottenuta nella fase precedente sidetermina il reducer che

La riceverà, e verranno inoltre ordinate le chiavi in input;

IV. Fase di Reduce, dove sulle coppie ottenute nella fase precedente viene applicata una funzione di riduzione sui valori aventi la stessa chiave; i risultati vengono raggruppati, restituiti in output e memorizzati.

Il Map Reduce è il cuore del framework open source Apache Hadoop. Esso viene utilizzato per la scrittura e l'esecuzione di applicazioni distribuite su cluster di macchine, processando quindi una elevata quantità di dati. Il Cluster Hadoop sarà quindi un insieme di macchine collegate tra loro via rete e permettono ai clienti di connettersi ad essi da un remoto per eseguire il lavoro. I vantaggi ricavabili da Apache Hadoop sono:

  • La potenza di calcolo;
  • Il fault tolerance in quanto i dati sono protetti da fallimenti hardware e se questi cadono vengono reindirizzati ad altri nodi;
  • La flessibilità.
Dettagli
Publisher
A.A. 2019-2020
14 pagine
SSD Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Fricassè di informazioni apprese con la frequenza delle lezioni di It Governance & Big Data e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli studi Gabriele D'Annunzio di Chieti e Pescara o del prof Teti Antonio.