Economia - Appunti
Anteprima
ESTRATTO DOCUMENTO
quantità da produrre, risultati, servizio, sicurezza, attenzione all’ambiente. Siamo
nella fase della Qualità Globale intesa come Total Qualità Management.
Quindi:
TQC Controllo di Qualità eseguito dall’operatore pezzo per pezzoi.
TQM Gestione della Qualità intesa come controllo continuo all’interno del
processo.
Riguardo alla qualità sono state date diverse definizioni. Secondo JURAN la qualità
è “il grado di soddisfazione che un prodotto, un servizio, determina nel cliente”.
Secondo FEiGENBAUM la qualità è “l’insieme delle caratteristiche di
progettazione e fabbricazione di un prodotto; caratteristiche che determinano il
grado con cui soddisfano le aspettative del compratore”.
Vediamo la qualità intesa come politica aziendale.
L’obiettivo dell’azienda è quello di massimizzare il profitto e questo è diverso da
azienda ad azienda in quanto dipende dal patrimonio tecnologico (insieme delle
conoscenze, esperienze, macchinari) che consente di puntare verso un certo livello di
qualità piuttosto che un altro.
Per definire il Livello di Qualità si fa riferimento alla SCALA DI MASLOW:
I O
SOCIALE
SICUREZZA
FISIOLOGICI
Secondo Maslow i bisogni dell’uomo hanno una gradualità. Si parte dai bisogni
primari che sono quelli fisiologici come per es. il freddo, la fame, la sete, ecc.
Consideriamo un uomo che non beve da diverse ore, questi non si porrà il problema
se l’acqua è pura o no poiché in quel momento prevale il bisogno fisiologico della
sete. Tale tipo di domanda se la pone chi appartiene al secondo livello della scala di
Maslow, cioè quello della sicurezza. Il terzo livello è rappresentato dalle richieste che
attengono al sociale (sentirsi parte di un gruppo), per es. andare al McDonald’s
significa sentirsi/essere giovani. Vi è poi un ultimo livello che è rappresentato
dall’autoaffermazione, cioè dell’io, come ad es. frequentare un ristorante esclusivo!
Più si va su per la scala, più la caduta è rovinosa. Infatti occorre partire dal seguente
assunto: “Laddove si soddisfano le richieste dei consumatori che si trovano ai livelli
più alti, va tutto bene, però qualora tali richieste fossero disattese, la caduta è
7
rovinosa”. Un caso noto si è avuto con la Mercedes (classe A) Una categoria di
consumatori facendo dei test sulla classe A scoprì l’instabilità della macchina. Per la
casa automobilistica tedesca ci fu un grandissimo danno perché il cliente era abituato
ad un livello molto + alto di qualità!
La COGNIZIONE AZIENDALE DELLA QUALITÀ può essere:
SISTEMA QUALITA’ La struttura organizzativa, le responsabilità, le
procedure, i procedimenti e le risorse messe in atto per la conduzione aziendale
della qualità. Quindi un sistema di qualità per puntare all’eccellenza in tutte le
fasi.
GARANZIA DELLA QUALITA’ L’insieme delle operazioni pianificate e
sistematiche necessarie x dare adeguata fiducia che un prodotto o servizio
soddisfi determinati requisiti di qualità (norme ISO, UNI, ecc.).
CONTROLLO DELLA QUALITA’ Le tecniche e le attività di carattere
operativo messe in atto x soddisfare i requisiti della qualità. Cioè
un’applicazione di metodologie anche statistiche per poter controllare la
qualità.
POLITICA DELLA QUALITA’ Gli obiettivi e gli indirizzi generali di
un’organizzazione perquanto riguarda la qualità sono espressi in modo formale
dall’alta direzione. Quindi è soprattutto una ben precisa scelta dell’azienda cioè
una politica di produzione aziendale, nel senso che posso definire il massimo
degli utili, il massimo della mia convenienza su un certo livello qualitativo
(mentre un mio concorrente può definire la sua convenienza su un altro livello
qualitativo) in funzione del mio Patrimonio Tecnologico, per il quale si intende
un insieme di conoscenze ma anche di abilità, competenze, impianti,
macchinari: tutto ciò fa si che io possa puntare ad un livello di soddisfazione
maggiore o minore di un cliente perché su quel livello posso massimizzare gli
utili.
La qualità può corrispondere ad una determinata politica aziendale.
DA CHE COSA PUÒ ESSERE MOTIVATA UNA SCELTA? Lo vediamo dal
grafico ricavi e qualità. 8
Ricavi Costi
Costi
Utili Ricavi Qualità
max Profitto
In ascissa abbiamo la qualità non come rispondenza a certe norme MA come livello
Qualità
di soddisfazione del consumatore a cui un’azienda tende, quindi in ascissa abbiamo il
gradino della piramide di Maslow. I costi e ricavi rappresentano due funzioni
crescenti della qualità. Se vediamo la 1° curva (quella dei RICAVI) vediamo che la
sua “pancia” è rivolta verso il basso quindi ha un andamento concavo ovvero la
derivata seconda è < di zero (f ’’(x) < 0): significa che man mano che aumenta il
livello della qualità, i ricavi aumenteranno in maniera meno che proporzionale.
I COSTI hanno anch’essi un andamento crescente, la “pancia” è rivolta verso l’alto,
quindi ha un andamento convesso, cioè la derivata seconda è > di zero (f ’’(x) > 0) :
significa che, man mano che aumenta la qualità, i costi aumenteranno in maniera +
che proporzionale.
Una volta raggiunto un certo livello di qualità, spostarsi di poco costa di più rispetto a
quando ci si trovava ad un livello inferiore. Quindi più sto su, più mi costerà elevarmi
anche di poco se già sono ad un livello alto di qualità. Più vado su nella scala, più
aumentano i ricavi.
Se facciamo Ricavi meno Costi abbiamo due punti che, uniti, formano la curva degli
UTILI che ha il suo massimo in corrispondenza di un determinato livello di qualità.
Il livello ottimale di qualità è quello che massimizza gli utili! Tale livello varia da
azienda ad azienda e dipende dal patrimonio tecnologico cioè da un insieme di risorse
e conoscenze. Le aziende non massimizzano gli utili allo stesso livello perché hanno
un diverso patrimonio tecnologico. La politica aziendale nasce dall’esigenza di
massimizzare gli utili. Chi ha tecnologie, ingegneri ed esperienze x fare Mercedes,
avrà il suo massimo ad un certo livello; chi non ha tale patrimonio tecnologico avrà il
suo massimo in corrispondenza di un altro livello!
Chiarito che la qualità può essere una politica aziendale, fermiamoci ad analizzarla
nella sua veste tradizionale, considerando quelle che sono le sue manifestazioni
multiple.
I FATTORI che fanno la QUALITA’: 9
Fisici dimensionali, dinamici, ottici, chimici
- Funzionali primari efficienza, sicurezza, versatilità
- Funzionali secondari accessori, installabilità, forma
- Temporali permanenza nel tempo, durevolezza
- Di mercato assistenza, affidabilità dei servizi
- Di produzione lavorabilità, manutenzione, conformità
- Economici costi
- Psicologici analisi sensoriale, familiarità, esclusività, estetica
- Etici ecologici
-
Un aspetto che oggi è di grande rilevanza è quello della durabilità di un bene. Una
volta la durabilità, in alcuni settori, faceva la qualità, x es. era molto apprezzato un
elettrodomestico che durasse parecchi anni. Oggi invece c’è una corsa sfrenata al
consumismo: basta pensare alla velocità con cui si sostituiscono telefonini, computer,
automobili, ecc. Alcuni ritengono che tale consumismo sia un fattore positivo per
l’economia in quanto più aumenta la domanda dei beni, più aumenta la produzione e,
di conseguenza, l’occupazione.
In realtà non c’è una netta correlazione fra produzione ed occupazione, data la forte
presenza dell’automazione industriale, della robotica e dei sistemi flessibili. Anzi si
potrebbe avere il rilancio di alcuni settori economici proprio puntando sulla durabilità
cioè sulla possibilità di utilizzare a lungo certi beni, con l’ausilio di determinati
servizi come la manutenzione, l’aggiornamento, ecc. in quanto con questi servizi si
ha occupazione! A tal proposito c’è da dire che la IBM smetterà di produrre
computer, in quanto guadagna molto di più con la vendita dei software, l’assistenza,
ecc. cioè tutto ciò che è dematerializzazione. C’è da aggiungere poi che la durabilità
significa anche tutela dell’ambiente, visto che ogni volta che si dismette un
frigorifero, un computer, ecc. l’impatto sull’ambiente è elevato.
Ci sono altri aspetti importanti che possiamo definire psicologici. Se un bene è
esclusivo o ha una certa estetica, è + desiderabile. Quindi l’esclusività e l’estetica
concorrono ad aumentare il valore di un bene.
Un altro aspetto importante è rappresentato dalle caratteristiche sensoriali: queste
sono state alla base del successo di un’azienda del settore alimentare italiano che
qualche anno fa lanciò delle merendine, basandosi su un’analisi sensoriale perché
cercò di capire, con l’ausilio di degustatori di quell’età, quali erano le componenti che
potevano migliorare il gradimento di un prodotto.
Molto importante è anche considerare l’eticità cioè quei marchi che hanno
cominciato a diffondersi in grosse catene di distribuzione come il Gs che vende
prodotti connotati da marchi etici.
Una volta fissato il livello ottimale di qualità (standard qualitativo) intendendo x esso
il grado di soddisfazione a cui si punta, occorre tener sotto controllo il sistema
produttivo, perché certamente ci saranno delle oscillazioni intorno a questo standard
qualitativo, dato che la variabilità è insita in qualunque attività, produzione. 10
Dunque occorre controllare che queste oscillazioni siano fisiologiche, cioè siano
contenute entro certi limiti, siano nell’ambito di una casualità probabilistica e che
siano espressione di qualcosa che non va!
Allora si fissa uno standard, poi si effettua una misurazione: dal confronto tra la
misurazione e lo standard prefissato, si decide quali azioni intraprendere!
: S
A M
I
Dove:
A: fascia della qualità standard
M: qualità media standard (obiettivo)
S: limite superiore della qualità standard
I: limite inferiore
Vediamo ora i 7 STRUMENTI DELLA QUALITA’ definiti da DEMING.
Obiettivo Operare un controllo ex-ante ed ex-post per monitorare il processo
produttivo ed effettuare eventuali correzioni. Essi sono:
Sono strumenti FONDAMENTALI di controllo
1) FOGLIO DI RACCOLTA DATI preventivo. Es. verifica dell’idoneità di un pezzo,
2) ISTOGRAMMA prima che entri in lavorazione, per evitare sprechi di
risorse Sono strumenti PILASTRI
3) DIAGRAMMA DI CAUSA-EFFETTO CAUSA-EFFETTO: Caratterizzato dalla
Suddivisione del processo in aree (es.
tecnologia, produzione, ecc.), per ognuna
4) DIAGRAMMA DI PARETO procedere ad ulteriore divisioni, al fine di
verificare la causa di un difetto e analizzare
quindi l’effetto del fenomeno negativo.
PARETO Riguarda un Ordine che si dà
a certe frequenze di un evento negativo
Si studiano le cause x trovare la soluzione +
idonea… dal controllo all’azione correttiva.
Si cerca poi di intervenire seguendo un
criterio di economicità. 11
5) STRATIFICAZIONE Sono strumenti AUSILIARI. Permettono di
6) CORRELAZIONE passare dal controllo all’azione correttiva
Il + usato è la CARTA DI CONTROLLO la
7) CARTA DI CONTROLLO
quale è sempre doppia Si rilevano periodicamente Le CORRELAZIONI servono per mettere in
dei dati e se ne definisce l’andamento nel tempo relazione due fenomeni.
studiando valore massimo e valore minimo. La STRATIFICAZIONE consiste, invece, nel
Dall’analisi dei dati, manifestazioni di fenomeni e suddividere dei dati per natura, per ore, ecc
tendenze, si può arrivare alle cause e trovare la perché stratificandoli possono apparire delle cose
soluzione + idonea al problema. che non appaiono immediatamente.
Questi strumenti sono di grande importanza perché permettono di effettuare un
controllo e di offrire un’azione correttiva.
Un altro problema particolarmente importante riguarda la scelta della fase produttiva
in cui effettuare un controllo.. In generale si può dire che i controlli devono essere
effettuati :
PRIMA di fasi ad alto Valore Aggiunto (VA) di difficile ispezione.
• DOPO operazioni di scarsa resa.
•
La qualità è anch’essa connessa ai sistemi di garanzia!
Oggi l’attività + diffusa in tutte le aziende è la NORMATIVA: oggi non c’è azienda
che non sia certificata. Vediamo quali sono le norme sulla qualità.
Tutto nasce a partire dagli anni ’50 da alcune norme militari utilizzate dal Ministero
della difesa americano; successivamente queste norme vengono adottate anche in altri
settori, in Inghilterra finalmente nel 1987 una certa Organizzazione adotta queste
norme. Vengono definite le NORME DEL SISTEMA DI QUALITA’ di tutte
quelle che sono le attività produttive e vengono adottate in maniera universale; ogni
area geografica ha i suoi enti normativi, in Europa abbiamo il CEN (Comitato
Europeo di Normazione); in Italia abbiamo l’UNI (Ente nazionale Italiano di
Unificazione).
Perché oggi tutte le aziende si certificano? Sono obbligate? 12
La 1° caratteristica di una norma è quella di essere volontaria (non c’è obbligo), di
fatto però perché ormai tutti si certificano per essere anche competitive (quindi di
fatto se si vuole essere competitivi , è necessario certificarsi).
In Italia abbiamo l’UNI come ente di normazione; per quanto riguarda il settore
elettrico-elettronico è il CEI (Comitato Elettrotecnico Italiano). Sono gli enti che
stabiliscono queste norme che possono riguardare anche unità di misura dimensionali,
caratteristiche tecniche, ecc. Da questi enti nascono poi il SINCERT e il SINAL. Il
1° è un organismo di certificazione e quindi accredita soggetti e rilascia certificazioni
di qualità o di processo. Il 2° invece si occupa dell’accreditamento dei laboratori.
CHE COSA SI INTENDE PER “NORMA TECNICA”?
La NORMA TECNICA è un “documento prodotto mediante consenso e
approvato da un organismo riconosciuto, che fornisce per usi comuni e ripetuti,
regole, linee guida e caratteristiche, relative a determinate attività o ai loro
risultati al fine di ottenere il migliore ordine in un determinato contesto”.
CHI STABILISCE I CONTENUTI DI UNA “NORMA TECNICA”?
I rappresentanti delle parti economiche e sociale, organizzati in gruppi di lavoro
secondo le procedure dell’ente di normazione competente; quest’ultimo svolge una
funzione di coordinamento, mettendo a disposizione la propria struttura
organizzativa.
QUALI SONO LE CARATTERISTICHE FONDAMENTALI DI UNA
NORMA TECNICA?
La VOLONTARIETA’ le norme sono un puro riferimento, nessuno è
obbligato a seguirle.
La CONSENSUALITA’ deve avere l’approvazione di tutti coloro che hanno
partecipato ai lavori.
La DEMOCRATICITA’ chiunque può partecipare ai lavori e soprattutto
chiunque è messo in grado di formulare osservazioni nell’iter che precede
l’approvazione finale. Cioè le norme devono avere l’approvazione da parte di tutti
gli attori economici che sono interessati ad un certo bene o servizio.
La TRASPARENZA l’ente di normazione segnala le tappe fondamentali
dell’iter di approvazione di un progetto di norma e lo mette a disposizione degli
interessati.
Ogni nazione ha la sua norma, quindi a volte può sorgere una certa conflittualità tra le
varie norme. Fondamentale è però l’esistenza delle ISO che dall’87 rappresentano il
punto di riferimento mondiale. L’Organizzazione mondiale della standardizzazione
procede periodicamente a degli aggiornamenti di queste norme perché cambiano le
esigenze. 13
L’ultima revisione ha assunto il nome di VISION 2000 e riguarda il tentativo di
integrare 3 aspetti fondamentali per ogni attività produttiva: Qualità per processo, per
prodotto; Tutela dell’ambiente; Sicurezza del lavoratore.
CHE COSA SONO LE NORME ISO? E LE NORME DIN? E LE NORME
SASO?
Ogni norma tecnica è contraddistinta da un n° e da una sigla, che identifica l’ente di
normazione che l’ha pubblicata. Il fatto è che vi sono moltissimi enti di normazione
(in genere ogni paese dl mondo ha un proprio organismo, e poi ci sono gli enti a
livello regionale e mondiale) e pertanto molte sigle da ricordare! Le norme ISO sono
quelle elaborate a livello mondiale dalla International Organization for
Standardization. Le norme DIN sono elaborate dall’ente tedesco di normazione. Le
norme SASO provengono addirittura dalla Arabia Saudita.
La famiglia delle ISO 9000 comprende le linee guida e i modelli di assicurazione
della qualità.
L’ISO 9004 fornisce le linee guida per la realizzazione di “Sistemi Qualità
Aziendali”. È un utile strumento per il governo dei fattori tecnici, gestionali ed umani
che influenzano la qualità di un prodotto o servizio, ma la sua applicazione non
comporta certificazione di qualità.
Lo studio dell’ISO 9004 può essere di supporto in una fase antecedente al piano di
attivazione della certificazione. Ma per il conseguimento di quest’ultima occorre far
riferimento necessariamente ad una delle tre norme ISO 900X che si occupano
specificatamente della garanzia della qualità verso l’esterno.
L’ISO 9001 è quella con portata + ampia, perché attesta la conformità di un processo
dallo sviluppo iniziale di un prodotto fino alla fine attraverso la produzione, la prova,
l’installazione e l’assistenza.
L’ISO 9002 nell’ambito di un processo, non copre la fase di progettazione e
sviluppo, e per le restanti fasi di approvvigionamento, di produzione, di installazione
e di assistenza è identica all’ISO 9001. per un’azienda che non si occupa di
progettazione e sviluppo, l’ISO 9002 è lo standard appropriato.
L’ISO 9003, a differenza delle prime due, copre solo il collaudo finale e le prove ed
ha requisiti di conformità significativamente minori. Tale norma viene usata quando
la conformità ai requisiti specificati dev’essere assicurata dal fornitore attraverso i
collaudi e i controlli finali.
Quando diciamo qualità ci riferiamo a quegli aspetti fondamentali che attengono
all’affidabilità di un prodotto o di un processo. La normazione può in qualche modo
contribuire al raggiungimento di questo attributo fondamentale che è l’affidabilità
cioè la probabilità che un componente o un sistema nel suo complesso, svolga le sue
funzioni senza interruzioni e quindi senza guasti.
La scelta fra sistemi push e pull può dipendere proprio dall’affidabilità di un progetto.
Non è pensabile un Just in time dove esistono interruzioni, guasti, quindi dove c’è
qualcosa di poco affidabile o dove c’è un’elevata probabilità di interruzioni. È quindi
14
fondamentale per quanto riguarda l’affidabilità dei processi, la qualità in termini di
difettosità. GLI ORGANISMI DEL SISTEMA QUALITA’
Parliamo del “Sistema Qualità Italia”. Con questo termine si indica la rete di servizi
x la valutazione della conformità (enti di accreditamento, organismi di certificazione.
Laboratori di prova e di analisi, centri di taratura) che è stata predisposta in Italia
sulla base di quelle Risoluzioni del Consiglio UE (“Nuovo Approccio” e “Approccio
Globale”) che tendono a realizzare un contesto tecnico omogeneo in Europa fondato
su condizioni di competenza, trasparenza e reciproca fiducia.
Vediamo la Gerarchia degli organismi del “Sistema Qualità Italia”:
UNI/CEI
SINCERT SINAL SIT
Organismi di Laboratori di prova Centri di taratura
certificazione IMPRESE
Gli organismi che formano il “Sistema Qualità Italia” sono:
UNI – Ente Nazionale Italiano di Unificazione – E’ un’associazione tra soggetti
privati e pubbliche amministrazioni dotata di riconoscimento giuridico. La
competenza dell’UNI è relativa all’emanazione di norme tecniche volontarie in tutti i
settori (esclusi quello elettronico ed elettrotecnico). L’UNI è membro dell’ISO
(International Organization for Standardization) e del CEN (Comitato Europeo di
Normazione).
CEI – Comitato Elettrotecnico Italiano – E’ un’associazione la cui competenza è
relativa all’emanazione di norme tecniche volontarie nei settori elettronico ed
elettrotecnico. È membro dell’IEC (International Electrotechnical Commission) e del
CENELEC (Comitato Europeo di Normazione Elettrotecnica).
PER L’ATTIVITA’ DI ACCREDITAMENTO.
SINAL - Sistema Nazionale per l’Accreditamento dei Laboratori – E’
un’associazione creata dall’UNI e dal CEI con il patrocinio del Ministero
dell’industria. I suoi soci sono ministeri, associazioni industriali e altri organismi
pubblici. Il SINAL ha iniziato la sua attività di prova nel 1988. esso accredita i
laboratori in base alle prescrizioni delle norme europee al fine di garantire
l’affidabilità e la riproducibilità delle verifiche di rispondenza dei prodotti alle norme
15
tecniche nazionali ed internazionali. Il SINAL è membro dell’EAL (European
Accreditation for Laboratories), di conseguenza i suoi accreditamenti sono
riconosciuti da tutti gli altri paesi che hanno aderito agli accordi di mutuo
riconoscimento.
SINCERT - Sistema Nazionale per l’Accreditamento degli Organismi di
Certificazione – E’ un’associazione creata nel 1991 dall’UNI e dal CEI con la
partecipazione del Ministero dell’industria, del CNR e dell’ENEA. Nella sfera di
competenza del SINCERT rientrano sia l’accreditamento degli organismi di
certificazione che la gestione del mutuo riconoscimento con analoghe istituzioni
estere. A livello europeo il SINCERT è membro dell’EAC (European Accreditation
for Certification), l’associazione che riunisce tutti gli organismi di accreditamento in
materia di certificazione della qualità, per cui i suoi accreditamenti sono riconosciuti
in tutti i Paesi che hanno aderito agli accordi di mutuo riconoscimento.
SIT - Servizio Italiano di Taratura - A partire dal 1979 gli istituti metrologici
primari IMGC (Istituto di Metrologia Gustavo Colonnetti), IEN (Istituto
Elettrotecnico nazionale Galileo Ferraris) ed ENEA hanno proceduto al
riconoscimento di numerosi laboratori metrologici secondari quali Centri di taratura;
a tal fine hanno costituito il SIT che svolge la funzione di organismo di
accreditamento di tali centri. Il SIT, pur avvalendosi di risorse interne ai 3 istituti (il
SIT non ha personalità giuridica a sé), opera sulla base di una procedura comune e
con il coordinamento di un unico comitato. La responsabilità finale degli
accreditamenti rimane, cmq, agli istituti.
CERTIFICARSI ed ESEGUIRE UN PROGRAMA DI TQM sono due cose
diverse. Anzi oggi purtroppo c’è un proliferare di aziende i cui prodotti non sono di
alta qualità benché certificati; questo perché posso seguire le norme ma realizzare
tuttavia un prodotto scadente (anche se mi comporto secondo certe procedure es.
9001 o 9002, se le materie prime sono mediocri o per es. non uso certe tecnologie
innovative, ecc.).
Altra cosa che spesso si fa è “usare la certificazione a livello di Marketing”: si usa
dire “azienda certificata ISO” come se questo potesse garantire una certa qualità del
prodotto, ma una cosa è certificarsi e una cosa è essere certi che i prodotti di
quell’azienda siano di elevata qualità.
La certificazione garantisce il consumatore e quindi gli dà maggiore sicurezza.
L’obiettivo principale è quello di arrivare alla soddisfazione del cliente.
Altra cosa è il MUTUO RICONOSCIMENTO ovvero la possibilità nel mercato
comune europeo di riconoscere reciprocamente queste certificazioni, quindi, nel caso
di un paese terzo che vende un prodotto in Europa basta un solo controllo, un solo
check perché basta che sia certificata in un solo laboratorio e questo prodotto può poi
circolare liberamente in tutta Europa. Quindi si parla anche di Home Stop Shopping
16
cioè un mercato che prevede un solo controllo, un solo stop e ciò è molto importante
ai fini della circolazione delle merci (che è uno dei pilastri della CE).
Il vero cambiamento organizzativo introdotto da Giappone è il miglioramento
continuo. Tale approccio è chiamato dai giapponesi “Kaizen” ed introduce in
azienda il principio secondo il quale “tutto è migliorabile ed adattabile alle mutevoli
esigenze sia interne che esterne attraverso il «monitoraggio sistematico» di tutti i
processi e le attività che caratterizzano l’organizzazione! Lo schema tipico che
visualizza l’approccio metodologico proposto è la RUOTA DI DEMING o CICLO
PDCA (Pianificare, fare (Do), Controllare, Agire).
ACTION PLAN
CHEK DO
[La freccia va intesa come ricerca continua di livelli di eccellenza e non di
mantenimento!]
Innanzitutto bisogna suddividere questa area in due segmenti quello del “problem
setting” e quello del “problem solving”; definire il problema quindi scegliere cosa si
vuole affrontare e tutti quelli che sono i fattori pertinenti. Una volta definito il
problema, conoscere e stabilire i fattori che sono connessi al problema direttamente o
indirettamente. Poi c’è la 2° parte, quella della risoluzione, che comporta a sua volta
3 step: - Identificare le possibili soluzioni;
- Scegliere fra i vari modi quella migliore;
- Definire dettagliatamente il processo attraverso uno schema fisico o un
modello risolutivo.
Analizziamo la Ruota:
PLAN Significa “Pianificare” e si intende:
- Pianificare cosa fare e come farlo;
- Pianificare come e cosa controllare;
- Scegliere un’unità di misura;
- Stabilire standard di riferimento.
DO Significa “Fare” cioè è il momento di mettere in campo le soluzioni
individuate, ovvero realizzare quello che si è pianificato. 17
CHEK Significa “Controllare” le prestazioni. In pratica una volta introdotte le
soluzioni previste è necessario che si proceda ad una nuova verifica globale del
processo utilizzando gli stessi strumenti usati nella fase Plan. Lo scopo di questa fase
è quello di verificare se è possibile raggiungere gli obiettivi di miglioramento
pianificati o meno. Controllare diventa un’attività continua perché non si tratta di
controllare solo i prodotti ma principalmente controllare i processi, bisogna cercare di
“misurare tutto ciò che è misurabile e rendere misurabile tutto ciò che
apparentemente non lo è”. L’importante è trovare sempre delle unità di misura, dei
modi per poter quantificare delle attività, per poter poi intervenire; è importante poter
uscire dal qualitativo e dare delle misure precise che ci consentono di portare avanti
dei programmi di miglioramento; per fare ciò ci serviamo della statistica che in
questa area diventa la materia fondamentale.
Il controllo consiste nel rivedere tutto da capo e ciclicamente come una spirale che
ritorna sullo stesso punto ma sempre un po’ + su.
ACTION Significa “Azione” cioè porre in atto le necessarie azioni in modo
integrato. Nel caso in cui si siano conseguiti i risultati attesi si procede alla
standardizzazione dei cambiamenti introdotti, altrimenti si procede ad una nuova
attività di micropianificazione.
Le 4 fasi che caratterizzano lo schema proposto indicano come può essere introdotto
operativamente il miglioramento continuo nei processi aziendali. La forma dello
schema evidenzia la sistematicità degli interventi di miglioramento; infatti, una volta
introdotte e standardizzate le soluzioni migliorative, lo schema sollecita a
ricominciare dalla prima fase al fine di individuare nuovi punti di debolezza da
migliorare.
“CAMBIARE PER MIGLIORARE” è alla base del ciclo PDCA.
MA COME SI FA A MISURARE LA QUALITÀ DI UN CONTROLLO? Il
punto è questo: se io voglio ottimizzare l’attività/la qualità di controllo devo tener
presente questo trade-off , da un lato migliore è il controllo maggiore saranno i
difettosi individuati quindi ho dei costi perché comunque ho dei difettosi ma sono
minori perché abbiamo detto che ci sono due possibilità (individuati e non
individuati) e il costo è maggiore di quelli non individuati. Quindi potrei spingere al
massimo l’efficienza del controllo ma dovrei anche elevare molto i costi del
controllo, perché se io voglio controllare con apparecchiature molto sofisticate su
questi tipi di attività, invece di avere due operatori, inizio ad assumerne 10 ed è
chiaro che i miei costi aumenteranno. Esiste quindi un trade-off fra i costi del
controllo che aumentano man mano che questo controllo eccelle; se io riporto sulle
ascisse la qualità del controllo vedo che quando questa qualità tende al massimo al
100%, ho dei costi elevatissimi del controllo, viceversa, il trade-off consente di avere
questi costi da un lato contro i costi causati dalla difettosità. Chiaramente questi costi
della difettosità sono massimi quando il controllo è 0%. E tendono ad un valore
minimo quando il controllo ha la massima %. MA PERCHÉ NON TENDONO A
ZERO? Perché comunque ho sempre dei difettosi cioè il fatto di avere individuato il
100% dei difettosi vuol dire che ho un processo, un’attività produttiva che può avere
dei difettosi che poi io li scarto, li declasso, li rilavoro. Comunque ho un costo quindi
18
il fatto di averli individuati al 100% non significa che non ho nessun costo. Quindi la
mia attività di controllo non mi azzera il costo del difettoso, me lo riduce (perché
abbiamo detto che esistono due tipi di costi causati dalla difettosità, quelli individuati
e quelli non individuati) quindi azzero quelli non individuati, e ho solo i costi relativi
a quelli individuati. Allora in sintesi, il grafico rappresenta le attività di ispezione e
collaudo e ha in ascissa (la qualità del controllo) una misura dell’efficienza del
controllo, così potrei andare a contare i difettosi individuati, rapportandoli a quelli
che effettivamente c’erano. Quindi per misurare la difettosità o meno del controllo,
quindi la qualità del controllo, è come se facciamo viaggiare volutamente in un
autobus 10 portoghesi senza biglietti, poi facciamo salire il controllore e vediamo se
loro li individuiamo 5, 6, 7 o 10 e quindi rapportando quelli individuati a quelli
effettivi, posso misurare l’efficienza del controllo, la qualità del controllo, che vado a
misurare come % dei difettosi individuati.
La qualità ha anche delle ripercussioni in termini di diritto commerciale, tanto è vero
che esiste un DPR 224/88 che recepisce la Direttiva europea del 1985 che ha per
oggetto proprio la responsabilità oggettiva del produttore; la responsabilità è
oggettiva quindi anche in mancanza di volontarietà e quindi anche prescindendo dalla
condotta del produttore, laddove eccede una responsabilità oggettiva e l’onere è a
carico del produttore, nel caso in cui ci fosse un danno, sta al produttore dimostrare
che tale danno non deriva da ciò che lui ha venduto o realizzato. Quindi questo DPR
rende la qualità intesa come assenza di difettosità. Ci possono anche essere una
pluralità di responsabilità; un concorso di responsabilità. Spesso è difficile capire se il
difetto derivi da una cattiva progettazione, da una cattiva fabbricazione o da una
cattiva informazione. Oppure ci sono dei casi in cui la responsabilità può essere
esclusa ad es. se il difetto al momento della fabbricazione non era riconosciuto.
Quindi è fondamentale capire che la “non qualità” può costare molto e, di
conseguenza, è fondamentale sia il controllo, sia la prevenzione.
TEORIA ZERO DIFETTI
Vediamo la
E LE 3 CATEGORIE più IMPORTANTI DI COSTI:
▼ I COSTI DELLA NON QUALITÀ sono causati dalla difettosità dei pezzi ed
indipendentemente dal fatto che vengono individuati o meno, generano costi diretti
ed indiretti a seconda della soluzione adottata. I costi “diretti” possono essere
calcolati, mentre quelli “indiretti” (intralci alla programmazione, nuovi attrezzi,
attese in magazzino, ecc.) sono difficilmente quantifizzabili. Vediamoli:
PEZZI DIFETTOSI INDIVIDUATI (Bloccati in produzione) Vediamo
quali sono i costi tangibili sostenuti x tali pezzi:
- Scartati: Si sostengono costi tangibili legati al materiale perso, alla
manodopera che cmq ha lavorato e alle spese generali, da cui si può sottrarre
un eventuale ricavo che viene recuperato dalla vendita a rottame. 19
- Declassati: cioè mi accorgo che qualcosa non va ma il difetto non è stato tale
da rendere impossibile la vendita del prodotto ma va in una categoria inferiore
(Es. le piastrelle). Quindi “Declassare” i prodotti comporta come costo
tangibile una differenza di prezzo fra le due classi di prodotti.
- Rilavorati: Per questi pezzi, il prezzo sarà sempre lo stesso, ma come costo
tangibile ho quello di un ulteriore lavorazione (costo della manodopera,
dell’energia, ecc.) quindi ho un costo supplementare.
- Rilavorati e declassati: In tal caso avremmo entrambi i costi, cioè il costo
delle lavorazioni supplementari + differenza fra il costo delle due classi di
prodotti.
Vediamo i costi intangibili a carico di tali pezzi:
Perdite di produzione;
- Intralci alla programmazione;
- Stoccaggi supplementari;
- Scontento dei clienti x eventuali ritardi;
- Decadimento del morale aziendale.
-
PEZZI DIFETTOSI NON INDIVIDUATI (Immessi sul mercato)
Vediamo quali sono i costi tangibili sostenuti x tali pezzi:
Protestati dal cliente: C’è il costo del Servizio Assistenza, x
- sopralluogo, riparazioni, sostituzioni del pezzo, ecc.
Non protestati dal cliente: Non c’è nessun costo tangibile.
- Vediamo i costi intangibili a carico di tali pezzi:
Cattiva reputazione x la qualità del prodotto ed il buon nome
- dell’Azienda.
A lungo andare perdita di clienti.
-
Es. Immaginate che avevamo intenzione di produrre un certo lotto in un certo mese;
la presenza di difettosi fa slittare la consegna e quindi dobbiamo riprogrammare,
pagare la penale, ecc. oppure dobbiamo usare macchine supplementari e cmq
possiamo andare in contro allo scontento del cliente, e ancora di + decadimento
dell’atmosfera della fiducia. In un reparto produttivo dove si producono difettosi non
c’è quell’atmosfera ideale ”per fare bene”.
▼
C’è poi un’altra categoria di costi che sono quelli più importanti: i COSTI
DELLA PREVENZIONE cioè tutti i costi sostenuti dall’impresa x impedire
(prevenire) la produzione di pezzi difettosi, cioè per la conformità della produzione
allo standard. Essi sono facili da individuare ma difficili da quantificare! Possono
riguardare l’intero progetto del prodotto o l’intero programma di produzione, perché
molto spesso le cause dei difetti possono derivare dall’ ingegnerizzazione di un certo
prodotto ma possono riguardare anche la manutenzione preventiva la quale molto
spesso è invece straordinaria; la manutenzione significa per molte aziende sostituire
un componente ma invece esiste anche una manutenzione ordinaria che riguarda
invece il mantenimento in condizioni ottimali del processo dei componenti, come per
es. la pulizia, la lubrificazione, ecc. e tutto ciò ha anche un costo anche per es. l’uso
20
preventivo della “casa della qualità”. Anche lo studio dell’andamento del processo è
prevenzione. È anche importante la continua revisione degli standard di prodotto cioè
del progetto, dei corsi di formazione, l’addestramento degli operatori, la
qualificazione del personale, la valutazione dei fornitori. Tali costi sono facili da
individuare ma difficili da quantificare.
N.B. I costi di prevenzione sono ben diversi dai costi per l’individuazione i quali
riguardano per es. la formazione del personale, i circoli della qualità, ecc. perché
laddove c’è un coinvolgimento, questo può evitare, prevenire un decadimento
qualitativo.
▼
Infine ci sono i COSTI DI RILEVAZIONE DEI DIFETTI (controllo) cioè i
costi per fare le analisi, i collaudi sulle materie prime, sui prodotti finiti o durante il
processo produttivo proprio per poter scoprire i difetti. Maggiore è la qualità dei
collaudi e maggiori saranno i costi ma anno per anno saranno cmq costanti. Questi
costi non variano con la % dei difettosi, perché qualcuno potrebbe pensare che +
spendo in controlli meno saranno i difettosi; diciamo che questi sono costi che io
metto in preventivo poi quello che succederà dopo cioè se avrò molti difettosi a causa
di una carenza del mio sistema produttivo, è qualcosa di indipendente dai costi che ho
preventivato e che quindi posso considerare anno x anno costanti. costi che si fissano
prima di un esercizio economico ed una volta messi in budget restano fissi
indipendentemente dalla difettosità rilevata dalla qualità dell’intero sistema
produttivo;
Es. Se pago per le apparecchiature di analisi o trovo 10 difettosi o ne trovo 100 non
cambia nulla, perché non è un discorso che varia con la quantità.
Analizziamo il seguente grafico:
Costi Costo totale
Costo dei a
difettosi
Costo minimo Costo di
rilevaz.
b Qualità
0% difettosi 100% difettosi
Livello di qualità uscente
individuati individuati
ottimale 21
Fissata una produzione standard con una certa “qualità ottimale” e quindi una certa ed
accettata difettosità, dal grafico in alto, si può notare che la curva del costo dei pezzi
difettosi decresce al miglioramento della qualità immessa sul mercato (in quanto i
pezzi difettosi costano meno di quelli non individuati), x tendere al costo degli scarti
x una lavorazione uscente perfetta (zero difetti).
A sua volta la curva del costo dei collaudi (costo di rilevazione dei difetti) cresce
dapprima lentamente , poi rapidamente, al migliorare della qualità del prodotto.
La somma del costo dei pezzi difettosi e del costo dei collaudi dà luogo alla curva
del “costo totale” il cui minimo rappresenta il livello di “qualità ottimale”, cioè la
condizione di utile massimo x l’azienda o di costo + basso x un prodotto di qualità.
N.B. Sulle ascisse c’è la % dei difettosi individuati non la qualità perché si fa
riferimento ad un certo numero di difettosi che conosco a priori. È come se il
management, volendo misurare l’efficienza del controllo, metta di proposito dei pezzi
difettosi e poi verifica quanti ne sono stati individuati.
N.B. Una cosa è individuare il difetto, altra cosa è non farlo proprio nascere!
Es. Possiamo giudicare l’efficienza dei controllori degli autobus verificando se sono
in grado di multare tutte le persone sprovviste di biglietti, fatte salire da noi
appositamente. Quindi noi conosciamo a priori i “difettosi” e poi verifichiamo quanti
ne riesce ad individuare il nostro sistema di ispezione e collaudo.
Ci sono DUE OTTICHE CONTRAPPOSTE rispetto all’accettazione di una certa
difettosità oppure no: OTTICA OCCIDENTALE
Totale costi di Costo causati dalla
qualità difettosità
Costo di prevenzione
Costo di rilevazione Numero di difetti
0 D Livello ottimale di difetti
(Difettosità Ottimale) 22
Secondo tale ottica i Costi di Rilevazione sono costanti perché prevedo prima quanto
spendere, quanto dedicare alle attività di ispezione e controllo. Sono costi d’esercizio
dovuti all’ammortamento delle apparecchiature, che vanno intesi anno x anno ,
budget x budget. Maggiore è la qualità dei collaudi e maggiori saranno i costi ma
anno per anno saranno cmq costanti ed indipendenti dalla difettosità, dalla qualità!
Poi abbiamo i Costi di non qualità (causati dalla difettosità) che aumentano con la
difettosità
Infine abbiamo i Costi di prevenzione: (mi determinano il trade-off fra cultura
occidentale e orientale) che aumentano in maniera esponenziale man mano che
aumenta la qualità e cioè diminuisce la difettosità e diminuiscono man mano che
aumenta la % di difettosi.
Secondo l’ottica Occidentale, avvicinandomi a zero difetti, maggiore è la qualità
perché ora la misuriamo come % di difettosità!! Però andare ad individuare le cause
dei difetti ultimi (cioè vicino allo 0%) non è economicamente conveniente, perché
sopporto dei costi che sono maggiori di quelli di non qualità.
Quindi andando a sommare questi tre costi mi troverò un minimo in corrispondenza
di una certa % di difettosità che chiamiamo difettosità ottimale, nel senso che è la +
conveniente economicamente, cioè conviene di più accontentarsi di una certa
difettosità, quindi l’accetto! Tale ottica ritiene che sia fisiologico che nel sistema
produttivo ci sia una piccola % di difettosità, in quanto costerebbe di più eliminare
tutti i difetti che non accettare una certa difettosità e quindi i costi della non qualità.
Se ho molti difetti non faccio prevenzione, cioè non spendo nulla x prevenire i difetti
e parto da una % di difettosi come indice di qualità del sistema produttivo. Significa
che non faccio prevenzione sistematica, non faccio corsi di formazione del personale,
ecc.: tutto questo vuol dire “risparmiare” sui costi di prevenzione.
OTTICA ORIENTALE ( o KAIZEN)
Totale dei costi di
qualità
x
difetti Costo di non qualità
dei Costo di prevenzione
unitario Costo di rilevazione
l’azienda
Costo 0 Numero di difetti 23
Livello ottimale di difetti
Secondo l’ottica orientale, che è un approccio rivolto al continuo miglioramento, i
Costi dovuti alla Rilevazione sono da ritenere costanti perché li stabilisco già in
budget e non vengono influenzati da quelli che saranno i risultati. I Costi di non
qualità o difettosità sono crescenti al crescere della difettosità. La differenza sta nei
Costi di prevenzione i quali sono rivolti al continuo miglioramento (il c.d. Kaizen)
quindi o si rileva la causa del 1° difetto o dell’ultimo, ci saranno sempre costi! Tali
costi sono ritenuti costanti rispetto alla difettosità, cioè indipendentemente dal mio
livello di difettosità, ho dei costi da imputare all’attività di prevenzione, (mentre in
un’ottica occidentale, crescevano verso lo zero). Non c’è una relazione tra i costi di
prevenzione e difettosità che mi fa capire qual è la causa su cui intervenire x evitare
l’insorgere dei difetti.
Quando vado a sommare i tre tipi di costi, non mi trovo più il minimo in
corrispondenza di una certa difettosità ma il minimo lo vado a trovare in
corrispondenza di zero! Zero difetti mi conviene nel senso che corrisponde al punto
di minore costo, cioè l’andamento dei costi totali ha il minimo in corrispondenza
dello zero e quindi mi conviene sopportare tali costi. Secondo l’ottica orientale,
quindi, conviene di più puntare ad un sistema produttivo a zero difetti perché i costi
totali sono + bassi; allora anziché produrre in un’ora 1000 pezzi sapendo che il 5% di
questi sarà difettoso, mi conviene ridurre la produttività del lavoro e migliorare la
qualità.
La DIFFERENZA fra le due mentalità è che nell’ottica occidentale si ritiene più
conveniente accettare una certa difettosità, mentre nell’ottica orientale il continuo
miglioramento prescinde dal livello di difettosità .
Non possiamo dire se è meglio l’una o l’altra, dipende dai contesti xò possiamo dire
che esiste anche una via di mezzo, nonostante ci sia la tendenza a zero difetti. Cmq
anche in occidente si tende verso zero difetti ma bisogna valutare le situazioni che si
presentano!
Ma si può parlare di qualità solo in termini di soddisfazione del
consumatore prescindendo dalla variabile ambientale che è
fondamentale per la vita stessa del consumatore ?
L’AMBIENTE
Soffermiamoci ora sulle connessioni fra scienza, tecnologia ed ambiente , in quanto
vi è un collegamento fra gestione economica di un’azienda e l’impatto sull’ambiente.
Il problema ambientale nasce negli anni ’60 nelle nazioni più industrializzate però in
quegli anni tali problemi erano solo a livello locale cioè focalizzate in alcune aree in
cui si verificavano fenomeni come lo smog, intossicazioni connessi ad un eccessivo
sviluppo industriale locale. 24
Il problema nelle sue dimensioni globali viene ad essere in qualche modo conosciuto
dall’opinione pubblica negli anni ’70 ma non tanto per gli effetti che aveva sulla
salute dell’uomo ma x quello che poteva essere il domani dello sviluppo economico.
Fu negli anni ’70 che il problema economia – ambiente venne evidenziato a livello
globale ed è legato principalmente alla disponibilità futura delle risorse, cioè
all’esaurimento delle risorse energetiche e alimentari. Infatti i coniugi Meadows
del M.I.T. con il loro libro “I limiti allo sviluppo” proponevano di limitare o
addirittura fermare la crescita economica; infatti l’economia stava crescendo troppo e
si prevedeva che nel futuro sarebbe stato impossibile sostenere una crescita di queste
dimensioni, in quanto non ci sarebbero state né risorse energetiche (petrolio, carbone
che tenderanno ad esaurirsi), né risorse alimentari sufficienti (questi concetti nascono
in USA e si diffondono presto in Europa), quindi si optava per la “crescita zero”.
Successivamente, da questa prima fase pessimista si passa negli anni ’80 ad una fase
di maggiore ottimismo, basata su un nuovo ruolo della tecnologia , perché grazie alle
innovazioni si poteva far fronte sia al bisogno di energia (utilizzando diverse fonti
alternative come l’energia nucleare, sfruttando petrolio ad elevate profondità, etc.)
che al bisogno di risorse alimentari (ricorrendo alle biotecnologie). Infatti la
tecnologia poteva trasformare alcune riserve in risorse. La differenza fra riserve e
risorse è che:
la Riserva è un giacimento, un patrimonio di combustibili, di materie prime
- strategiche che però non è economicamente estraibile. Costano più le attività di
estrazione di quello che è poi il reale valore del bene che si va ad estrarre!
La Risorsa è un giacimento che è economicamente estraibile!
-
Es. Giacimenti di petrolio in natura esistono 3 strati di petrolio: uno superficiale +
gassoso e facilmente estraibile; uno strato secondario che può essere estratto
mediante pompaggio; ed un ultimo strato che non si può estrarre perché troppo
viscoso () che x estrarlo i costi aumentano sensibilmente. Con la tecnologia sono stati
scoperti dei materiali che rendono il petrolio ad uno stato liquido e quindi facilmente
estraibile.
Es. Giacimenti di carbone In Italia i giacimenti di carbone non diventano risorse
perché hanno un elevato grado di zolfo; quindi la sua qualità non è tale da poter
essere utilizzata economicamente. Grazie alla biotecnologia si sono scoperti dei
batteri che si alimentano di zolfo e quindi depurano il carbone.
Negli anni ’90 inizia una nuova fase, definita la nuova scarsità In altri termini le
maggiori preoccupazioni riguardano non tanto la scarsità di risorse energetiche ed
alimentari ( di cui si parlava negli anni ’60 ) ma, principalmente, quelle risorse come
aria, acqua, clima, suolo ritenute una volta inesauribili e vitali per l’uomo) a causa
delle attività antropiche cioè umane.
Con la Conferenza di Rio (’92) si parla di sviluppo sostenibile e si prevede un
accordo sulla biodiversità, sulla pesca, delle dichiarazioni per quanto riguarda il clima
e l’agenda 21 (le cose da fare nel secolo ventunesimo); si trova un accordo su come
fare economia in modo nuovo per evitare la fine del pianeta. Ciò ha comportato un
cambiamento di rotta per le imprese che tendono a far conciliare sviluppo economico
e tutela dell’ambiente. In questi anni il problema è transnazionale perché riguarda
25
l’intero globo (Globalizzazione), e questo ha reso necessario l’incontrarsi di molte
nazioni (non tutte) in varie occasioni che si succedono nel tempo:
Nel ’72 Stoccolma qui l’oggetto della conferenza era ancora in un’ottica di
- limite della crescita.
Nel ’92 la Conferenza di Rio
- Nel ’97 la Conferenza di Kyoto
- Nel 2007 “Bali”.
- SVILUPPO SOSTENIBILE
Lo SVILUPPO SOSTENIBILE è un modello di crescita/sviluppo economico tale
da non pregiudicare la possibilità per le future generazioni, di conseguire
anch’esse una crescita economica. Quindi lo possiamo vedere come una strategia di
sviluppo!
Facciamo un Es. semplice x capire il rapporto esistente fra le tecnologie adottate e lo
sviluppo conseguito.
Immaginiamo che ci siano 2 reti per pescare, una a maglie larghe e l’altra a maglie
strette:
SVILUPPO SOSTENIBILE SVILUPPO non SOSTENIBILE
La 1° rete indica lo sviluppo sostenibile, la 2° invece no!
La 2° rete è + piccola quindi se pesco con reti che hanno luci così piccole pescherò
sia pesci grandi sia il novellame (pesciolini appena nati) e non ci sarà la possibilità di
riproduzione. Quindi io guadagnerò di più perché anche se è proibito pescarlo, il
novellame è molto richiesto e quindi se ne trarrà un maggior reddito (il prezzo è
maggiore) però x le generazioni future non ci saranno + risorse ittiche e di
conseguenza i miei successori dovranno cambiare attività e quindi, non potranno
svilupparsi.
La 1° rete, invece, essendo a maglie larghe pesca solo pesci grandi e lascia alle
generazioni future la possibilità di pescare il novellame, quindi fa conseguire una
ricchezza senza però togliere agli altri la possibilità di fare lo stesso e cioè non
pregiudica la possibilità di crescita, di conseguenza favorisce lo sviluppo sostenibile.
Ci sono molti aspetti da considerare:
Il concetto di “Equità intergenerazionale” cioè i diritti che io oggi ho devono essere
gli stessi anche x i miei nipoti. Ma ciò può essere discutibile perchè può essere che le
future generazioni avranno delle possibilità maggiori di crescita, c’è chi dice che esse
avranno delle conoscenze in più (inesauribilità delle conoscenze) e perciò non
26
dovremmo preoccuparci eccessivamente per loro. Quindi c’è una incertezza
scientifica di quello che sarà lo sviluppo tecnologico.
Comunque ci sono molti temi da discutere a livello mondiale che richiedono una
risposta comune cioè un accordo fra nazioni: il + avvertito è il tema del clima! Perché
è + importante? Poiché a causa delle attività antropiche abbiamo da anni riscontrato
un aumento della temperatura della superficie terrestre e ciò determina conseguenze
come: alluvioni, uragani, ecc. causando disastri economici (come città distrutte,
agricoltura) ed un n° spaventoso di decessi.
Altro problema sentito a livello globale è quello dei rifiuti.
La tecnologia dei cicli produttivi interviene cercando di affrontare i problemi relativi
alle risorse energetiche, del trasporto, e di altri settori produttivi che direttamente o
indirettamente sono collegati al problema effetto serra e dei mutamenti climatici.
Nel ’97 c’è stata una conferenza importante a Kyoto finalizzata ai problemi relativi ai
mutamenti climatici. Si è stabilito, in linea di principio, di ridurre la produzione di
gas serra che, dovrebbero, in maniera differenziata, ridurre del 16% entro il 2010
facendo riferimento alle emissioni del 1990. L’accordo prevedeva un aumento delle
emissioni di gas anziché del 45% del 29% cioè tale accordo se fosse stato ratificato
(cioè portato a termine) non prevedeva una diminuzione delle emissioni ma una
diminuzione dell’aumento che noi registriamo anno per anno e che, nel 2010,
dovrebbe essere aumentato del 29% e non del 45% rispetto agli anni ’90.
La Comunità Scientifica mondiale è concorde sul fenomeno e ha studiato una
relazione fra aumento delle emissioni di gas serra ed aumento della temperatura del
pianeta; ciò che preoccupa maggiormente è che esiste ancora un disaccordo fra
nazioni industrializzate anche nel definire regole comuni.
Gli USA ad esempio sono meno propensi a definire delle regole puntando su i
meccanismi di mercato che incidono su questo problema. In molti stati americani ad
esempio, infatti, è prevista la possibilità di vendere licenze di emissioni che in taluni
casi ono addirittura quotate in borsa, cioè ogni azienda industriale (che può emettere
una certa quantità di gas serra) ha una certa licenza di emissione la quale può essere
oggetto di scambio.
Es. se un’azienda cambia tecnologia e riesce ad emettere meno gas, questa licenza la
può vendere, passare (quotandola in borsa) ad un’altra azienda e ci guadagna. Questo
fatto per alcuni è inaccettabile ma in alcuni stati americani già funziona e il risultato è
quello di spingere le aziende ad utilizzare tecnologie più pulite ma non per il bene
dell’umanità, ma perché ci guadagnano economicamente.
Gli Europei (Francia, Germania, Italia) sono più propensi a definire delle regole,
quindi sono più vicini a ciò che si è stabilito nel ’97 a Kyoto. Inoltre nell’accordo non
sono state ancora definite le modalità di controllo cioè non ci sono né soggetti
controllori, né definizioni di sanzioni nel caso del non rispetto dei limiti di emissione.
Fermo restando che se noi rapportiamo le emissioni gas serra al reddito pro-capite
cioè quanto si emette in gas serra rispetto a quanto si produce (PIL), vediamo che
quelli che inquinano di più sono: l’India e altri paesi dell’America latina (PVS)
perché le tecnologie che questi usano sono obsolete e vi è un grosso problema di
27
trasferimento tecnologico, non solo per la loro crescita economica ma anche per
diminuire gli effetti inquinanti. EFFETTO SERRA
L’effetto serra è un fenomeno positivo nel senso che, in sua assenza le temperature
sarebbero troppo basse per consentire la sopravvivenza; quindi regola la temperatura
dell’intero globo.
L’effetto serra che cosa è? Sulla superficie terrestre incidono i raggi solari ( con una
frequenza corrispondente all’ultravioletto) con elevato contenuto energetico,
attraversando i gas atmosferici che sono completamente permeabili ai raggi U.V..
Dopo di che questi raggi vengono riflessi sotto forma di raggi infrarossi cioè di
minore intensità energetica , che vengono trattenuti, in parte, dai gas atmosferici
(c.d. gas serra) per essere riflessi ulteriormente sul pianeta: l’aumento della
concentrazione dei gas serra ( che si riscontra dalla prima rivoluzione industriale, ad
oggi), determina, così , un aumento complessivo della temperatura del pianeta.
Una concausa dell’effetto serra è la deforestazione. E’ ben noto, infatti che le piante
verdi assorbono se esposte alla luce anidride carbonica emettendo ossigeno
( fotosintesi clorofilliana) . La quantità assorbita di giorno è circa il doppio di quella
emessa di notte dalle piante.
Ciò determina tra l’altro alluvioni e uragani; negli ultimi 7 anni si è assistito al 50%
degli eventi catastrofici che si sono verificati dal dopoguerra ad oggi. Dopo numerose
conferenze, quella di Kyoto ha sancito un accordo relativo alle riduzioni di emissione
di gas serra.
Le nazioni che hanno sottoscritto il Protocollo di Kyoto si sono impegnate a ridurre le
emissioni di gas serra entro il 2012 di percentuali variabili ( mediamente del 6%)
rispetto alle emissioni del 1990. La variabilità nazione per nazione tiene conto delle
diverse situazioni economiche .
L’elevarsi della temperatura determina una serie di conseguenze come il lento
graduale scioglimento delle calotte polari, l’innalzarsi del livello del mare, la
possibilità di avere uno sconvolgimento nella produzione agricola (desertificazione).
L’effetto serra, è, quindi, di per se un fenomeno positivo e funzionale alla vita, solo
che l’intervento umano ha causato un incremento del fenomeno, determinando le
conseguenze su esposte.
Si può concludere che i paesi in via di sviluppo, in proporzione, inquinano di più
infatti troviamo l’America e il Giappone fra i primi due posti in una classifica che si
basa sulla quantità di gas serra emesso in assoluto, ma se le rapportiamo al
pil/procapite salgono ai primi posti i Paesi ad economia più debole che usano
tecnologie più inquinanti. 28
Di queste e di altre problematiche si è ampiamente discusso a e in particolare le
PREVISIONI x il 21° secolo sono:
Le precipitazioni aumenteranno del 5/20% nell’emisfero settentrionale.
- La temperatura salirà di un livello compreso tra 1.4% e 5.8%.
- Il livello del mare potrebbe salire da 9 cm fino ad un massimo di 88 cm.
- Alcuni ghiacciai della Groenlandia saranno a rischio di scioglimento.
- L’emissione di gas serra supera già i livelli consentiti e la situazione potrebbe
- peggiorare col tempo.
Alcuni DATI RELATIVI AL MONDO ATTUALE:
- 1.2 miliardi sono le persone che vivono con meno di 1 dollaro al giorno.
- 800 milioni sono le persone che soffrono la fame.
- 1 miliardo sono le persone che non hanno accesso all’acqua potabile.
- 850 milioni sono gli analfabeti.
- 11 milioni sono i bambini al di sotto dei 5 anni che muoiono x malattie curabili.
L’IMPOVERIMENTO DELLA TERRA È CAUSATO DA:
- allevamento intensivo.
- Industria e urbanizzazione
- Produzione energetica.
- Deforestazione
- Sfruttamento agricolo.
Diverse sono le SPECIE A RISCHIO DI ESTINZIONE:
- volatili 11%
- vegetali 12.5%
- rettili 20%
- mammiferi 25%
- anfibi 25%
- pesci 34%
A Bali il 15 dicembre è stato finalmente raggiunto un accordo durante la XIII
Conferenza dell'Onu sui mutamenti climatici.
è stata trovata l'intesa dopo che gli Stati Uniti hanno ceduto alle pressioni dei Paesi
più poveri.
Nuovo accordo a Copenaghen nel 2009. L'intesa prevede un percorso per negoziare
un nuovo accordo sui mutamenti climatici che sostituisca in maniera più ambiziosa il
Protocollo di Kyoto. Il 'Kyoto 2', che sarà negoziato nei prossimi due anni, sarà
firmato a Copenaghen nel 2009. Il nuovo trattato avrà effetto a partire dalla fine del
2012.
E' un momento di grande importanza per me e per il mio mandato" ha commentato il
" 29
segretario generale dell'Onu Ban Ki-moon. "Ringrazio gli Stati membri per il loro
spirito di flessibilità e compromesso" ha aggiunto il segretario, che ore prima aveva
mostrato tutta la sua frustrazione per lo stallo dei negoziati, spronando i delegati a
trovare una soluzione. "E' arrivato il momento di decidere" aveva detto solennemente
all'ultima sessione plenaria.
13 giorni di trattative serrate. La "roadmap" di Bali è stata approvata per consenso
dai delegati dei 190 Paesi presenti, al termine di oltre 13 giorni di trattative serrate,
uno in più di quelli previsti dall'organizzazione. Esausti ma felici i delegati sono
giunti all'intesa al culmine di un drammatico testa-a-testa che ha visto gli Stati Uniti
unirsi all'accordo solo all'ultimo minuto.
Usa: più impegni anche dai paesi poveri. Il testo dell'accordo, proprio tenendo in
conto le obiezioni degli Stati Uniti, non fa riferimento a cifre per quanto riguarda le
emissioni inquinanti e la necessità di ridurle. Il Protocollo di Kyoto (mai ratificato
dagli Stati Uniti e fatto proprio soltanto pochi giorni fa dall'Australia) vincolava tutti i
paesi industriali al taglio delle emissioni di gas serra tra il 2008 e il 2012, mentre i
Paesi in via di sviluppo non erano coinvolti. Il patto che uscirà dai nuovi negoziati
dovrebbe essere invece vincolante per tutti i Paesi a partire dal 2013.
:
. I gas serra
Entriamo nel particolare analizzando il problema “mutamenti climatici” (che sono
connessi ai gas serra) x stabilirne le connessioni con certe aree come quelle
energetica e dei trasporti che sono aree di particolare importanza x qualunque tipo di
economia. Abbiamo già detto che esistono dei gas che agiscono sulle radiazioni, cioè
le radiazioni che vengono ritrasmesse sottoforma di raggi infrarossi, vengono
trattenute nell’atmosfera da alcuni gas e ciò provoca un innalzamento seppur lento
GAS SERRA
della temperatura. I gas di cui stiamo parlando sono i e cioè:
- anidride carbonica
- fluorocarburi
- metano
- protossido d’azoto
- esafloruro di zolfo
Il gas più importante per l’ incidenza sull’effetto serra è l’ ANIDRIDE
CARBONICA. Essa deriva da tutti i processi di combustione oltre che dal
metabolismo degli esseri viventi. Essa è in parte assorbita dalle piante che, mediante
il processo di fotosintesi clorofilliana, la ritrasformano in sostanze vitali. In
particolare, il processo di fotosintesi clorofilliana prevede che con l’azione della luce,
30
le piante verdi possono fissare l’anidride e trasformarla in carboidrati rilasciando poi
ossigeno. Ciò avviene di giorno sfruttando l’azione della luce; di sera, invece,
avviene esattamente il processo inverso, cioè le piante assorbono ossigeno e
rilasciano nell’atmosfera anidride carbonica. Tuttavia di sera il rilascio di anidride
carbonica da parte delle piante avviene con un rapporto di 1 a 2 rispetto
all’assorbimento di anidride carbonica di giorno, ciò significa che l’anidride
carbonica che le piante assorbono di giorno è 2 volte l’anidride carbonica che le
stesse rilasciano di notte.
Quanto detto ci fa capire il ruolo fondamentale giocato dalle piante nell’assorbimento
di anidride carbonica e come il problema dell’effetto serra sia collegato al problema
della deforestazione. Infatti laddove scompaiono foreste, l’azione di assorbimento di
anidride carbonica mediante la fotosintesi si riduce e il problema dell’effetto serra si
approva.
Le principali fonti di anidride carbonica sono la produzione di energia ed il
trasporto (alla base dei quali vi sono processi di combustione).
Energia E’ ovvio che il problema della produzione di energia e delle emissioni di
anidride carbonica ad esse associate, bisognerebbe risolverlo ricorrendo a fonti di
energia alternative a quelle tradizionali (combustibili), fonti di energia alternative che
non producono gas serra. Da questo punto di vista si guarda, seppur con qualche
sospetto, alla fusione nucleare, mentre si guarda con particolare attenzione e interesse
alle fonti rinnovabili (energie eolica, solare, energia del mare e così via). Quando si
parla di fonti di energia alternative tra i numerosi problemi si pone anche quello delle
tariffe, costi, cioè riuscire in qualche modo a far pagare anche i costi ambientali, cosa
che attualmente non si fa ma che potrebbe incentivare ancor di + le ricerche x lo
sviluppo di tecnologie alternative a quelle tradizionali; viceversa avremo sempre il
petrolio e quindi l’olio combustibile come fonte principale di energia.
Trasporti Per quanto riguarda i trasporti, abbiamo ancora il carburante
tradizionale che predomina. In questo campo il problema delle emissioni di anidride
carbonica potrebbe essere almeno in parte risolto, agendo sui carburanti (la stessa
FIAT ha realizzato da tempo auto a metano il quale ha certamente un impatto minore
rispetto al petrolio sull’effetto serra). Si potrebbe addirittura pensare ad auto ad
idrogeno oppure agendo sulle tecnologie si potrebbe pensare a tecnologie diverse dal
classico motore a scoppio, x es. celle a combustibile che possono considerarsi motori
a emissione zero.
Ritornando ai carburanti, certamente esistono carburanti che determinano minori
emissioni di gas serra e tra questi c’è il biodiesel che rientra nella categoria dei
carburanti di origine vegetale. Questi ultimi determinano un bilancio di gas serra
addirittura alla pari, cioè quella anidride carbonica che assorbono come vegetali poi
la riemettono come carburante. Da quanto detto quindi, si potrebbe fare molto x
l’effetto serra, anche se ci sono in particolare problemi di costi.
Interessati al problema dell’effetto serra oltre al mondo della produzione di energia e
al mondo del trasporto, si unisce anche il settore Rifiuti.
L’accostamento rifiuti – effetto serra, potrebbe sembrare forzato ma in realtà non lo è.
Vediamo perché. Pensate alla tecnologia dell’incenerimento che adesso ha assunto il
31
I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Chiakka87 di informazioni apprese con la frequenza delle lezioni di Economia e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università La Sapienza - Uniroma1 o del prof Non --.
Acquista con carta o conto PayPal
Scarica il file tutte le volte che vuoi
Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato