Anteprima
Vedrai una selezione di 4 pagine su 11
Teoria di Informatica industriale Pag. 1 Teoria di Informatica industriale Pag. 2
Anteprima di 4 pagg. su 11.
Scarica il documento per vederlo tutto.
Teoria di Informatica industriale Pag. 6
Anteprima di 4 pagg. su 11.
Scarica il documento per vederlo tutto.
Teoria di Informatica industriale Pag. 11
1 su 11
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Cooperazione in parallelo:

• Area di lavoro condivisa

• Co-Work simultaneo

Collaborazione:

• Area di lavoro condivisa

• Co-Work simultaneo

• Contatto fisico

Coesistenza:

L’operatore porta avanti un determinato task in una zona di lavoro che non interferisce con il

robot. Ci sono quindi aree di lavoro separate.

Operazioni collaborative:

La collaborazione puó includere uno o piú dei seguenti metodi:

1. Safety monitored stop

2. Hand guiding

3. Speed and separation monitoring

4. Power and force limiting

Safety monitored stop:

Questa funzione viene usata nei cobot disegnati per operare da soli, in cui si ha raramente

l’operatore all’interno dello spazio di lavoro. Questa é la piú semplice forma di robot

collaborativo in quanto viene semplicemente imposto uno stop al movimento del robot

all’ingresso dell’operatore nella sua area di lavoro.

Hand guiding:

É una funzione utilizzata per insegnare al robot, letteramente guidandolo attraverso i vari

task, in modo che “imparino” la sequenza di operazioni e di movimenti necessari al

conpletamento di un determinato task.

Speed and separation monitoring:

Questo sistema viene utilizzato quando é previsto un intervento frequente da parte degli

operatori all’interno dell’area di lavoro del cobot; il sistema rileva la presenza dell’operatore

e riduce la velocitá del robot progressivamente con l’avvicinarsi dell’operatore e viceversa

accelera nuovamente all’aumentare della distanza.

Power and force limiting:

É una funzione che permette al robot, in caso di interferenza dell’operatore, di bloccare il

suo movimento e invertirlo, in modo da non ferire l’operatore. Inoltre la soft skin e i design

arrotondati dei robot fanno si che gli impatti vengano attutiti.

Tipi di contatto:

• Contatto quasi-statico: avviene quando il robot schiaccia una parte del corpo umano

contro un oggetto fisso.

• Contatto transitorio: quando il contatto avviene senza alcuna restrizione e quindi il corpo

umnao puó muoversi sotto la forza del robot.

Nel caso di contatto transitorio, la forza applicabile prima di ferire l’operatore, puó essere

doppia rispetto a quella nel contatto quasi statico.

Sicurezza:

É la proprietá del sistema che assicura che non recherá danno alla vita umana o

all’ambiente; essa dipende da:

• Software

• Hardware

• Topologiad el sistema

• Manutenzione del sistema

• Operatori umnai coinvolti nel processo

Sistemi per garantire la sicurezza:

• Sistemi di controllo:

Gestire il funzionamento di un robot autonomo collaborativo assicurando che il suo

funzionamento non presenti pericoli per gli esseri umani

• Sistemi di protezione o di blocco:

Se il comportamento del robot autonomo supera alcuni limiti prestabiliti allora il sistema di

blocco entra in azione.

Il primo di sistema di controllo deve assicurare un comportamento sicuro ma puó fallire, il

secondo deve assicurare il mantenimento della sicurezza in caso di fallimento del primo

sistema.

Computer e sicurezza:

• Hardware: complessitá dominata

• Software: complessitá fuori controllo; se rappresentiamo il comportamento di una singola

macchina con una macchina a stati, il comportamneto complessivo di N macchine

ciascuna interagenti con M stati, é una macchina con M^N stati.

Pericolo:

La maniera piú importante per migliorare la sicurezza di un sistema consiste

nell’identificazione delle maniere in cui puó provocare danni.

Il pericolo é costituito da due componenti:

• Rischio: é la probabilitá che una persona o cosa possa subire conseguenze da un

pericolo potenziale

• Danno: é la stima della misura quantitativa degli effetti di un pericolo.

Precedenze nella gestione del pericolo:

1. Eliminare il pericolo

2. Prevenire o minimizzare l’occorrenza del pericolo

3. Controllare il pericolo nel caso passi da potenziale ad attuale

4. Minimizzare il danno

Categorie di probabilitá di occorrenza (rischio):

Categorizzazione delle conseguenze (danno):

Matrice delle classi di rischio:

Sistemi di base per garantire la sicurezza:

• Interlock (blocco): sono quei sistemi che non permettono al sistema di funzionare a meno

che distanze di sicurezza siano assicurate.

• Guard (sbarramento): sono sistemi passivi che impediscono l’accesso di persone o

sistemi a zone che sono pericolose

La distinzione non é sempre cosí netta.

Fail safe:

Caratteristica desiderabile di alcuni sistemi che in caso di guasto portano l’oggetto

controllato in uno stato di sicurezza; se il raggiungimento di uno stato di fail safe é possibile,

alcune funzioni del sistema di controllo possono aiutare a raggiungerlo.

Watch dog:

Il compito del WD é di controllare ciclicamente se il sistema di controllo principale funziona,

in caso negativo deve portare il sistema nello stato fail safe.

Fail operational:

Non tutti i sistemi sono fail safe, perció alcuni guasti devono essere gestiti in modo che il

sistema continui a funzionare. Questo viene solitamente realizzato attraverso ridondanza.

Un sistema degradato é un sistema in cui si sono verificati dei guasti ma sta ancora

funzionando.

Sensori a tripla ridondanza (TMR):

Sono anche detti sistemi di votazione, vince la maggioranza, in quanto la maggioranza dei

sensori ha una probabilitá maggiore di avere ragione; la probabilitá che due sensori siano

fallati e uno sia corretto é molto bassa (la probabiliá che due sensori siano fallati e pf²).

Fail silent:

Un nodo si dice fail silent se in caso di errore non produce un outbput non corretto, ma

tace; l’errore é facilmente rilevabile dopo un time out (uso un timer per rilevale la silent

failure).

Sistemi bizantini:

É un sistema che si comporta nella peggiore maniera possibile per definizione, definibile

anche come comportamento sleale. Questi sistemi vanno trasformati in sistemi fail silent

attraverso l’approccio Voltan.

Approccio Voltan:

Questo metodo consiste nel creare nodi con due processori gemelli; si suppone che la

probabilitá che entrambi esibiscano un comportamento bizantino sia quasi nulla. I

processori gemelli sono quasi sincroni e si scambiano messaggi su un canale a

comunicazione hardware. Gli input che arrivano a un nodo sono distribuiti a entrambi i

gemelli; essi effettuano dei calcoli che sono identici, determnistici e quasi in

contemporanea.

I gemelli non bizantini sono in grado di:

1. Accettare messaggi di input da un nodo solo se marcato da entrambi i gemelli che

costituiscono tale nodo

2. Di marcare i segnali i segnali di output con una firma non modificabile

3. Di inviare il proprio messaggio di output al proprio gemello attraverso un canale a mutua

esclusione

4. Di confrontare il messaggio ricevuto dal gemello con quello generato da se; se i

messaggi sono identici, il processore controfirma e lo spedisce al nodo di destinazione,

altrimenti il processore entra in uno stato di blocco.

Fault, errors and failures:

• Fault: rottura, difetto all’interno di un componento del sistema

• Error: scostamento dal comportamento atteso di una parte del sistema

• Failure: il sistema non riesce ad eseguire la funzione a lui richiesta.

Affidabilitá:

É la probabilitá che un sistema funzioni correttamente per un determinato periodo di tempo

sotto condizioni operative date.

Affidabilitá non significa sicurezza.

La sicurezza é una proprietá del sistema di componenti;

L’affidabilitá é una proprietá di un componente del sistema;

Solo alcuni componenti possono mostrare una relazione diretta tra la propria non-affidabilitá

e la non-sicurezza.

Tecniche analitiche per l’identificazione di pericoli:

• FMEA (failure modes and effects analysis):

Considera il fault di ciascun componente e ne traccia gli effetti in maniera da determinare le

conseguenze ultime. Analisi di tipo bottom-up

• FTA (fault tree analysis):

Metodo grafico per ripercorrere all’indietro la catena di eventi che ha portato a un pericolo

giá identificato; cause legate a insiemi di eventi congiunti (AND) o disgiunti (OR) disposte ad

albero. Individuo il pericolo e poi la causa.

Normaive di sicurezza nei sistemi di controllo:

Obiettivo:

• Assegnare dei parametri quantitativi ai sistemi che assolvono funzioni di sicurezza non

svolte dal sistema di controllo

• Attraverso tali parametri stimare la congruitá e l’efficacia di un sistema di sicurezza

• Rendere i risultati verificabili seguendo le metodologie stabilite da norme internazionali

Terminologia:

• Sicurezza funzionale: é implementato su sistemi che monitorano e in caso di situazioni di

pericolo, prendono il controllo delle operazioni in modo da assicurare operazioni sicure.

• Un safety-related control system (SRCS) implementa safety-related control functions

(SRCF) riconoscendo situazioni di pericolo e portando il sistema in uno stato di fail safe

assicurandosi che delle azioni specifiche accadano.

Principi generali nella riduzione del rischio:

• Eliminare o minimizzare ogni possibile rischio a partire dal progetto di un dispositivo

• Applicare le necessarie misure di protezione verso i pericoli che non possono essere

eliminati

• Informare gli utenti dei rischi che non possono essere eliminati nonostante tutte le misure

protettive che possono essere intraprese

Un guasto pericoloso é un guasto che pregiudica la funzione di controllo relativa alla

sicurezza come conseguenza di guasti hardware casuali.

• Guasto percoloso — Dangerous failure

• Gusto hardware casuale — Dangerous fault

Valutazione quantitativa delle prestazioni delle funzioni di sicurezza:

• SIL (safety integrity level)

• PL (performance level)

In entrambi i casi la valutazione quanitativa é espressa in intervalli di probabilitá in cui si

possono verificare guasti pericolosi in un ora; probabilitá di un guasto pericoloso da

confinare entro parametri predeterminati e ritenuti tolerabili per un certo tipo di applicazione.

SIL :

Determina il grado di affidabilitá richiesto a una funzione di controllo relativa alla sicurezza

(SRCF); il SIL é espresso sulla base di una scala di probabilitá oraria che si verifichi un

guasto pericoloso.

PL:

É la capacitá di un sistema di protezione di realizzare una funzione di sicurezza; ;e definito

in base alla probabilitá di guasto pericoloso come conseguenza di guasti hardware

potenzialmente pericolosi.

La probabilitá

Dettagli
Publisher
A.A. 2021-2022
11 pagine
SSD Scienze matematiche e informatiche INF/01 Informatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher alex10795sig di informazioni apprese con la frequenza delle lezioni di Informatica industriale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Modena e Reggio Emilia o del prof Pazzi Luca.