vuoi
o PayPal
tutte le volte che vuoi
Cooperazione in parallelo:
• Area di lavoro condivisa
• Co-Work simultaneo
Collaborazione:
• Area di lavoro condivisa
• Co-Work simultaneo
• Contatto fisico
Coesistenza:
L’operatore porta avanti un determinato task in una zona di lavoro che non interferisce con il
robot. Ci sono quindi aree di lavoro separate.
Operazioni collaborative:
La collaborazione puó includere uno o piú dei seguenti metodi:
1. Safety monitored stop
2. Hand guiding
3. Speed and separation monitoring
4. Power and force limiting
Safety monitored stop:
Questa funzione viene usata nei cobot disegnati per operare da soli, in cui si ha raramente
l’operatore all’interno dello spazio di lavoro. Questa é la piú semplice forma di robot
collaborativo in quanto viene semplicemente imposto uno stop al movimento del robot
all’ingresso dell’operatore nella sua area di lavoro.
Hand guiding:
É una funzione utilizzata per insegnare al robot, letteramente guidandolo attraverso i vari
task, in modo che “imparino” la sequenza di operazioni e di movimenti necessari al
conpletamento di un determinato task.
Speed and separation monitoring:
Questo sistema viene utilizzato quando é previsto un intervento frequente da parte degli
operatori all’interno dell’area di lavoro del cobot; il sistema rileva la presenza dell’operatore
e riduce la velocitá del robot progressivamente con l’avvicinarsi dell’operatore e viceversa
accelera nuovamente all’aumentare della distanza.
Power and force limiting:
É una funzione che permette al robot, in caso di interferenza dell’operatore, di bloccare il
suo movimento e invertirlo, in modo da non ferire l’operatore. Inoltre la soft skin e i design
arrotondati dei robot fanno si che gli impatti vengano attutiti.
Tipi di contatto:
• Contatto quasi-statico: avviene quando il robot schiaccia una parte del corpo umano
contro un oggetto fisso.
• Contatto transitorio: quando il contatto avviene senza alcuna restrizione e quindi il corpo
umnao puó muoversi sotto la forza del robot.
Nel caso di contatto transitorio, la forza applicabile prima di ferire l’operatore, puó essere
doppia rispetto a quella nel contatto quasi statico.
Sicurezza:
É la proprietá del sistema che assicura che non recherá danno alla vita umana o
all’ambiente; essa dipende da:
• Software
• Hardware
• Topologiad el sistema
• Manutenzione del sistema
• Operatori umnai coinvolti nel processo
Sistemi per garantire la sicurezza:
• Sistemi di controllo:
Gestire il funzionamento di un robot autonomo collaborativo assicurando che il suo
funzionamento non presenti pericoli per gli esseri umani
• Sistemi di protezione o di blocco:
Se il comportamento del robot autonomo supera alcuni limiti prestabiliti allora il sistema di
blocco entra in azione.
Il primo di sistema di controllo deve assicurare un comportamento sicuro ma puó fallire, il
secondo deve assicurare il mantenimento della sicurezza in caso di fallimento del primo
sistema.
Computer e sicurezza:
• Hardware: complessitá dominata
• Software: complessitá fuori controllo; se rappresentiamo il comportamento di una singola
macchina con una macchina a stati, il comportamneto complessivo di N macchine
ciascuna interagenti con M stati, é una macchina con M^N stati.
Pericolo:
La maniera piú importante per migliorare la sicurezza di un sistema consiste
nell’identificazione delle maniere in cui puó provocare danni.
Il pericolo é costituito da due componenti:
• Rischio: é la probabilitá che una persona o cosa possa subire conseguenze da un
pericolo potenziale
• Danno: é la stima della misura quantitativa degli effetti di un pericolo.
Precedenze nella gestione del pericolo:
1. Eliminare il pericolo
2. Prevenire o minimizzare l’occorrenza del pericolo
3. Controllare il pericolo nel caso passi da potenziale ad attuale
4. Minimizzare il danno
Categorie di probabilitá di occorrenza (rischio):
Categorizzazione delle conseguenze (danno):
Matrice delle classi di rischio:
Sistemi di base per garantire la sicurezza:
• Interlock (blocco): sono quei sistemi che non permettono al sistema di funzionare a meno
che distanze di sicurezza siano assicurate.
• Guard (sbarramento): sono sistemi passivi che impediscono l’accesso di persone o
sistemi a zone che sono pericolose
La distinzione non é sempre cosí netta.
Fail safe:
Caratteristica desiderabile di alcuni sistemi che in caso di guasto portano l’oggetto
controllato in uno stato di sicurezza; se il raggiungimento di uno stato di fail safe é possibile,
alcune funzioni del sistema di controllo possono aiutare a raggiungerlo.
Watch dog:
Il compito del WD é di controllare ciclicamente se il sistema di controllo principale funziona,
in caso negativo deve portare il sistema nello stato fail safe.
Fail operational:
Non tutti i sistemi sono fail safe, perció alcuni guasti devono essere gestiti in modo che il
sistema continui a funzionare. Questo viene solitamente realizzato attraverso ridondanza.
Un sistema degradato é un sistema in cui si sono verificati dei guasti ma sta ancora
funzionando.
Sensori a tripla ridondanza (TMR):
Sono anche detti sistemi di votazione, vince la maggioranza, in quanto la maggioranza dei
sensori ha una probabilitá maggiore di avere ragione; la probabilitá che due sensori siano
fallati e uno sia corretto é molto bassa (la probabiliá che due sensori siano fallati e pf²).
Fail silent:
Un nodo si dice fail silent se in caso di errore non produce un outbput non corretto, ma
tace; l’errore é facilmente rilevabile dopo un time out (uso un timer per rilevale la silent
failure).
Sistemi bizantini:
É un sistema che si comporta nella peggiore maniera possibile per definizione, definibile
anche come comportamento sleale. Questi sistemi vanno trasformati in sistemi fail silent
attraverso l’approccio Voltan.
Approccio Voltan:
Questo metodo consiste nel creare nodi con due processori gemelli; si suppone che la
probabilitá che entrambi esibiscano un comportamento bizantino sia quasi nulla. I
processori gemelli sono quasi sincroni e si scambiano messaggi su un canale a
comunicazione hardware. Gli input che arrivano a un nodo sono distribuiti a entrambi i
gemelli; essi effettuano dei calcoli che sono identici, determnistici e quasi in
contemporanea.
I gemelli non bizantini sono in grado di:
1. Accettare messaggi di input da un nodo solo se marcato da entrambi i gemelli che
costituiscono tale nodo
2. Di marcare i segnali i segnali di output con una firma non modificabile
3. Di inviare il proprio messaggio di output al proprio gemello attraverso un canale a mutua
esclusione
4. Di confrontare il messaggio ricevuto dal gemello con quello generato da se; se i
messaggi sono identici, il processore controfirma e lo spedisce al nodo di destinazione,
altrimenti il processore entra in uno stato di blocco.
Fault, errors and failures:
• Fault: rottura, difetto all’interno di un componento del sistema
• Error: scostamento dal comportamento atteso di una parte del sistema
• Failure: il sistema non riesce ad eseguire la funzione a lui richiesta.
Affidabilitá:
É la probabilitá che un sistema funzioni correttamente per un determinato periodo di tempo
sotto condizioni operative date.
Affidabilitá non significa sicurezza.
La sicurezza é una proprietá del sistema di componenti;
L’affidabilitá é una proprietá di un componente del sistema;
Solo alcuni componenti possono mostrare una relazione diretta tra la propria non-affidabilitá
e la non-sicurezza.
Tecniche analitiche per l’identificazione di pericoli:
• FMEA (failure modes and effects analysis):
Considera il fault di ciascun componente e ne traccia gli effetti in maniera da determinare le
conseguenze ultime. Analisi di tipo bottom-up
• FTA (fault tree analysis):
Metodo grafico per ripercorrere all’indietro la catena di eventi che ha portato a un pericolo
giá identificato; cause legate a insiemi di eventi congiunti (AND) o disgiunti (OR) disposte ad
albero. Individuo il pericolo e poi la causa.
Normaive di sicurezza nei sistemi di controllo:
Obiettivo:
• Assegnare dei parametri quantitativi ai sistemi che assolvono funzioni di sicurezza non
svolte dal sistema di controllo
• Attraverso tali parametri stimare la congruitá e l’efficacia di un sistema di sicurezza
• Rendere i risultati verificabili seguendo le metodologie stabilite da norme internazionali
Terminologia:
• Sicurezza funzionale: é implementato su sistemi che monitorano e in caso di situazioni di
pericolo, prendono il controllo delle operazioni in modo da assicurare operazioni sicure.
• Un safety-related control system (SRCS) implementa safety-related control functions
(SRCF) riconoscendo situazioni di pericolo e portando il sistema in uno stato di fail safe
assicurandosi che delle azioni specifiche accadano.
Principi generali nella riduzione del rischio:
• Eliminare o minimizzare ogni possibile rischio a partire dal progetto di un dispositivo
• Applicare le necessarie misure di protezione verso i pericoli che non possono essere
eliminati
• Informare gli utenti dei rischi che non possono essere eliminati nonostante tutte le misure
protettive che possono essere intraprese
Un guasto pericoloso é un guasto che pregiudica la funzione di controllo relativa alla
sicurezza come conseguenza di guasti hardware casuali.
• Guasto percoloso — Dangerous failure
• Gusto hardware casuale — Dangerous fault
Valutazione quantitativa delle prestazioni delle funzioni di sicurezza:
• SIL (safety integrity level)
• PL (performance level)
In entrambi i casi la valutazione quanitativa é espressa in intervalli di probabilitá in cui si
possono verificare guasti pericolosi in un ora; probabilitá di un guasto pericoloso da
confinare entro parametri predeterminati e ritenuti tolerabili per un certo tipo di applicazione.
SIL :
Determina il grado di affidabilitá richiesto a una funzione di controllo relativa alla sicurezza
(SRCF); il SIL é espresso sulla base di una scala di probabilitá oraria che si verifichi un
guasto pericoloso.
PL:
É la capacitá di un sistema di protezione di realizzare una funzione di sicurezza; ;e definito
in base alla probabilitá di guasto pericoloso come conseguenza di guasti hardware
potenzialmente pericolosi.
La probabilitá