Anteprima
Vedrai una selezione di 6 pagine su 21
Appunti di Etica Applicata (tutte le lezioni) Pag. 1 Appunti di Etica Applicata (tutte le lezioni) Pag. 2
Anteprima di 6 pagg. su 21.
Scarica il documento per vederlo tutto.
Appunti di Etica Applicata (tutte le lezioni) Pag. 6
Anteprima di 6 pagg. su 21.
Scarica il documento per vederlo tutto.
Appunti di Etica Applicata (tutte le lezioni) Pag. 11
Anteprima di 6 pagg. su 21.
Scarica il documento per vederlo tutto.
Appunti di Etica Applicata (tutte le lezioni) Pag. 16
Anteprima di 6 pagg. su 21.
Scarica il documento per vederlo tutto.
Appunti di Etica Applicata (tutte le lezioni) Pag. 21
1 su 21
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Il decoro e l'etica del lavoro

Sotto il tema del decoro poi c'è il discorso dei compensi, ci sono compensi "non decorosi" legati a lavori decorosi, ci sono lavori "non decorosi" legati ad un compenso molto decoroso il discorso dell'apparire e dell'essere da un punto di vista deontologico, perché è vero che apparire non è essere, però se una cosa è, deve apparire in quanto tale.

Il decoro, quindi, può essere definito come la divisa morale delle professioni, cioè si deve apparire per quello che si è.

Etica del lavoro

Con Kant l'etica diventa una lista di doveri e questo diventa meno piacevole perché un dovere e quindi lede alla libertà, prima di Kant l'etica era messa in relazione solo in relazione alla felicità, nonostante questo avesse intrinseco il discorso sui doveri.

L'etica del lavoro ben fatto è quindi il modo per essere felici a fine giornata, nonostante i doveri.

Primo Levi,

in un suo testo, sottolinea la dignità professione e capacità di bene in cui era in possesso, anche se tirava su muri probabilmente per una camera a gas. Nel campo di concentramento diventavi un numero, ti toglievano la libertà, ma nel lavoro, seppur non etico visto ciò che poi sarebbe diventato, la dignità professionale non la perde e questo gli dava la forza di andare avanti. "Lavoro", infatti, deriva dal latino "labor" (fatica) + "opus" (opera), ma deriva anche dal greco: "Ponein" (fatica) + "ergazestai" (energia): questo ci fa capire che è vero che c'è la fatica dietro al lavoro, c'è un dovere, però è una fatica che dà un senso di libertà come poche altre, che ha dietro una profonda identità personale. Il lavoro è quindi una questione di anima, non solo di corpo, perché una persona che fa un lavoro che gli piace si

Gratifica giorno per giorno, nonostante la stanchezza fisica. In conclusione, l'etica del lavoro ben fatto quindi è la raccolta dei doveri che ci aiutano a performare bene, ma non per l'azienda, per noi stessi, per essere soddisfatti e raggiungere il fine ultimo.

Etica delle intelligenze artificiali

Con lo sviluppo della tecnologia in ogni ambito della nostra vita si è andato a sviluppare anche tutto il mondo della tecnologia artificiale. La tecnologia artificiale è una scienza e un insieme di tecniche computazioni ispirate dal modo in cui gli esseri umani utilizzano il proprio sistema nervoso e il proprio corpo. Questa, benché progettata dall'uomo, percepisce il proprio ambiente, ragiona in base alle conoscenze che le vengono date e che sviluppa grazie alla capacità di apprendimento automatico e ha una propria capacità decisionale (anche se limitata).

È stata fatta una lista di "eventi sentinella" dei rischi che si

possono correre con l'intelligenza artificiale e di fronte a questa situazione il Ministero della salute con la legge n.208 del 2015 ha reputato che la realizzazione delle attività di prevenzione e gestione del rischio sanitario rappresentassero un interesse primario del Sistema sanitario nazionale, sia perché contente un miglior utilizzo delle risorse disponibili, sia perché garantisce la tutela del paziente. La legge impone che nell'ambito delle strutture sanitarie delle Regioni e delle Province Autonome deve essere istituita una funzione di monitoraggio, prevenzione e gestione del rischio sanitario. Altrettanto importante è la legge n.24 del 2017 che istituisce presso ogni Regione un centro per la gestione del rischio sanitario e la sicurezza del paziente e istituisce a livello nazionale l'Osservatorio per le buone pratiche sulla sicurezza nella sanità, a cui devono giungere dalle Regioni tutti i dati sui rischi e sugli eventi avversi.gestione del rischio clinico si basa sul concetto di analisi degli errori e sul concetto di apprendimento degli errori stessi, per riuscire a mettere poi in atto gli strumenti utili per prevenire nuovi errori. Da questo si ricava un duplice aspetto positivo perché sicuramente si ha più sicurezza per il paziente, ma anche qui si ha un gran risparmio di risorse. Le aree di applicazione dell'intelligenza artificiale ad oggi sono molteplici e riguardano: - La dinamica preventiva; - La diagnosi; - La chirurgia e i trattamenti medici; - La riabilitazione; - L'assistenza domiciliare post-ospedaliera. E i progressi in ambito scientifico stanno sempre di più migliorando le tecniche di applicazione e ampliando le aree di applicazione, ma ad oggi rimane ancora una grande criticità da risolvere: quello del black box. Quando un macchinario dotato di intelligenza artificiale prende una decisione, noi non conosciamo il perché di quella decisione e non sappiamo cosa.ci sia dietro e questo pone l'attenzione su una discussione etica importante, perché ad oggi un sistema sanitario non può permettersi una mancata o ridotta trasparenza riguardo alle decisioni che vengono prese relativamente alla salute del paziente. Una domanda che sorge spontanea è "Possiamo fidarci delle tecnologie in ambito sanitario?". Tra il 2000 e il 2013 sono stati fatti 1 milione e 800 mila procedure robotiche e il tasso di eventi avversi è stato pari a 0.6%. Di questo 0.6% 1600 hanno avuto un impatto negativo sulla vita del paziente e di questi 1600 le morti sono state 144 e da questi dati poi ci si è chiesto se un robot potesse avere responsabilità. Essendo un bene di consumo dovrebbe ritenersi applicabile la responsabilità del produttore, ma essendoci tutta la componente informatica bisognerebbe capire quanta responsabilità dare anche al programmatore ed essendo il robot esercente della professione.sanitariabisognerebbe capire anche quanta responsabilità dare alla struttura sanitaria.Dobbiamo quindi distinguere tre casi per poter attribuire una responsabilità:
i. Il primo caso in cui il robot supporta l’atto medico, di conseguenza in questo caso i profili di responsabilità cadono sul medico (perché avrebbe dovuto soprassedere al risultato della tac) e sulla struttura sanitaria e sullo strumento digitale, cioè il produttore del robot.
ii. Nel secondo caso in cui c’è stato un errato utilizzo dello strumento digitale e quindi la responsabilità cade sul medico e sulla struttura sanitaria.
iii. Nel terzo caso abbiamo il malfunzionamento del prodotto e qui la responsabilità cade sicuramente sul produttore, ma anche sul medico perché potrebbe non aver edotto attraverso una corretta informazione il paziente sul margine di errore dello strumento.
La problematica è così importante che nel 2017 il parlamento europeo

Norme di diritto civile sulla robotica

Una risoluzione è stata sancita sulle raccomandazioni alla commissione riguardanti le norme di diritto civile sulla robotica. Queste raccomandazioni si concentrano principalmente sui robot impiegati nell'assistenza medica e sottolineano il pericolo della disumanizzazione delle pratiche di cura. Tuttavia, allo stesso tempo, si riconosce che l'utilizzo dei robot facilita il lavoro degli assistenti sanitari, consentendo loro di dedicare più tempo alla diagnosi e alla pianificazione delle opzioni terapeutiche. È importante sottolineare che gli assistenti umani continueranno a essere necessari per svolgere un ruolo importante e irrinunciabile nella loro interazione sociale. Pertanto, si enfatizza l'importanza di non deumanizzare l'opera medica.

Sono state definite anche le caratteristiche dei robot intelligenti:

  • Devono avere la capacità di acquisire autonomia attraverso sensori e/o lo scambio di dati con l'ambiente circostante.
  • Devono essere in grado di apprendere e adattarsi alle situazioni.
  • Devono rispettare le norme etiche e legali stabilite per la loro utilizzazione.
  • Devono garantire la sicurezza dei pazienti e degli operatori sanitari.
l'analisi di dati, devono avere una capacità di apprendimento attraverso esperienza e interazione, la forma del supporto fisico del robot, devono avere la capacità di adeguare il loro comportamento e le loro azioni all'ambiente in cui vengono utilizzati. Sottolinea l'importanza della formazione per il personale sanitario nell'utilizzo dei robot medici in modo da definire dei requisiti professionali minimi e far sì che la professione di questi si trasformi in un'autorizzazione ad utilizzare i robot. Questo facendo sempre in modo che si rispetti il principio dell'autonomia supervisionata dei robot in base al quale la programmazione iniziale di cura e la scelta finale dell'esecuzione spetteranno sempre a un chirurgo umano. Nell'ambito di un processo decisionale l'operatore umano rimane al vertice di un sistema e può sostituirsi al robot quando una particolare situazione lo richiede. Per questo motivo le normative.sottolineano che una possibile soluzione al problema dellacomplessità dell'attribuzione della responsabilità per i danni causati da robot più autonomi potrebbe richiedere un regime di assicurazione obbligatoria, come per le auto. Si pensa anche nel lungo termine all'istituzione di uno status giuridico specifico per i robot, in modo da poterli considerare come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome. Negli USA addirittura è stato elaborato un concetto di responsabilità giuridica dei robot avanzato al punto da assegnare loro una responsabilità di tipo penale in quanto il robot sarebbe lo strumento attraverso il quale il programmatore o l'utilizzatore commettono il reato. Ci sono però delle obiezioni riguardo questo sistema perché la pena non potrebbe svolgere.una corretta gestione dell'IA. Questi principi includono la trasparenza, la responsabilità, la sicurezza e la privacy. Inoltre, è importante considerare l'impatto sociale ed economico dell'IA, garantendo che non crei disuguaglianze o danni alla società. La regolamentazione dell'IA è un tema dibattuto, con diverse opinioni su come affrontare questa sfida. Alcuni sostengono la necessità di leggi e regolamenti specifici, mentre altri credono che sia sufficiente affidarsi all'autoregolamentazione dell'industria. In ogni caso, è fondamentale trovare un equilibrio tra l'innovazione tecnologica e la tutela dei diritti e dei valori umani.

ottenere un'intelligenza artificiale antropocentrica, che massimizzi i benefici, che riduca al massimo i rischi e che sia affidabile.

Dettagli
Publisher
A.A. 2021-2022
21 pagine
SSD Ingegneria industriale e dell'informazione ING-IND/23 Chimica fisica applicata

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Fe__9999 di informazioni apprese con la frequenza delle lezioni di Etica applicata e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università Campus Bio-medico di Roma o del prof Tambone Victor.