Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
SOCIETÀ MEDICO PAZIENTE
1. Dati
3. Accettazione
6. Adozione
2. Validazione
4. Overconfidence
7. Interazione
5. Mediazione
8. Digital Divide
9. Relazione medico- paziente
①SFIDA DEI DATI> algoritmi di machine learning: più informazioni → migliori risultati> raccolti dati che non hanno nulla a che fare con diagnosi → comportamenti di consumo,preferenze, interessi, personalità e profilo geneticoes: 2017, Facebook: algoritmo che individua persone a rischio suicidio → POLEMICHE: vaoltre lo scopo dei social media> DATI DA TUTELARE:
1. dati personali = dati che permettono di rintracciare una persona es: nome,cognome, indirizzo, n. di telefono, indirizzo IP...
2. dati sensibili = dati che potrebbero discriminare una persona es: religione, etnia,opinioni politiche...
3. dati giudiziari = dati di procedimenti giudiziari in cui un soggetto è coinvolto>
ELABORAZIONE AUTONOMA DEI DATI → alcuni algoritmi possono arrivare da soli ai datipersonali
e sensibili partendo da altre tipologie di dati> ACQUISTO DATI SANITARI (raccolti per altri scopi) da parte di aziende farmaceutichees: test genetici → dati venduti ad aziende farmaceutiche②SFIDA DELLA RESPONSABILIÀ E DELLA VALIDAZIONE> IA possono commettere errori → di chi è la responsabilità ?> algoritmi black- box non possono essere totalmente validati> IA non è un tool③SFIDA DELL'ACCETTAZIONE> una tecnologia deve essere accettata prima di essere utilizzata> TAM = Technology Acceptance Model (Fred Davies, primi anni '80)• basato su modello del comportamento pianificato = primo modello della psicologiasociale che cerca di sistematizzare un legame tra comportamenti e atteggiamenti →ricerca dei predittori di un dato comportamento• 2 atteggiamenti principali:1. utilità percepita2. facilità d'uso percepita• PROBLEMA: questo algoritmo predice meno del 50% di uso effettivo>
intenzioni che non vengono soddisfatte influenzano i comportamenti successivi<br> comportamento è situazionale → non sempre le intenzioni determinano un corrispondente comportamento<sup>④</sup>SFIDA DELL'OVERCONFIDENCE<br> rischio di diventare dipendenti dalla tecnologia dal punto di vista cognitivo → deskilling= perdere abilità ora svolte dalla tecnologia<br> assegnare alla tecnologia responsabilità che non le competono<br> problemi se la tecnologia non funziona<sup>⑤</sup>SFIDA DELLA MEDIAZIONE<br> tecnologie diventano sempre più intelligenti e autonome → entità con cui dialogare<br> problemi a mediare le informazioni date dalla tecnologia al paziente<br> medici devono essere formati per questo compitoSFIDE AL PAZIENTESCENARIO IN CUI VIVE IL PAZIENTE:<br> accesso al voto → le persone hanno diritto di parola su ciò che le riguarda e a esprimere le proprie opinioni indipendentemente dall'expertise = riduzionedell'autorità del medico, internet e web 2.0 - tutti possono esprimere la propria opinione indipendentemente dall'expertise e dalla posizione istituzionale. Le persone hanno accesso a informazioni immediate, mettendo in dubbio la medicina ufficiale. Web 1.0 = siti istituzionali; web 2.0 = social media e blog. Consumer health - la sanità è oggetto di marketing e prodotto commerciale. La salute è considerata un valore del marketing, percepita come un prodotto acquistabile. Controversie mediche - negli ultimi 10 anni le denunce ai medici sono quadruplicate. La medicina è percepita come un servizio che è possibile valutare. Medicina difensiva - prescrizione di più esami del necessario per sostenere di aver fatto tutto il possibile in caso di denuncia. Doctor shopping - consulto di più medici per trovare l'opinione che più desidera il paziente stesso. PROFILO DEL PAZIENTE MODERNO - piùprimo livello es: paziente • utente di terzo livello = non entra in contatto con la tecnologia e non è influenzato dal suo utilizzo da parte degli altri utenti La tecnologia può essere un'opportunità per migliorare la cura dei pazienti cronici, ma ci sono alcune sfide da affrontare nell'adozione di queste tecnologie. Gli utenti di primo livello, come i medici, devono essere preparati ad utilizzare le nuove tecnologie e ad integrarle nella loro pratica clinica. Gli utenti di secondo livello, come i pazienti, possono trarre vantaggio dalle tecnologie, ma devono essere coinvolti attivamente nel processo di cura e responsabilizzati per la propria salute. Gli utenti di terzo livello, come i caregiver, possono essere influenzati dall'utilizzo delle tecnologie da parte degli altri utenti, ma non entrano direttamente in contatto con esse. Inoltre, l'adozione delle tecnologie può portare a un cambiamento nella dinamica tra medico e paziente. I pazienti possono sentirsi più preparati e avere accesso a più informazioni sulla propria salute, il che può renderli più attivi nel processo di cura. Tuttavia, questo può anche portare a una maggiore sfiducia nei confronti del medico e a una maggiore propensione a cercare cure alternative. In conclusione, l'adozione delle tecnologie nella cura dei pazienti cronici può portare a numerosi benefici, ma richiede un'attenzione particolare per garantire che tutti gli utenti siano coinvolti in modo appropriato e che vengano affrontate le sfide legate a questa transizione.primo livello es: paziente• utente di terzo livello = non usa la tecnologia, ma prende decisioni sull'utilizzo di questa es: manager di un ospedale> bisogna considerare l'atteggiamento del paziente nei confronti della tecnologia↳ studio di PwC: sondaggi sugli atteggiamenti di 12 Paesi nei confronti dei "dottorirobot"• parte della popolazione è favorevole e prevede diversi vantaggi• maggioranza è sfavorevole perché prevede molti svantaggi• non si sono evidenziate differenze tra genere né tra generazioni differenti• differenze evidenziate riguardano la provenienza:- Paesi in via di sviluppo → più favorevoli- Paesi ricchi → più critici⑦SFIDA DELL'INTERAZIONE> deve essere facilitata> Ergonomia, usabilità e user experience potrebbero non essere sufficienti:• interfaccia scompare• tecnologie autonome che prendono decisioni> necessari nuovi approcci>
ERGONOMIA = disciplina che studia i processi di lavoro (spesso mediati da strumenti/tecnologie) e mira a migliorarne sicurezza e funzionalità.
Unione di 2 discipline:
- ERGONOMIA: sviluppatasi in Europa, originariamente interessata ai processi di lavoro/produzione industriale, matrice fisiologica/biomeccanica.
- HUMAN FACTORS: sviluppatasi negli USA, originariamente interessata a ridurre incidenti nell'utilizzo di veicoli bellici, matrice psicologica/cognitiva.
Fine anni '40: Europei vanno in America per studiare HF → unione delle 2 discipline: HFE = Human Factors Ergonomic.
USABILITÀ = emerge intorno agli anni '80 quando i designer iniziano a includere prescrizioni ergonomiche nei prodotti industriali.
System Image di Norman:
- Utente e designer hanno un'immagine diversa del prodotto.
- Per creare il prodotto bisogna partire dall'immagine che ne ha l'utente > incontro tra ergonomia e usabilità è
avvenuto "in ritardo":
- ergonomia di base non dialogava con il design
- designer restii ad accettare nuove linee guida
- evoluzione necessaria delle tecnologie da informativa a esperienziali (basate sull'esperienza dell'utente)
> USER EXPERIENCE → elementi per il successo di un prodotto:
- Emozioni:
- preferiamo oggetti inusabili se ci siamo affezionati
- ricerchiamo esperienze complesse, non sempre "facili", in relazione alle nostre skill
- Contesto:
- fisico es: totem di Loudermilk: totem informativi pensati per un'utenza molto ampia → sia parte visiva che parte sonora; PROBLEMA: furono posizionati vicini a fontane che ne annullavano l'esperienza sonora
- necessaria la context inquiry = esplorazione del contesto fisico in cui viene posizionato il prodotto
- socio-culturale es: Tube Chat: Jonathan Dunne, americano trasferitosi in UK, decide di lasciare in giro dei volantini con una spilletta promuovendo l'interazione
-
SFIDA DELLA RELAZIONE MEDICO-PAZIENTE: EFFETTO "TERZO INCOMODO"
- PARALISI DELLA DECISIONE = ritardi, incertezza e confusione nell'implementazione della IA
- problema organizzativo
- IA usata come riferimento, catalizzatore di discussioni e conflitti
- non sempre facilita il lavoro
- ESCLUSIONE ("CONFUSIONE DELLE LINGUE") = come adattare informazioni dalla consultazione alla IA
- alcuni elementi possono perdersi
- dipende da interpretazione che un primo personaggio dà a quello che dice un secondo personaggio
- problema comunicativo - necessario double-check con il paziente stesso
- es: Babylon (UK) = applicazione ufficiale della corona ideata per alleviare la pressione sul sistema sanitario nazionale
- chatbot che può dare una prima risposta alle esigenze delle persone
- PROBLEMA = rischio che il chatbot sottostimi la situazione
- CONFUSIONE DI RUOLI = paziente
- PARALISI DELLA DECISIONE = ritardi, incertezza e confusione nell'implementazione della IA