Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

- Selezione delle domande e del grado di coerenza interna della scala=> si valuta l’effettiva

capacità della scala nel conseguire il suo obiettivo per cui è stata costruita attraverso un

criterio che sia uguale per tutti. Si verifica quindi l’unidimensionalità della scala. Per farlo si

usano due strumenti. La correlazione elemento-scala che serve per individuare gli elementi

della scala che non sono coerenti con altri e il coefficiente alfa che serve per giudicar il

grado complessivo di coerenza interna alla scala. Per il primo strumento si calcola per ogni

soggetto il punteggio su tutta la scala e si calcola il coefficiente di correlazione fra questo

punteggio complessivo e il punteggio su ogni singolo elemento. Il coefficiente di

correlazione è una misura che quantifica il grado di relazione esistente fra due variabili

cardinali. Se le due variabili covariano il valore è elevato, se non sono correlate il

coefficiente assume un valore basso. Per misurare la coerenza interna complessiva della

scala è stato creato l’indice di nome alfa di Cronbach, che assume un valore positivo da 0 a

1 e più alto è il valore maggiore sarà la coerenza.

- Controllo della validità e dell’unidimensionalità della scala=> la fase tradizionale vede l’uso

di vari tipi di validità come quella predittiva, concomitante, per gruppi noti e per costrutto e

la costruzione della scala avviene in piena autonomia poiché deve essere applicabile a

popolazioni diverse. Invece nella fase moderna la realizzazione di una scala avviene in

un’unica soluzione senza separazione tra costruzione ed applicazione, inoltre scarsi e non

sistematici sono i controlli di validità.

Una tecnica efficace per il controllo dell’unidimensionalità è l’analisi fattoriale il cui scopo è

quello di ridurre una serie di variabili fra loro correlate ad un numero i variabili ipotetiche fra

loro indipendenti.

La proposta di Guttman ha come obiettivo quello di fornire una soluzione al problema

dell’unidimensionalità della scala che si presenta come una sequenza di gradini con degli elementi

aventi difficolta crescente di modo che si risponde affermativamente a una determinata domanda

si deve aver risposto affermativamente a tutte quelle che la precedono nella scala di difficoltà. Se

si dà valore 1 alle affermazioni positive e 0 a quelle negative si può arrivare al punteggio

cumulativo finale e si può risalire alle risposte date da quell’individuo ai singoli elementi della scala.

Questa tecnica prevede solo risposte dicotomiche e le domande devono essere progettate avendo

in mente quella che sarà la forma finale della scala: un insieme di elementi di forza crescente.

Nell’analisi dei risultati lo scopo è di misurare la scalabilità di tutti gli elementi. Bisogna quindi

individuare per prima cosa gli errori, cioè le risposte non previste. In secondo luogo bisogna

vedere se il numero degli errori è sufficientemente piccolo da poter asserire la scalabilità degli

elementi. Guttman propone un indice che chiamò coefficiente di riproducibilità, che misura il grado

di scostamento della scala perfetta. Questo coefficiente è la media dei coefficienti di riproducibilità

dei singoli elementi. Edwards propose di calcolare un indice di minima riproducibilità marginale

(MMR) che indica il valore minimo al di sotto del quale il coefficiente di riproducibilità della scala

non può scendere. In terzo luogo si attribuiscono i punteggi ai soggetti.

Per migliorare la resa della tecnica sono state proposte tre soluzioni: evitare elementi con tassi

troppo elevati di accettazione o di rifiuto in quanto alzano il coefficiente di riproducibilità della scala;

Guttman suggerì di usare un numero sufficientemente elevato di elementi come quatto mostrando

che essa portava comunque ad alti valori di C, quindi raccomandò di ispezionare le sequenze

erronee in quanto la presenza di una sequenza non prevista nel modello può essere sintomo di

un’altra dimensione sottostante agli indicatori.

Questa scala ha dei limiti come il fatto che può essere usata solo quando si tratta di atteggiamenti

ben definiti e scalabili, è rigidamente deterministico.

Scale multidimensionali=> fino ad ora abbiamo trattato le scale unidimensionali, perciò

introduciamo quelle multidimensionali che ci permettono di capire quante e quali dimensioni si

celano dietro alcuni concetti. Queste tecniche assumono come punto di partenza le correlazioni fra

gli stimoli interpretate come misure di prossimità. A partire dalle distanze dagli oggetti ci si pone

l’obiettivo di ricostruire lo spazio concettuale nel quale questi oggetti sono collocati. Bisogna capire

se esiste uno spazio comune a tutti e successivamente individuare quante dimensioni ha questo

spazio e infine dargli un nome.

La tecnica del differenziale semantic fu messa a punto negli anni ’50 del ‘900 da Osgood e serviva

a rilevare in modo standardizzato il significato che i concetti assumono per gli individui. Chiederlo

attraverso una domanda diretta non avrebbe portato a esiti positivi in quanto con gli individui non

dotati di espressione linguistica le descrizioni sarebbero risultate carenti. Perciò propose il

differenziale semantico, ovvero una tecnica di rilevazione che si basa sulle associazioni che

l’intervistato instaura tra il concetto principale e altri concetti proposti in maniera standardizzata.

Inoltre i concetti inferiori venivano posti su delle scale auto ancoranti che venivano valutate in base

a un’intensità minore o maggiore. A livello grafico i vari punteggi potevano essere uniti creando

così un ‘profilo’. Si possono individuare tre dimensioni fondamentali che sottostanno ai vari giudizi:

valutazione, la potenza e l’attività.

Capitolo nono

Il campionamento è un procedimento attraverso il quale si estrae da un insieme di unità

(popolazione) costituenti l’oggetto di studio, un numero rifotto di casi (campione) scelti con criteri

tali da consentire la generalizzazione all’intera popolazione dei risultati ottenuti studiando il

campione. Dobbiamo distinguere la rilevazione totale dalla rilevazione campionaria o parziale. La

rilevazione campionaria presenta vantaggi nei costi di rilevazione, vantaggi nei tempi, vantaggi

organizzativi e di approfondimento e accuratezza in quanto ci si può focalizzare meglio su alcuni

aspetti. È possibile che vengano fatti errori sia di copertura, quindi le liste della popolazione non

sono complete, sia errori di non risposta, quindi alcuni soggetti possono rifiutarsi di rispondere pur

facendo parte del campione o ancora errori di campionamento.

Errore di campionamento: per popolazione si intende un insieme N di unità che costituiscono

l’oggetto del nostro studio. Di tali unità si studiano le variabili X, Y, Z ecc. e studiarle vuol dire

conoscere alcuni valori caratteristici di esse che chiamiamo parametri. A volte non possiamo

analizzare tutti i dati di una popolazione intera e quindi si usa fare la rilevazione su un sottoinsieme

di tale popolazione. Chiamiamo l’insieme delle n (ampiezza del campione) unità campionarie

selezionate tra le N unità che compongono la popolazione allo scopo di rappresentarla ai fini del

nostro studio. La popolazione è l’oggetto da conoscere e il campione è lo strumento della

conoscenza. Il campionamento quindi è il procedimento per scegliere le n unità campionarie del

complesso delle N unità della popolazione. Mentre l’indagine totale da un valore esatto del

parametro studiato quella campionaria ne dà solo una stima approssimativa che comporta un certo

livello di fiducia ovvero un intervallo di fiducia in cui si colloca il valore della statistica della

popolazione. La stima del campione sarà affetta da un errore, che chiamiamo errore di

campionamento. (V=v+/-e)

Un campione si dice probabilistico quando ogni unità è estratta con una probabilità nota e

all’interno dei campioni probabilistici troviamo il caso del campionamento casuale semplice che

esiste quando tutte le unità della popolazione hanno la stessa probabilità di essere incluse nel

campione. Per questi campioni il calcolo dell’errore è dato da:

s √

e=z 1−f

√n

Dove z= coefficiente del livello di fiducia della stima

s= deviazione standard campionaria della variabile studiata (media degli scarti dei valori dei singoli

casi della media)

n=ampiezza del campione=> direttamente proporzionale al livello di fiducia desiderato per la stima

e alla variabilità del fenomeno studiato e inversamente proporzionale all’errore che il ricercatore è

disposto ad accettare

1-f=fattore di correzione per popolazioni finite (f=rapporto fra ampiezza del campione e ampiezza

della popolazione)

L’ errore dii campionamento è direttamente proporzionale al livello di fiducia che vogliamo avere

nella stima e alla variabilità del fenomeno studiato, mentre è inversamente proporzionale

all’ampiezza del campione.

Altri campioni probabilistici:

- Campionamento sistematico: si differenzia da quello casuale semplice poiché l’estrazione

delle unità campionarie non avviene mediante sorteggio, ma si scorre la lista dei soggetti e

se ne seleziona uno ogni dato intervallo. Se è nota l’ampiezza N della popolazione e

l’ampiezza n del campione si sceglie un’unità ogni k=N/n

- Campionamento stratificato: si suddivide la popolazione in sottopopolazioni (strati) il più

possibile omogenee rispetto alla variabile da stimare, si estrae mediante un procedimento

casuale semplice un campione da ogni strato e si uniscono i singoli campioni dei singoli

strati per ottenere il campione globale. All’interno degli strati l’estrazione avviene secondo

la procedura di campionamento casuale semplice e il campione si dice stratificato

proporzionale se riproduce la stessa composizione degli strati nella popolazione se invece

decidiamo di sovra appresentare o sotto rappresentare degli strati abbiamo un campione

stratificato non proporzionale.

- Campionamento a stadi: implica una semplificazione della procedura di estrazione e

diminuzione dei costi di rilevazione. Deve essere scelto quando manca la lista da cui

attingere le unità di popolazione. In questo tipo di campionamento la popolazione viene

suddivisa in livelli gerarchicamente ordinati che vengono estratti con un procedimento a

imbuto. I vantaggi sono la non necessità di avere una lista, la rilevazione è concentrata

nelle unità estratte e c’è riduzione dei costi.

- Campionamento a grappoli: viene usato quando la popolazione risulta naturalmente

suddivisa in gruppi di unità spazialmente contigue. Questo è usato ad esempio dall’Istat per

il sistema indagini multiscopo sulle famiglie. Viene estratta una famiglia di cui vengono

intervistati tutti i componenti attraverso dei questionari. È vantaggioso poiché con una sola

chiamata si possono intervistare più contatti e si possono studiare le interrelazioni a livello

familiare.

- Campionamento per aree: si applica quando la lista della popolazione manca del tutto e le

scelte vengono fatte attraverso una procedura probabilistica.

- Campioni complessi: uso dei vari metodi di campionatura insieme

La tecnica più semplice è estrarre un campione casuale ed intervistarlo ma come abbiamo

precedentemente detto si può intaccare in alcuni errori tra cui: errore di selezione, errore di

osservazione ed errore di trattamento dati. A sua volta l’errore di selezione si divide in altri tre tipi:

errore di copertura, errore di campionamento ed errore di non risposta.

Analizziamo l’errore di copertura=> questo tipo di problema si manifesta per sottoinsiemi di

popolazione mentre quando non esiste una lista della popolazione è impossibile accorrere a

tecniche di campionamento probabilistico. Ovviamente non è sufficiente che le liste esistano bensì

occorre tenere presenti i problemi dell’aggiornamento, ovvero le persone nascono e muoiono; della

duplicazione, a volte una stessa persona appare due volte; incompletezza, alcune persone

possono decidere di non essere registrate per questioni di privacy. Il ricercatore sociale ha tre

possibilità: ridefinire la popolazione, trascurare gli esclusi e procedere ad una integrazione del

campione.

Analizziamo l’errore di campionamento=> per la determinazione dell’ampiezza del campione la

logica che si usa è una logica monovariata ovvero che considera le variabili una alla volta invece

che in relazione tra di loro. Un campione che misura un errore massimo delle stime di 5 punti

percentuali quando ci limitiamo a stimare le variabili una a una (analisi monovariata) porta a errori

dell’ordine di grandezza di 10 punti percentuali e più se analizziamo le relazioni fra le stesse

variabili (bivariata o multivariata). Infine la distribuzione del campione dipende dalla distribuzione

delle variabili studiate e dal tipo di analisi che si intende fare.

Analizziamo l’errore di non risposta=> questo tipo di errore può essere determinato da un mancato

contatto con i soggetti estratti o per una difficoltà a raggiungere i soggetti oppure per

un’irreperibilità dei soggetti campionati, anche in questo caso dopo che una persona è stata

cercata due-tre volte se non reperibile viene sostituita da un nominativo di riserva. Un altro

problema è chi si rifiuta di rispondere che manifesta quindi diffidenza o insicurezza nei confronti

dell’intervistato. Stessa cosa succede con le interviste telefoniche dove il telefono può risultare

occupato o squillare a vuoto ecc. Le statistiche hanno dimostrato come questi tassi di irreperibilità

e rifiuti sono aumentati col tempo.

Campioni non probabilistici

Tipi più comuni:

- Campionamento per quote=> si divide la popolazione in sottogruppi sulla base di alcune

variabili delle quali, per varie fonti si conosce la distribuzione. Per ogni strato si attuano un

numero di interviste precise e il ricercator e ha la facoltà di scegliere liberamente i soggetti

da intervistare purchè mantengano quella quota. I limiti di questo campionamento sono il

fatto che la scelta del ricercatore si limita ad una cerchia ristretta di conoscenti o di più

facile reperimento.

- Disegno fattoriale=> agevola l’analisi delle relazioni fra la variabile dipendente e quelle

specifiche variabili indipendenti che sono state poste alla base della definizione degli strati.

Esso può essere ricondotto a un campione stratificato nel caso in cui i soggetti collocati nei

vari strati sono scelti per estrazione casuale, a un campione per quote se essi sono scelti

con il metodo soggettivo caratteristico di questa procedura.

- Campionamento a scelta ragionata=> le unità campionarie vengono scelte non in maniera

probabilistica ma sulla base di alcune loro caratteristiche e viene usato quando l’ampiezza

è assai limitata

- Campione bilanciato=> si selezionano le unità di modo che la media del campione sia

prossima alla media della popolazione

- Campionamento a valanga=> è utile nel caso di popolazioni clandestine quindi di membri

che devono tenere nascosta la loro identità. Si individuano i soggetti da inserire nel

campione a partire dagli stessi soggetti intervistati e si parte da un piccolo numero di

individui dai requisiti richiesti i quali sono utilizzati come indicatori per identificare altri

individui aventi le medesime caratteristiche. Lo svantaggio è selezionare le persone più

attive socialmente e più visibili.

- Campionamento telefonico=> l’intervista telefonica può essere condotta attraverso elenchi

telefonici oppure a partire da numeri direttamente generati dal computer. In caso di non

risposta il pc registra le ragioni del mancato contatto e gestisce l’esclusione del numero o la

ripetizione della chiamata. Ad esempio il numero viene escluso dal campione se non attivo

o se non corrisponde ad abitazione.

- Campionamento di convenienza=> il gruppo viene scelto in base alla maggiore

accessibilità

Ponderazione

È una procedura attraverso la quale modifichiamo artificialmente la composizione del campione

onde renderla più prossima alla distribuzione della popolazione. Si calcola attribuendo un peso alle

unità campionarie che varia a seconda delle loro caratteristiche dando opportune istruzioni iniziali

al programma di elaborazione dati. Ci sono tre situazioni di ponderazione a seconda che si basino

su: probabilità di inclusione delle unità nel campione, conoscenze che si hanno sulla popolazione e

conoscenze che si hanno sulle non risposte.

Per il primo caso spesso i campioni usati nella ricerca sociale non corrispondono quella situazione

ideale in cui tutte le unità hanno uguale probabilità di selezione quindi bisogna ricondurre il

campione in considerazione al suo reale peso nella popolazione attraverso la ponderazione.

Il secondo caso è detto post-stratificazione quindi si tratta di una stratificazione fatta a posteriori.

Se si conosce a distribuzione della popolazione di alcune variabili e la si confronta con quella

risultante del campione si correggono i dati per farli corrispondere. L’operazione si effettua

moltiplicando ogni caso del campione per un coefficiente di ponderazione (peso) pari al rapporto

quota teorica/quota rilevata della categoria di appartenenza.

La terza situazione si verifica quando la ponderazione viene effettuata sulla base della conoscenza

di caratteristiche dei non rispondenti. Se non ci fosse la ponderazione vorrebbe dire che si

attribuisce ai non rispondenti il comportamento medio dei rispondenti e si preferisce quindi

attribuire ai non rispondenti il comportamento medio delle persone appartenenti al loro stesso

gruppo sociale piuttosto che quello medio di tutta la popolazione.

La bontà di un campione viene stabilita dall’errore di selezione che si divide in errore di

campionamento, di copertura e di non risposta. L’errore campionario è dipendente dall’ampiezza

del campione: se il campione è troppo piccolo allora l’errore standard delle stime sarà troppo

elevato e il campione avrà un alto errore di campionamento. Un campione ampio quindi ha

bisogno di maggiore cura per minimizzare la presenza di errori e quindi possiamo dire che

l’ampiezza del campione e l’accuratezza della procedura di campionamento garantiscono la bontà

di un campione. Inoltre un campione deve essere rappresentativo quindi fornire un’immagine in

piccolo ma senza distorsioni della popolazione.

Capitolo undici

Lo scopo dell’intervista qualitativa è sempre quello di accedere alla prospettiva del soggetto

studiato: cogliere le sue categorie mentali, le sue percezioni ecc. Possiamo definirla come una

conversazione provocata dall’intervistatore rivolta ai soggetti scelti sulla base di un piano di

rilevazione e in un numero consistente avente finalità di tipo conoscitivo guidata dall’intervistatore

e sulla base di uno schema flessibile e non standardizzato di interrogazione. La conversazione è

richiesta dall’intervistatore, è rivolta a soggetti scelti in base a un piano sistematico di rilevazione

quindi sono scelti in base a determinate caratteristiche. Le interviste non devono avvenire in modo

sporadico, ma devono essere frequenti.

L’interrogazione viene usata sia per la ricerca qualitativa sia per quella quantitativa. Interrogare

vuol dire rilevare informazioni mediante due strumenti: il questionario standardizzato o un’intervista

libera. Queste tecniche sono simili ma si differenziano per:

- Assenza di standardizzazione: nel questionario l’obiettivo è collocare l’intervistato entro

schemi prestabiliti dal ricercatore mentre nell’intervista è cogliere le categorie mentali

dell’intervistato senza partire da idee e concezioni predefinite L’approccio quantitativo

costringe l’intervistato a limitare le risposte e lo schema di interrogazione è rigido in quanto

le domande sono poste a tutti allo stesso modo. Nell’intervista qualitativa l’intervistatore dà

solo le direttive dei temi di cui si parlerà e resta il fatto che la voce sovrastante deve essere

quella dell’intervistato.

- Comprensione contro documentazione: interrogazione abbiamo detto che è sia strumento

di rilevazione di informazioni sulle persone in merito ai loro pensieri (quantitativo) sia

strumento di comprensione della realtà sociale e per capire le persone (approccio

qualitativo). Questo dualismo si esalta nella differenza fra estensione e profondità, infatti

possiamo avere una raccolta estensiva per ottenere un quadro rappresentativo della

situazione sociale oppure una raccolta intensiva dove l’intervistatore instaura empatia con

l’intervistato.


ACQUISTATO

5 volte

PAGINE

13

PESO

36.33 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in scienze della comunicazione pubblica e d'impresa
SSD:
A.A.: 2018-2019

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Laurarafa02 di informazioni apprese con la frequenza delle lezioni di Metodologia della ricerca sociale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università La Sapienza - Uniroma1 o del prof Fasanella Antonio.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Metodologia della ricerca sociale

Riassunto esame Metodologia della ricerca sociale, prof. Fasanella, libro consigliato Metodologia e tecniche della ricerca sociale, Corbetta
Appunto
Riassunto esame Metodologia della ricerca sociale, prof. Fasanella, libro consigliato Il Disegno della Ricerca Sociale, Agnoli
Appunto
Riassunto esame Metodologia, prof. Fasanella, libro consigliato Metodologia delle scienze sociali, Marradi
Appunto
Riassunto esame Metodologia, prof. Fasanella, libro consigliato Il disegno della ricerca sociale, Agnolli
Appunto