Che materia stai cercando?

Riassunto esame Metodologia della ricerca sociale, prof. Rossi, libro consigliato Metodologie e tecniche della ricerca sociale, Corbetta Appunti scolastici Premium

Riassunto per l'esame di Metodologie e tecniche della ricerca sociale, basato su appunti personali e studio autonomo del testo consigliato dal docente Metodologie e tecniche della ricerca sociale, Corbetta. Argomenti trattati: LOGICA DELLA RICERCA SOCIALE, PARADIGMI DELLA RICERCA SOCIALE, Kuhn e i paradigmi delle scienze, Positivismo... Vedi di più

Esame di Metodologia della ricerca sociale docente Prof. M. Rossi

Anteprima

ESTRATTO DOCUMENTO

Batterie di domande

batterie di domande sono domande che essendo, tutte formulate nello stesso modo (stessa domanda

Le

introduttiva e stesse alternative di risposta, varia solo l’oggetto al quale si riferiscono), vengono presentate

all’intervistato in un unico blocco. Le batterie di domande hanno gli obiettivi di risparmiare spazio sul

questionario e tempo dell’intervista, facilitare la comprensione del meccanismo di risposta, migliorare la

validità della risposta e permettere al ricercatore di costruire indici sintetici che riassumono in un unico

punteggio le diverse domande della batteria. Gli svantaggi delle batterie di domande consistono nel pericolo

che le riposte siano date a caso e che le risposte siano meccanicamente tutte uguali tra di loro.

Modalità di rilevazione

Interviste faccia a faccia

Nel caso che stiamo trattando, vale a dire quello dell’intervista con questionario standardizzato, l’obiettivo è

quello di limitare l’effetto dell’intervistatore, standardizzandone il comportamento e limitandone i margini di

discrezionalità attraverso una fase di addestramento. In altre parole, l’intervistatore deve inibirsi qualsiasi

comportamento che può influenzare l’intervistato; per questo motivo gli intervistatori devono presentare

alcuni tratti particolari per raggiungere questo scopo.

Le loro caratteristiche: l’intervistatore ideale è donna, sposata, di mezza età, diplomata, casalinga, di ceto

medio, con un abbigliamento neutrale.

Le loro aspettative: le aspettative degli intervistatori possono essere trasmesse inconsciamente agli

intervistati, influenzandone le risposte soprattutto per quanto riguarda intervistati insicuri.

La loro preparazione: l’intervistatore deve essere consapevole dell’influenza che ha nella formulazione delle

risposte, e per questo deve essere istruito per limitare al massimo questi effetti.

La loro motivazione: l’intervistatore deve essere convinto dell’importanza del proprio lavoro, perché un

atteggiamento contrario potrebbe riverberarsi in modo negativo sull’intervistato.

Interviste telefoniche

L’intervista telefonica presenta numerosi vantaggi: permette una grande velocità di rilevazione; ha costi

ridotti; presenta minori resistenze alla concessione dell’intervista e maggiore garanzia di anonimato;

permettere di raggiungere a parità di costo anche gli intervistati della periferia del paese; facilita

enormemente il lavoro di preparazione degli intervistatori e la loro supervisione; consente di utilizzare

direttamente il computer in fase di rilevazione.

I suoi svantaggi sono: il minore coinvolgimento dell’intervistato che porta a una maggiore incidenza di

risposte superficiali; il più rapido logoramento del rapporto con l’intervistato; l’impossibilità di utilizzare

materiale visivo; l’impossibilità di raccogliere dati non verbali; l’impossibilità di raggiungere tutti gli strati

sociali; il fatto che anziani e persone poco istruite risultano sottorappresentate; il fatto che le domande sono

spesso elementari a causa della ristrettezza del tempo a disposizione. I limiti più gravi sono comunque

l’assenza di contatto e la mancanza di tempo, che non rendono adatta l’intervista telefonica quando si

vogliono analizzare tematiche complesse. 17

Questionati autocompilati

I questionari autocompilati sono quelli che il soggetto compila da solo, senza l’intervento dell’intervistatore. Il

vantaggio principale di questa tecnica è l’enorme risparmio dei tempi di rilevazione. I limiti invece consistono

nel fatto che deve essere breve, conciso e il più semplice possibile per venire incontro al maggior numero

possibile di persone; inoltre di solito coloro che restituiscono il questionario sono un segmento particolare

autoselezione

della popolazione in esame ( ), cosa che limita l’estensibilità dei risultati.

rilevazione di gruppo rilevazione individuale

e la .

Esistono due casi principali di autocompilazione: la

La rilevazione di gruppo avviene in presenza di un operatore che distribuisce i questionari, assiste alla

compilazione e ritira i questionari; in questo caso i rischi di questa ricerca vengono molto ridotti.

restituzione vincolata

La rilevazione individuale si può dividere a sua volta in rilevazione con e con

restituzione non vincolata. Nel primo caso, l’operatore deposita il questionario presso il soggetto in questione

e passa a ritirarlo in seguito (un tipico caso è il censimento); anche questa tecnica limita i rischi prima

ricordati. Nel secondo caso, tipicamente quello del questionario postale, il questionario viene inviato per

posta con una lettera di presentazione e con una busta di ritorno già affrancata. I vantaggi di questa tecnica

sono i risparmi altissimi dei costi, la possibilità di essere compilati in qualsiasi momento, la maggiore

garanzia di anonimato, l’assenza di distorsioni dovute all’intervistatore, l’accessibilità a soggetti residenti in

zone poco raggiungibili. Gli svantaggi sono la bassa percentuale di risposte, l’autoselezione del campione, la

necessità che il livello di istruzione della popolazione studiata sia medio-alto, la mancanza di controllo sulla

compilazione, l’impossibilità di questionari complessi e la sua lunghezza non eccessiva.

Sia nel caso dei questionari telefonici che di quelli autocompilati sono da escludere le domande aperte.

Interviste computerizzate (elettroniche) Computer Assisted Telephone

Il computer può essere utilizzato sia nelle interviste telefoniche (CATI,

Computer Assisted Personal Interviewing),

Interviewing) che nelle interviste faccia a faccia (CAPI, che si

differenzia da una normale intervista faccia a faccia per il fatto che le risposte vengono riportate

direttamente su un PC portatile con risparmio notevole di tempo.

teleintervista , in cui l’intervistato risponde direttamente con il

Una altro impiego del computer è quello della

suo PC al questionario trasmesso per via elettronica. I vantaggi di questa tecnica consistono nell’elimizazione

dell’intervistatore ma soprattutto nel fatto che si possono condurre inchieste longitudinali, cioè rilevazioni

ripetute nel tempo sugli stessi soggetti. I suoi limiti consistono nel fatto che non è possibile accertarsi di chi

effettivamente compili il questionario e inoltre la consapevolezza di esser studiati può alterare il

comportamento. 18

Organizzazione della rilevazione

Queste fasi normalmente precedono la rilevazione vera e propria.

Lo studio esplorativo: consiste in interviste preliminari, che partono da una massima destrutturazione e da

strumenti qualitativi fino a strumenti sempre più strutturati, che hanno lo scopo di analizzare perfettamente

il problema di oggetto e di formulare con la massima precisione possibile le risposte alternative per le

domande chiuse.

Il pre-test: consiste in una sorta di “prova generale” del questionario, sottoposto a poche decine di soggetti,

che ha lo scopo di evidenziare eventuali problemi o cattive formulazioni del questionario stesso.

La preparazione e la supervisione degli intervistatori: gli intervistatori devono essere informati su tutto ciò

che riguarda la ricerca, “collaudati” sul campo con il pre-test e controllati durante la ricerca vera e propria da

appositi supervisori.

Il contatto iniziale con i soggetti intervistati: il problema dei rifiuti. Il momento più delicato dell’intervista è

quello iniziale, in cui i soggetti devono decidere se collaborare o meno. Per rendere massima la

collaborazione è importante insistere sull’anonimità delle risposte, sul prestigio dell’istituzione committente e

sulla figura dell’intervistatore. È anche opportuno inviare una lettera di presentazione che spieghi

chiaramente chi è il committente della ricerca, quali ne sono gli obiettivi, perché ci si rivolge proprio a lui,

sottolineare l’importanza delle sue risposte e rassicurarlo sull’anonimato.

La forma grafica del questionario: è opportuno distinguere chiaramente il testo che riguarda l’intervistato e

quello che è di pertinenza dell’intervistatore, i passaggi tra le domande devono essere indicati chiaramente, il

questionario deve essere graficamente compatto e non estendersi su troppe pagine. I questionari

autocompilati devono inoltre essere autoesplicativi, le domande devono essere semplici e brevi (meglio se

dello stesso formato), l’impostazione grafica deve esser compatta e chiara.

Analisi secondaria e inchieste ripetute nel tempo

analisi secondaria

L’ è una ricerca che viene condotta su dati di inchiesta campionaria già precedentemente

raccolti e disponibili nella forma di matrice-dati originale. L’analisi secondaria nasce nell’ambito di un

maggiore approfondimento dei dati già raccolti sulla base di successive scoperte o di nuove teorie avanzate

nelle scienze sociali; a questo punto i dati già raccolti possono essere suscettibili di nuove elaborazioni e

approfondimenti. Inoltre, a causa dell’estrema onerosità della fase di raccolta dei fati, sono nate apposite

agenzie che riescono risorse comuni mettendo poi i dati a disposizione di tutti i ricercatori; ovviamente

queste agenzie non raccolgono i dati per un unico tema, ma si rivolgono ad un ampio spettro di

problematiche sociali.

I vantaggi di questi sviluppi si possono riassumere in un generale risparmio economico, nella garanzia del

rigore della rilevazione stessa e nella possibilità anche per i ricercatori con poche risorse di effettuare

ricerche di ampio respiro. Gli svantaggi sono legati alla qualità dei dati, in quanto i dati raccolti nel passato

possono non essere stati trattati in modo corretto; altri svantaggi sono la limitazione degli interrogativi e il

fatto che possano nascere ricerche a partire dai dati disponibili piuttosto che dalle ipotesi teoriche.

meta-analisi si differenzia dall’analisi secondaria perché non riesamina i vecchi dati ma si propone di

La

“analizzare le analisi”, applicando metodi statistici per giungere a delle sintesi dei risultati delle ricerche

considerate.

inchieste replicate nel tempo diacroniche longitudinali trasversali replicate

( ) si possono dividere in e .

Le

Le inchieste longitudinali consistono nell’intervistare ripetutamente gli stessi soggetti in un ampio arco di

panel

). I problemi di questa tecnica consistono nella “mortalità” del campione (molti soggetti

tempo (

saranno irraggiungibili per diversi motivi a ogni nuova rilevazione), nell’effetto memoria e nel fatto che il

soggetto sapendosi osservato può modificare il suo comportamento normale.

inchiesta retrospettiva è invece una normale inchiesta trasversale nella quale si pongono agli intervistati

L’

domande sul loro passato, con gli evidenti limiti che l’affidamento alla memoria può comportare.

inchieste trasversali replicate consistono nell’intervistare diversi campioni di soggetti, sullo stesso

Le

argomento, ma in momenti diversi.

Il maggiore difetto degli studi che comportano il fattore “tempo” è naturalmente il costo molto elevato. 19

LA TECNICA DELLE SCALE

L’operativizzazione dei concetti complessi

tecnica delle scale scaling

La ( ) consiste in un insieme di procedure messe a punto per misurare concetti

complessi e non direttamente osservabili. L’unico modo per poterli registrare è quello di usare un insieme

coerente ed organico di indicatori, mettendo anche a punto criteri intersoggettivi per controllare l’effettiva

sovrapposizione fra indicatori e concetto e la completezza della procedura. Possiamo quindi dire che una

scala è un insieme coerente di elementi che sono considerati indicatori di un concetto più generale.

atteggiamenti

, dove l’unità d’analisi è l’individuo,

La tecnica delle scale è usata soprattutto nella misura degli

il concetto generale è un atteggiamento (credenze di fondo non rilevabili direttamente) e i concetti specifici

sono le opinioni (espressione empiricamente rilevabile di un atteggiamento).

Le variabili prodotte dalla tecnica delle scale non possono essere considerate pienamente cardinali, perché

scaturiscono da dimensioni sottostanti immaginate come proprietà continue non misurabili, anche se la

teoria delle scale tenta di dare una risposta a questo problema. Per questo le variabili della teoria delle scale

quasi-cardinali

vengono chiamate .

Domanda e risposta graduata: l’autonomia semantica delle risposte

Gli elementi di una scala sono tipicamente domande, possiamo quindi affermare che una scale è costituita da

una batteria di domande (raramente da una domanda singola).

Le domande (sempre chiuse) possono essere proposte in tre modi diversi. Il primo consiste nel presentare

semanticamente autonome

risposte , cioè ciascuna ha un suo intrinseco significato compiuto che non

necessita, per essere compreso, di essere messo in relazione con il significato delle altre alternative presenti

parziale autonomia semantica

nella scala. Il secondo caso è quello in cui le categorie di risposta sono a ,

quando il significato di ogni categoria è parzialmente autonomo dalle altre (“molto”, “abbastanza”, “poco”,

scale auto-ancoranti

, dove solo le due categorie estreme sono dotate di

“per nulla”). Infine ci sono le

significato, mentre tra di esse si colloca un continuum entro il quale il soggetto colloca la sua posizione.

Le variabili prodotte dalla prima situazione sono senza dubbio ordinali, mentre nella seconda è probabile che

scatti un processo di comparazione quantitativa. Per quanto riguarda il caso delle risposte auto-ancoranti è

ancora più probabile che si metta in moto una procedura mentale di suddivisione graduata dello spazio tra i

due estremi, suddivisione che è però soggettiva e non valida per tutti. Per questo si parla di variabili

quasi-cardinali.

Nel caso delle variabili a parziale autonomia semantica è preferibile offrire la possibilità di un punto neutro e

dell’opzione “non saprei”. Il numero delle opzioni disponibili di solito è 5 o 7, tranne nell’intervista telefonica,

dove si usano domande con risposte binarie per motivi di semplicità.

Nel caso delle graduatorie auto-ancoranti si possono usare diverse soluzioni come quella delle caselle vuotre,

della sequenza di cifre oppure della linea continua.

termini assoluti (quando ogni domanda riguarda isolatamente una

Le preferenze possono essere espresse in

termini relativi

singola questione) oppure in (nella forma di confronti e scelte tra diversi oggetti).

È preferibile scegliere scale con più domande rispetto a scale con una domanda sola per tre motivi: la

complessità dei concetti rende improbabile la loro copertura con un singolo indicatore; una rilevazione

singola manca di precizione, in quanto non riesce a discriminare in maniera fine tra le diverse posizioni dei

soggetti sulla proprietà considerata; infine le singole domande sono più esposte agli errori accidentali.

Le domande ad un solo elementi sono quindi meno valide, meno precise e meno attendibili. 20

Scala di Likert

La procedura che sta alla base delle scale di Likert consiste nella somma dei punti attribuiti ad ogni singola

domanda. Il formato delle singole domande della scala di Likert è rappresentato da una serie di affermazioni

per ognuna delle quali l’intervistato deve dire se e in che misura è d’accordo. Di solito le alternative di

risposta sono cinque, da “molto d’accordo” a “fortemente contrario”.

formulazione delle domande

La costruzione della scala avviene in quattro fasi. Nella prima, la , si individuano

le dimensioni dell’atteggiamento studiato e si formulano delle affermazioni che coprano i vari aspetti del

concetto generale che si vuole rilevare.

somministrazione delle domande

Nella seconda fase, la , la scala viene sottoposta ad un campione limitato di

intervistati con un certo livello di istruzione.

analisi degli elementi

), si selezionano le domande e si valuta il grado di coerenza

In seguito, nella terza fase (

interna della scala, cioè se la scala misura effettivamente il concetto in esame. È infatti possibile che alcuni

elementi non risultino in linea con gli altri e vadano quindi eliminati. Gli strumenti utilizzati nella terza fase

correlazione elemento-scala coefficiente alfa

e il . Per la correlazione elemento-scala, si calcola per

sono la

ogni soggetto il punteggio su tutta la scala e si calcola il coefficiente di correlazione tra questo punteggio e il

punteggio di ogni singolo elemento. Il coefficiente di correlazione è una misura che quantifica il grado di

relazione tra due variabili cardinali e indica se il punteggio di ogni singolo elemento si muove nella stessa

direzione del punteggio globale che tiene conto di tutti gli altri elementi. Se ciò non avviene la domanda non

è congruente con la scala e va eliminata. Il coefficiente alfa serve invece a valutare la coerenza interna

complessiva della scala. Esso si basa sulla matrice di correlazione tra tutti gli elementi della scala e il loro

numero; più alti sono i valori (da 0 a 1) maggiore è la coerenza interna alla scala.

validità unidimensionalità

e l’ della scala. Tralasciando i

Infine si apre la quarta fase, quella dei controlli sulla analisi fattoriale

. Il

controlli di validità, la tecnica più efficace per il controllo di unidimensionalità è quella dell’

suo scopo è quello di ridurre una serie di variabili tra loro collegate ad un numero inferiore di variabili

ipotetiche tra loro indipendenti, in modo da controllare se dietro agli elementi di una scala che si presume

unifattoriale, vi sia un solo fattore o più fattori.

I vantaggi della scala Likert consistono nella sua semplicità e applicabilità, mentre i suoi svantaggi sono il

fatto che i suoi elementi vengono trattati come scale cardinali pur essendo ordinali (a parziale autonomia

semantica), la mancata riproducibilità (dal punteggio della scala non è possibile risalire alle risposte delle

singole domande) e il fatto che il punteggio finale non rappresenta una variabile cardinale. 21

Scalogramma di Guttman

La scala di Guttman nasce con l’obiettivo di fornire una soluzione al problema dell’unidimensionalità della

scala di Likert e consiste in una sequenza di gradini, una successione di elementi aventi difficoltà crescente,

in modo che chi ha risposto affermativamente ad una certa domanda deve aver risposto affermativamente

anche a quelle che la precedono nella scala di difficoltà. In questo modo, se gli elementi della scala sono

perfettamente scalati, solo alcune sequenze di risposte sono possibili; inoltre dal risultato finale è possibile

riproducibilità

risalire alle risposte date dal soggetto ai singoli elementi della scala ( ). Questa tecnica prevede

solo elementi dicotomici, cioè ogni domanda può avere solo due risposte opposte e distinte. Le due risposte

possibili vengono di solito contrassegnate con i numeri 0 e 1. formulazione

Anche la scala di Guttman segue tre-quattro fasi nella sua costruzione. La prima è quella della

delle domande, con considerazioni analoghe a quelle relative alla scala di Likert tranne che le domande

devono essere dicotomiche e disposte secondo un ordine crescente di forza. Anche la seconda fase

somministrazione ) è simile a quella della scala di Likert, con il vantaggio che la forma binaria agevola le

(

risposte e rende più veloce la compilazione (anche se talvolta la forte semplificazione indotta dal carattere

binario delle scelte può creare problemi all’intervistato).

La specificità della scala di Guttman sta nell’analisi dei risultati, quando si valuta la scalabilità degli elementi,

si scartano quelli meno coerenti col modello, si stabilisce un indice di scalabilità della scale e se accettarla o

meno. In primo luogo si devono individuare gli errori della scala, cioè le risposte che non si inseriscono nelle

coefficiente di riproducibilità ) che misura il

sequenze previste nel modello. Per questo si utilizza un indice (

grado di scostamento della scala osservata dalla scala perfetta. Questo indice può variare da 0 a 1; per poter

essere accettabile, il valore dell’indice deve essere maggiore o uguale a 0,90 (cioè errori pari o inferiori al

di minima riproducibilità marginale

, che segnala il

10% delle risposte). Esiste anche un altro indice, detto

valore minimo al di sotto del quale il coefficiente di riproducibilità non può scendere, quali che siano le

sequenze delle risposte. Esso deve essere confrontato con il coefficiente di riproducibilità: solo se il secondo,

oltre ad essere maggiore di 0,90, è anche nettamente superiore al primo, si può affermare che la buona

riproducibilità della scala è dovuta ad un’effettiva scalabilità dei suoi elementi e non alla distribuzione

marginale delle risposte.

L’ultima fase è quella di attribuire i punteggi ai soggetti; per far questo si sommano i punteggi 0/1 ottenuti

nelle varie risposte.

I problemi della scala di Guttman consistono nel fatto che il punteggio finale è ancora una variabile ordinale;

si tratta di una tecnica applicabile solo ad atteggiamenti ben definiti e scalabili; il modello risulta rigidamente

deterministico di fronte ad una realtà sociale interpretabile solo attraverso modelli probabilistici.

Modelli probabilistici (la scala di Rasch)

Nell’approccio probabilistico la probabilità di dare una certa risposta ad un dato elemento non è solo 0 o 1,

ma si colloca tra questi due estremi. Questa impostazione presuppone un modello di relazione tra posizione

del soggetto sul continuum e probabilità di risposta ad un determinato elemento della scala che viene

traccia . La traccia è quindi una curva che descrive la probabilità di rispondere affermativamente ad

chiamata

un certo elemento a seconda della posizione dell’individuo sul continuum sottostante. La traccia non assume

curva logistica

. La posizione di ciascun soggetto è data

la forma lineare, ma quella di una curva ad “S” detta

v

. La “difficoltà” di un elemento della scala (vale a dire la probabilità di una risposta “Sì”) è data

dal valore b che corrisponde al valore della variabile latente per il quale la probabilità di risposta

dal parametro b

affermativa è il 50%. Maggiore è il valore di , maggiore è la “difficoltà” della domanda. La probabilità di

v – b v b

: se essi coincidono, la probabilità è del 50%; se >

risposta positiva dipende quindi dalla differenza v b

la probabilità di risposta affermativa è superiore a quella della risposta negativa; viceversa se < .

I vantaggi di questo modello sono due: esso è una descrizione molto più adeguata ai reali meccanismi che

generano le risposte rispetto al modello deterministico e le variabili prodotte da questo modello sono variabili

cardinali. In questo modo può dirsi realizzato l’obiettivo della misurazione nelle scienze sociali. 22

di Coombs

Unfolding

unfolding unfold

di Coombs (dall’inglese , “aprire”, “(di)spiegare”) è una tecnica specificamente pensata per

L’

trattare dati derivanti da preferenze relative. Essa permette di individuare se dietro le preferenze espresse

dai soggetti esiste un unico continuum comune a tutti i soggetti sul quale gli elementi (e gli intervistati

stessi) sono ordinabili. Se esiste un’unica dimensione sottostante e questa è utilizzata come criterio di

valutazione da parte degli intervistati, allora solo determinate sequenze di risposta sono possibili. L’analisi

delle preferenze espresse dagli intervistati permette in questo caso di risalire sia all’ordine degli elementi sul

continuum sia alla posizione dei soggetti sullo stesso. Questa tecnica permette di arrivare ad una scala

cardinale, nella quale cioè anche le distanze tra gli intervalli sono note. Il suo principale difetto consiste nel

suo rigido determinismo, anche se recenti sviluppi hanno permesso la formulazione di modelli probabilistici.

Differenziale semantico

La tecnica del differenziale semantico si propone di rilevare con il massimo della standardizzazione il

significato che i concetti assumono per gli individui. Il modo più semplice per scoprire cosa significa una

certa cosa per una certa persona è quello di chiederglielo direttamente, ma solo persone intelligenti, istruite

e con eccellenti capacità verbali possono fornire dati utilizzabili.

La tecnica del differenziale semantico supera questi limiti in quanto si basa sulle associazioni che

l’intervistato instaura tra il concetto in esame ed altri concetti proposti in maniera standardizzata a tutti gli

intervistati. In concreto si utilizzano una serie di scale auto-ancoranti nelle quali solo le categorie estreme

hanno significato autonomo, mentre il significato graduato delle categorie intermedie viene stabilito a

giudizio dell’intervistato. La lista di questi attributi bipolari non deve avere necessariamente relazione con

l’oggetto valutato, e quindi deve essere sempre la stessa. Il numero delle domande di solito va dalle 12 alle

50, in base al disegno della ricerca.

Il modo più importante di utilizzare il differenziale semantico è rappresentato dall’esplorazione delle

dimensioni dei significati. Si ritiene cioè che attraverso l’analisi fattoriale sia possibile determinare quali sono

le dimensioni fondamentali che stanno dietro ai giudizio di un certo campione di soggetti intervistati. In linea

valutazione potenza attività

, la e l’ , in ordine di

generale, si possono trovare tre dimensioni fondamentali: la

importanza. La valutazione sembra rappresentare l’atteggiamento verso un certo oggetto.

Il contributo più importante della tecnica del differenziale semantico è proprio quello di aver introdotto la

multidimensionalità dei significati nella struttura degli atteggiamenti.

Test sociometrico

Il test sociometrico nasce al fine di rilevare le relazioni interpersonali esistenti all’interno di un gruppo di

individui; infatti il suo campo di applicazione ideale è rappresentato da una classe scolastica. Nella sua forma

più semplice il test sociometrico consiste in un questionario con poche domande, che ruotano intorno al

tema della preferenza e rifiuto nei confronti degli altri appartenenti al gruppo. In questo modo si può

status sociometrico personale , cioè il grado di prestigio di cui gode un elemento rispetto agli

conoscere lo struttura sociometrico del gruppo

, cioè l’organizzazione interna del gruppo

altri componenti del gruppo, e la

(con sottogruppi, persone isolate, relazioni tra i sottogruppi, ecc.). La tecnica è quindi utile sia come

strumento di diagnosi individuale che per cogliere la struttura relazionale del gruppo. Tuttavia esso è adatto

solo per gruppi strutturati perché è necessario che sia delimitato nettamente il raggio di scelta del soggetto.

network analysis (analisi di rete).

In questi ultimi tempi questa tecnica ha ripreso piede all’interno della 23

IL CAMPIONAMENTO

Popolazione e campione

Anche se può sembrare strano, la scelta casuale (tipica del campionamento) deve segue ire regole ben

campionamento infatti può essere definito come un procedimento attraverso il quale si estrae,

precise. Un popolazione campione

da un insieme di unità ( ) costituenti l’oggetto di studio, un numero ridotto di casi ( )

scelti con criteri tali da consentire la generalizzazione all’intera popolazione dei risultati ottenuti studiando il

campione. La rilevazione campionaria presenta i vantaggi per quanto riguarda il costo di rilevazione, i tempi

di raccolta dati ed elaborazione, l’organizzazione, l’approfondimento e l’accuratezza.

Errore di campionamento

La tecnica del campionamento presenta tuttavia anche degli svantaggi. Infatti, se l’indagine totale fornisce il

stima

, cioè

valore esatto del parametro che si vuole conoscere, l’indagine campionaria ne fornisce solo una

un valore approssimato. Ciò significa che il valore in questione non è certo, ma solo probabile, e inoltre

intervallo di fiducia

questa probabilità può variare entro un certo intervallo (detto ). La stima del campione

errore di campionamento

. Se però il campione è

sarà quindi sempre affetta da un errore, che si chiama

probabilistico (cioè scelto secondo una procedura rigorosamente casuale), la statistica ci permette di

calcolare l’entità di tale errore.

Campioni probabilistici: il campione casuale semplice

Nei campioni probabilistici l’unità d’analisi è estratta con una probabilità nota e diversa da zero. È necessario

campionamento

conoscere la popolazione. Il caso più semplice del campione probabilistico è quello del

casuale semplice, in cui ogni individuo della popolazione ha uguali possibilità di essere scelto per il campione.

Si devono estrarre gli individui senza riferimento a caratteristiche individuali; si assegna un numero a

ciascuna persona e si sceglie a caso.

L’errore di campionamento del campione casuale semplice è direttamente proporzionale al livello di fiducia

che vogliamo avere nella stima (cioè il grado di certezza) ed alla variabilità del fenomeno studiato (cioè la

dispersione della distribuzione della variabile), mentre è inversamente proporzionale all’ampiezza del

campione.

Un altro importante passo è quello della determinazione dell’ampiezza del campione. L’ampiezza del

campione è direttamente proporzionale al livello di fiducia desiderato per la stima ed alla variabilità del

fenomeno studiato, ed inversamente proporzionale all’errore che il ricercatore è disposto ad accettare.

Questo significa che la dimensione della popolazione non ha grande importanza per determinare l’ampiezza

del campione, infatti ad esempio un campione di 1.000 casi può essere sufficiente per arrivare a stime della

stessa precisione per popolazioni di 10.000 o 100.000 elementi. Al limite, se si desidera avere stime della

precisione di due punti percentuali, sono sufficienti 2.500 casi per qualunque dimensione della popolazione,

anche a livello mondiale. 24

Altri campioni probabilistici

Campionamento sistematico: è simile al casuale semplice, ma con diversa tecnica di estrazione. I soggetti si

k

scelgono secondo un intervallo stabilito (uno su ). Si usa quando non c’è periodicità e quando la lista non è

exit polls

completa (ad esempio nei controlli di qualità sui prodotti oppure negli ). In ogni caso deve essere

rispettato il requisito che tutte le unità abbiano la stessa probabilità di essere incluse nel campione e inoltre

deve essere evitata ogni forma di scelta diversa da quella predeterminata dall’intervallo di campionamento.

Campionamento stratificato: la popolazione è divisa in strati omogenei rispetto alla variabile e si estrae un

campione casuale semplice da ciascuno strato; in seguito si uniscono i campioni dei singoli strati per

ottenere il campione finale. Questa procedura richiede che per tutte le unità della popolazione sia nota la

stratificato proporzionale

variabile posta alla base della stratificazione. Il campione ottenuto può essere (se si

stratificato non

decide di riprodurre la stessa composizione degli strati nella popolazione) oppure

proporzionale (se si decide di sovrarappresentare alcuni strati e sottorappresentare altri).

Campionamento a stadi: la popolazione è suddivisa su più livelli gerarchicamente ordinati, i quali vengono

estratti in successione con un procedimento ad “imbuto”. Se presumiamo di avere due stasi, il

unità primarie (gruppi di soggetti che

campionamento si effettua in due momenti: prima si estraggono le

costituiscono le unità di analisi vere e proprie) e successivamente si estrae casualmente un campione di

unità secondarie (le unità di analisi) in ognuna delle unità primarie selezionate dalla prima estrazione.

I vantaggi di questa tecnica consistono nel fatto che non è necessario avere la lista di tutta la popolazione,

ma solo delle unità primarie; inoltre la rilevazione viene concentrata sulle unità estratte, con notevole

riduzione dei costi.

Campionamento per aree: è molto simile al campionamento a stadi e si utilizza quando mancano del tutto i

dati sulla popolazione oppure quando le liste sono incomplete.

Campionamento a grappoli: si usa quando la popolazione risulta naturalmente suddivisa in gruppi di unità

grappoli

). Al posto delle unità elementari vengono estratti i grappoli, e poi tutte le

spazialmente contigue (

unità elementari appartenenti ai grappoli vengono incluse nel campione. Questa tecnica semplifica di molto

la rilevazione ed è molto utile quando manca la lista delle unità elementari mentre esiste la possibilità di

estrarre con procedura probabilistica i grappoli.

Campioni complessi: sono quelli in cui si utilizzano congiuntamente le tecniche ora presentate. 25

Il campionamento nella ricerca sociale errore di selezione errore di osservazione

, ed

L’errore nella ricerca sociale può essere distinto in tre parti:

errore di trattamento dati. La procedura di campionamento produce un errore del primo tipo, che a sua volta

errore di copertura errore di campionamento errore di

può essere distinto in ulteriori tre componenti: , ed

trattamento dati. Finora ci siamo occupati del solo errore di campionamento; tratteremo ora anche gli altri.

Errore di copertura. Lista della popolazione

Nel caso in cui si conosce la lista della popolazione, è possibile procedere con campionamenti probabilistici.

Questo accade di solito quando l’oggetto di studio è l’intera popolazione (anche nazionale), perché esistono

anagrafi e liste elettorali che forniscono l’elenco completo della popolazione. Il problema si pone per i

sottoinsiemi della popolazione, perché di solito non si è in possesso di una lista completa della popolazione.

Quando invece l’unità di analisi non è un individuo ma un collettivo, la situazione è migliore perché in genere

un aggregato di individui esiste in forma istituzionalizzata e registrata.

Se non c’è la possibilità di conoscere la lista della popolazione bisogna rinunciare a tecniche di

campionamento probabilistico, perché in questi casi non è possibile assegnare a tutte le unità della

popolazione una certa probabilità di estrazione.

Ma non è sufficiente che le liste esistano, bisogna anche che siano aggiornate, complete ed esenti da

duplicazioni. Il problema della completezza è il più grave; in questo caso il ricercatore può ridefinire la

popolazione, trascurare gli esclusi oppure procedere ad un’integrazione del campione.

Errore di campionamento. Ampiezza del campione

monovariata (quando si stimano le variabili ad una ad una) la

Se consideriamo il caso di una ricerca relazioni tra le

dimensione del campione può essere adeguata, ma se nella stessa ricerca studiamo le

bivariata multivariata

o ) l’errore cresce subito fino a livelli inaccettabili. La dimensione ideale

variabili (analisi

del campione dipende dalla distribuzione delle variabili studiate e dal tipo di analisi che si intende fare. In

generale l’ampiezza del campione dovrà essere tanto maggiore quanto più il fenomeno da studiare è

minoritario.

Errore di non-risposta. Mancati contatti e rifiuti

errore di non-risposta

L’ consiste nel fatto che i soggetti selezionati dal campionamento non sono contattabili

o si rifiutano di rispondere. Il problema del mancato contatto con i soggetti può essere causato dalla

difficoltà di raggiungerli oppure dalla loro irreperibilità; in ogni caso si tratta di problemi fastidiosi ma

risolvibili.

Molto più grave è il problema dei rifiuti a rispondere, in quanto spesso coloro che non vogliono rispondere

sono diversi dagli altri e quindi non rappresentano una selezione casuale del campione originario. In questo

modo si compromette la validità del campione stesso, che sovrarappresenterà alcune categorie di persone a

scapito di altre. La percentuale di mancate risposte in Italia varia dal 20% al 50%, a seconda della diversa

forma di contatto utilizzata (ad esempio di solito le interviste faccia a faccia hanno un tasso di risposta

superiore a quelle telefoniche).

Una soluzione per rimediare alle mancate risposte può essere quella di sostituire i soggetti con altri scelti a

caso, ma questa tecnica spesso non è efficace perché i sostituti assomigliano più ai rispondenti che non ai

non rispondenti.

Per contrastare efficacemente il problema delle mancate risposte ci sono due metodi: il primo è quello di

tornare il più possibile dalla persone che non rispondono per incontrarle o convincerle; il secondo consiste

ponderazione

, cioè nell’attribuire alle persone non raggiunte dall’intervista le risposte medie date dal

nella

gruppo sociale al quale esse appartengono. 26

Campioni non probabilistici campioni non

Quando il disegno probabilistico non può essere impostato si ricorre sin dall’inizio ai

probabilistici.

Campionamento per quote: a sua discrezione

si divide la popolazione in strati rilevanti e il ricercatore sceglie

i soggetti all’interno degli strati rispettando la proporzione (non c’è casualità). I limiti di questa procedura

consistono nel fatto che il ricercatore cerchi i soggetti più facilmente raggiungibili, enfatizzando in questo

modo l’errore di non-risposta.

Disegno fattoriale: il disegno fattoriale si colloca a mezza strada tra una tecnica di campionamento e un

esperimento. Il suo scopo è quello di cogliere le relazioni che vigono all’interno della popolazione; per far

questo i gruppi che si creano dalle combinazioni delle variabili (es.: istruzione, età e genere) hanno tutti

dimensione uguale e non proporzionale alla popolazione. Il disegno fattoriale non arreca alcun vantaggio allo

studio della relazione tra variabile dipendente e indipendente.

Campionamento a scelta ragionata: in questo caso le unità campionarie non sono scelte in maniera

probabilistica, ma sulla base di alcune loro caratteristiche.

Campionamento bilanciato: è una forma di campionamento ragionato, nel quale si selezionano la unità di

modo che la media del campione, per determinate variabili, sia prossima alla media della popolazione (deve

trattarsi quindi di variabili delle quali sia nota la distribuzione nella popolazione). Esso viene usato

soprattutto in caso di campioni molto piccoli.

Campionamento a valanga: è caratterizzato da fasi successive: prima si intervistano le persone che hanno le

giuste caratteristiche, da queste si ricevono indicazioni per rintracciare altre persone con le stesse

caratteristiche, e così via. Per questo è particolarmente utile in caso di popolazioni clandestine.

Campionamento telefonico: la particolarità di questo campionamento consiste nel fatto che la selezione è

fatta automaticamente tramite computer, a partire da elenchi telefonici oppure da numeri generati

random digit dialing

). Questa tecnica presenta il vantaggio che il computer

direttamente dal computer (

registra i motivi dei mancati contatti e gestisce l’esclusione del numero o la ripetizione della chiamata.

Questo tipo di campionamento presenta il difetto che chi vive da solo ha maggiore possibilità di essere

estratto di chi vive in una famiglia numerosa.

Campionamento di convenienza: l’unico criterio di questa tecnica è che si scelgono le persone più facilmente

accessibili; naturalmente va il più possibile evitato. 27

Ponderazione

ponderazione è quella procedura con la quale modifichiamo artificialmente la composizione del campione

La

onde renderla più prossima alla distribuzione della popolazione. Essa si realizza attribuendo un “peso” alle

unità campionarie che varia a seconda delle loro caratteristiche.

Le procedure di ponderazione sono essenzialmente tre e si basano sulle probabilità di inclusione delle unità

nel campione, sulle conoscenze che si hanno sulla popolazione e sulle conoscenze che si hanno sulle

non-risposte.

Il caso che si basa sulle probabilità di inclusione delle unità nel campione consiste nel campionare negli strati

in modo deliberatamente non proporzionale alla loro presenza nella popolazione per avere un numero di

soggetti sufficiente per l’analisi statistica. In questo caso la probabilità di inclusione non è uguale per tutti i

soggetti, ma è nota; si resta quindi tra i campioni probabilistici.

Il caso più comune che si basa sulle conoscenze che si hanno sulla popolazione è detto della

post-stratificazione e consiste nel correggere la distribuzione nella popolazione del campione di alcune

variabili in modo da farla corrispondere alla distribuzione della popolazione totale, assegnando a ogni caso

peso quota teorica quota rilevata

) pari al rapporto / della categoria di

un coefficiente di ponderazione (

appartenenza. Esso copre l’errore di copertura. In questo caso non siamo più in presenza di campioni

probabilistici.

Il caso che si basa sulle conoscenze che si hanno sulle non-risposte copre invece l’errore di non-risposta e

consiste nel classificare le persone che si rifiutano di rispondere sulla base di un certo numero di variabili e

quindi le risposte raccolte vengono ponderate attribuendo loro un peso che tiene conto dei rifiuti. Lo scopo

di questa procedura è quello di attribuire ai non rispondenti il comportamento medio delle persone

appartenenti al loro stesso gruppo sociale. Anche in questo caso non si tratta di una tecnica probabilistica.

Un ulteriore intervento, che si usa per attenuare la distorsione prodotta dalla mancata risposta solo a

qualche domanda del questionario, consiste nel procedere ad una stima delle mancate risposte a partire

dalle informazioni che si hanno sugli intervistati parzialmente reticenti.

Bontà di un campione rappresentanza ampiezza

e la sua .

Alla validità di un campione concorrono due fattori: la sua

rappresentativo

Un campione è quando fornisce un’immagine in piccolo ma senza distorsioni della

casualità della procedura con la quale è stato costruito.

popolazione; la rappresentatività dipende dalla

Questa rappresentatività è valida per tutte le variabili della popolazione. Possiamo infine dire che se le stime

del campione sono sufficientemente piccole, il campione è rappresentativo.

Ma è praticamente impossibile realizzare una procedura completamente casuale, per cui la rappresentatività

del campione è un obiettivo limite al quale ci si può solo avvicinare minimizzando gli errori di copertura e di

accuratezza

).

non-risposta (

ampiezza

In parte l’ del campione è condizione della rappresentatività: se il campione è troppo piccolo, allora

l’errore di campionamento è troppo elevato e il campione non può essere definito rappresentativo. In parte

invece l’ampiezza del campione è un requisito autonomo dalla rappresentatività, e dipende dal tipo di analisi

che vogliamo fare sui dati (monovariata, bivariata o multivariata).

Tra i due requisiti dovrebbe essere privilegiata l’ampiezza per la sua maggiore importanza.

finalità della ricerca descrittivo

: se si tratta di uno studio , il campione deve essere il

È importante anche la

più possibile rappresentativo, se invece l’obiettivo è di tipo relazionale, il campione può anche non essere

perfettamente rappresentativo. In ogni caso il ricercatore può trascurare l’accuratezza della rilevazione,

applicando il più possibile il campionamento casuale nonostante la sua difficoltà. 28

L’ANALISI DEI DATI 29

L’ANALISI MONOVARIATA

Tipi di variabili e analisi statistica

Le caratteristiche logico-matematiche delle variabili (nominali, ordinali e cardinali) definiscono le procedure

da seguire nella fase di analisi dei dati. Le diverse variabili sono quindi analizzate in modo diverso sin dai

livelli più elementari. La maggior parte delle tecniche sono state elaborate per le variabili nominali o

cardinali, mentre le variabili ordinali dovrebbero essere trattate come nominali perché non è corretto

assegnare loro le proprietà delle variabili cardinali. Un caso particolare delle variabili nominali è quello delle

dicotomiche , che hanno la proprietà di poter essere trattate statisticamente come variabili

cosiddette variabili politomiche

cardinali; per questo talvolta il ricercatore “dicotomizza” variabili a più categorie ( ).

Matrice dei dati casi e in colonna le

La matrice dei dati consiste in un insieme rettangolare di numeri, dove in riga abbiamo i

variabili; dato,

in ogni cella derivante dall’incrocio tra una riga e una colonna abbiamo un cioè il valore

assunto da una particolare variabile su un particolare caso. Per potere essere organizzate in una matrice, le

informazioni devono avere due caratteristiche: l’unità d’analisi deve essere sempre la stessa e su tutti i casi

studiati devono essere rilevate le stesse informazioni. codifica

L’operazione di traduzione del materiale empirico grezzo in matrice viene chiamata ed avviene con

tracciato record codice

(la posizione di ogni variabile nella riga della matrice) e il (che

due strumenti, il

assegna ad ogni modalità della variabile un valore numerico). profilo

Ogni riga della matrice corrisponde ad un caso (leggendo ogni riga possiamo ottenere il di un caso),

mentre ogni colonna corrisponde ad una variabile (leggendo una colonna conosciamo le risposte date a

quella domanda da tutti gli intervistati). 30

Distribuzione di frequenza

Distribuzioni assolute e relative distribuzione di frequenza

Per dare una rappresentazione sintetica di una colonna della matrice si una la , che

è una rappresentazione nella quale ad ogni valore della variabile viene associata la frequenza con la quale

assoluta

, quando ci si limita

esso si presenta nei dati analizzati. La distribuzione di frequenza può essere

relativa

semplicemente a contare i casi che presentano quel valore, oppure , quando sono rapportate ad un

proporzione , che consiste nel dividere ogni

totale comune. Un modo per operare questa relativizzazione è la percentuale

, che si ottiene dalle

singola frequenza assoluta per il numero totale di casi; più spesso si usa la

proporzioni moltiplicandole per 100. Il fatto di relativizzare le frequenze permette di effettuare dei confronti

fra distribuzioni di frequenza della stessa variabile ma ottenute da popolazioni di diversa numerosità.

distribuzione cumulativa di frequenza

,

Una forma particolare di distribuzione di frequenza è costituita dalla

nella quale in corrispondenza di ogni valore dalla variabile viene riportata la somma delle frequenze

corrispondenti a quel valore e a tutti quelli inferiori. classi

Se le variabili da sintetizzare sono ordinali, si tende a raggrupparli in di valori adiacenti, perché spesso

sono in numero elevato e altrimenti si otterrebbe una distribuzione troppo dispersa.

La presentazione delle tabelle

Distribuzione di frequenza in forma compatta: il ricercatore deve attenersi al massimo della parsimoniosità

nella presentazione dei dati per non confondere il lettore, per cui si limiterà a presentare le percentuali e il

base del calcolo delle percentuali)

totale in valore assoluto (

Cifre decimali: di solito le percentuali si riportano con una cifra decimale oppure senza decimali se la base

delle percentuali è minore di 100; questo perché esiste sempre un errore che può essere di diversi punti.

Arrotondamenti: se il decimale da eliminare si colloca tra 0 e 4, si arrotonda per difetto, se si colloca tra 0 e

5 si arrotonda per eccesso.

Il decimale zero: se si decide di riportare i decimali deve essere presente anche lo zero (es. 22,0%)

Quadratura: a causa degli arrotondamenti può succedere che la somma delle percentuali sia diversa da 100;

in questo caso è opportuno alterare le cifre per avere delle percentuali la cui somma sia 100.

“Pulizia” dei dati e preparazione del di lavoro

file

Controlli di plausibilità: si tratta di controllare che tutti i valori delle variabili siano plausibili, appartengano

cioè al ventagli di valori previsti dal codice.

Controlli di congruenza: si possono confrontare le distribuzioni di due variabili per far emergere eventuali

incongruenze tra le variabili stesse.

Valori mancanti (missing values): ad un certo caso in una certa variabile viene assegnato “valore mancante”

se quel caso è privo di informazioni su quella variabile. Esistono quattro casi di valore mancante: “non sa”,

“non applicabile”, “non risponde”, “valore implausibile”. Di solito si tende ad esporre i “non risponde”

nell’analisi monovariata e ad escluderli nell’analisi a più variabili.

Analisi monovariata

analisi monovariata descrittiva

è un’analisi puramente dei fenomeni studiati, che si limita ad esporre come

L’

ogni variabile è distribuita fra i casi rilevati, senza porsi problemi sulle relazioni tra le variabili. Essa

rappresenta un passaggio inevitabile e necessario di ogni analisi multivariata, perché solo con questa analisi

il ricercatore perviene a quella conoscenza diretta dei dati che gli permetterà di analizzarli con piena

consapevolezza. Essa inoltre rappresenta una prima descrizione dei fenomeni analizzati e contribuisce alla

comprensione della struttura del campione e della sua rappresentatività. 31

Misure di tendenza centrale

Le misure di tendenza centrale dicono qual è, in una distribuzione di frequenza, il valore che meglio di

qualsiasi altro esprime la distribuzione quando si decidesse di sintetizzarla in un unico numero.

Variabili nominali: la moda. Se la variabile è nominale, l’unica misura di tendenza centrale calcolabile è la

moda. La moda è la modalità di una variabile che si presenta nella distribuzione con maggior frequenza.

Variabili ordinali: la mediana. mediana.

Nel caso delle variabili ordinali, oltre alla moda si può calcolare la La

mediana è la modalità del caso che si trova al centro della distribuzione dei casi che va dal minore al

ordinata dei casi secondo quella variabile).

maggiore (distribuzione

Variabili cardinali: la media aritmetica. media aritmetica

La è la misura di tendenza più nota e comune, ed è

data dalla somma dei valori assunti dalla variabile su tutti i casi divisa per il numero dei casi. Se nella

distribuzione di frequenza i dati sono raggruppati in classi, per il calcolo della media si assume il valore

centrale della classe.

La media si può calcolare solo se la variabile è cardinale, in quanto richiede operazioni che possono essere

effettuate solo se i valori hanno pieno significato numerico. Tuttavia ci sono dei casi in cui è preferibile usare

la mediana anche nel caso di variabili cardinali, tipicamente quando si desidera una misura meno sensibile ai

casi estremi (come il reddito medio della popolazione).

Misure di variabilità

Variabili nominali: indici di omogeneità/eterogeneità. Una variabile nominale ha una distribuzione

omogenea quando tutti i casi si presentano con la stessa modalità; viceversa è

massimamente eterogenea quando i casi sono equidistribuiti tra le modalità. Il più semplice indice di

massimamente

assoluta

omogeneità ( ) è dato dalla somma dei quadrati delle proporzioni (cioè delle frequenze relativizzate al

relativa invece neutralizza l’influenza del numero delle modalità.

totale 1). L’indice di omogeneità

Variabili ordinali: la differenza interquartile. quartili

I sono i valori che segnano i confini tra i quattro quarti di

differenza interquartile

una distribuzione ordinata divisa in quattro parti di eguale numerosità. La è la

differenza tra il terzo ed il primo quartile; si usa per eliminare il 25% dei valori più alti e il 25% dei valori più

bassi. Questa differenza si usa anche per le variabili cardinali.

Variabili cardinali: deviazione standard e varianza. deviazione standard scarto quadratico medio)

La (o

consiste nella somma degli scarti dei singoli valori dalla media elevati al quadrato (per annullare il loro

varianza della distribuzione. Essa costituisce l’oggetto

segno) sotto radice. Se togliamo la radice otteniamo la

primario di tutta l’analisi dei dati.

Se si vogliono confrontare tra di loro le variabilità di distribuzioni aventi medie fortemente diverse, conviene

coefficiente di variazione

utilizzare un indice di variabilità che tenga conto del valore della media ( ).

La concentrazione. quantità possedute

Quando la variabile è cardinale e consiste in dalle unità d’analisi si

concentrazione equidistribuita

di questa variabile nelle unità studiate. La variabile è se il suo

può calcolare la concentrata

ammontare complessivo è distribuito in parti uguali tra le unità, mentre è se l’ammontare

complessivo è tutto attribuito ad una sola unità. Tipicamente gli indici di concentrazione sono utilizzati per

studiare le disuguaglianze nella distribuzione della ricchezza. 32

Indici di distanza e di dissimilarità

Indici di distanza fra casi

Oltre all’analisi della matrice per variabili è possibile condurre delle analisi sulle righe della matrice, cioè a

indice di similarità ) misura quanto i due soggetti

partire dai casi. La distanza tra i profili di due soggetti (

hanno dato giudizi complessivamente simili o dissimili. La distanza tra due casi può essere tuttavia calcolata

solo su variabili cardinali, oppure su variabili nominali con opportuni artifizi.

Indici di dissimilarità tra distribuzioni

L’obiettivo degli indici di dissimilarità è quello di sintetizzare attraverso un unico numero la distanza che

esiste tra due distribuzioni di frequenza della stessa variabile. La distanza o la dissimilarità tra due

distribuzioni può essere calcolata solo se esse presentano le stesse modalità.

Classificazioni, tipologie e tassonomie

classificazione classi

è quel processo secondo il quale i casi studiati vengono raggruppati in sottoinsiemi ( )

La esaustive

sulla base di loro similarità. Le classi devono essere (tutti i casi devono trovare collocazione in una

mutualmente esclusive (un caso può appartenere ad una sola classe).

classe) e

Classificazione unidimensionale: aggregazione delle modalità in classi

La classificazione più semplice è quella in cui i casi sono classificati per la somiglianza relativamente ad una

sola variabile. In questi termini la determinazione delle classi corrisponde con quella delle modalità. Tuttavia,

aggregare

nel caso delle variabili nominali, in fase di analisi dei dati talvolta è necessario alcune modalità dal

significato affine per poter procedere all’analisi bivariata. Questo processo spesso costringe il ricercatore a

scelte insoddisfacenti e sforzate a causa della difficoltà di aggregare variabili troppo diverse tra loro; di solito

quindi nell’analisi bivariata si tende a scartare le componenti troppo esigue e non aggregabili.

Nel caso delle variabili cardinali il problema dell’aggregazione è più semplice, basta raggruppare le modalità

in classi di maggiore ampiezza. Esistono tre criteri di aggregazione: il primo consiste nel raggruppare i valori

della variabile in intervalli di uguale ampiezza; il secondo nel raggruppare i valori assumendo a riferimento il

loro significato; il secondo si basa sulla configurazione della distribuzione di frequenza, prendendo come

soglia di divisione i quantili.

Classificazione multidimensionale: tipologie e tassonomie tassonomie tipologie

Le classificazioni multidimensionale (sulla base di più variabili) si possono dividere in e .

in

La tassonomia è una classificazione nella quale le variabili che la definiscono sono considerate

successione, in una struttura gerarchica che procede per variabili di generalità decrescente.

La tipologia è invece una classificazione nella quale le variabili che la definiscono sono considerate

simultaneamente. tipi.

Le classi di una tipologia sono dette Un tipo è un concetto il cui significato si colloca

all’intersezione dei significati delle modalità delle variabili che costituiscono la tipologia e quindi il suo

significato è superiore alla semplice combinazione dei significati delle due variabili. In questo modo la

euristico

, cioè non è solo una mera classificazione, ma ha finalità di interpretazione e

tipologia ha uno scopo

spiegazione; è un punto cruciale nel collegamento tra dato empirico e teoria.

Quando ci sono in gioco più variabili, il numero dei tipi risulta molto elevato (perché esso è dato dal prodotto

delle numero delle modalità che formano le variabili), quindi è necessario procedere ad una riduzione del

riduzione dello spazio degli attributi

).

loro numero mediante unificazione di alcuni tipi in un unico tipo ( 33


ACQUISTATO

5 volte

PAGINE

39

PESO

201.32 KB

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Riassunto per l'esame di Metodologie e tecniche della ricerca sociale, basato su appunti personali e studio autonomo del testo consigliato dal docente Metodologie e tecniche della ricerca sociale, Corbetta. Argomenti trattati: LOGICA DELLA RICERCA SOCIALE, PARADIGMI DELLA RICERCA SOCIALE, Kuhn e i paradigmi delle scienze, Positivismo e interpretativismo, RICERCA QUANTITATIVA E RICERCA QUALITATIVA, TRADUZIONE EMPIRICA DELLA TEORIA, INCHIESTA CAMPIONARIA, standardizzazione ovvero l’invarianza dello stimolo


DETTAGLI
Corso di laurea: Corso di laurea in educatore sociale e culturale (BOLOGNA, RIMINI)
SSD:
Università: Bologna - Unibo
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher trick-master di informazioni apprese con la frequenza delle lezioni di Metodologia della ricerca sociale e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Bologna - Unibo o del prof Rossi Maurizio.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in educatore sociale e culturale (bologna, rimini)

Riassunto esame Sociologia della famiglia, docente Ghigi, libro consigliato Corpo genere e società, Ghigi
Appunto