Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Mappe percettive
Le mappe percettive rappresentano il posizionamento dei prodotti in relazione ad una serie
di bisogni primari e consentono di formulare i benefici chiave per il posizionamento strategico
del prodotto. Le mappe percettive hanno due dimensioni, perchè la lettura in dimensioni
maggiori è molto più difficile. ll cliente però potrebbe rappresentare la nostra idea anche con
un numero di dimensioni superiori a due, quindi rappresenteremo la nostra idea a coppie di
due dimensioni, per aumentare ulteriormente l'interpretazione. Ci permette di confrontare la
nostra idea di prodotto con le altre disponibili, in base a una serie di bisogni primari. Non si
studia solo questo, ma anche il sistema di riferimento utilizzato dai consumatori, quindi cosa
percepiscono e come lo valutano, quindi si mostrano le preferenze dei consumatori. La
percezione è un termine di valutazione più semplice della preferenza. I consumatori collocano
i prodotti in base ad uno schema mentale. Le mappe percettive rispondono alle seguenti
domande:
Chi sono i potenziali rivali dei nostri prodotti?
Come "appariamo" rispetto ai nostri concorrenti?
Sulla base di quali dimensioni?
In che modo sono stati soddisfatti i bisogni dei consumatori? --> non tutte le mappe
Dobbiamo capire quali consumatori sono sensibili a quali attributi.
L'uso delle mappe percettive nel processo di sviluppo di nuovi prodotti: le mappe possono
essere usate per confrontare un nuovo concetto con un prodotto esistente e consentono di
valutare se ed in che modo il nuovo concetto contribuisce all'identificazione dei benefici
chiave. Operativamente, per formulare i benefici chiave, il team deve identificare:
I bisogni dei consumatori sottostanti ad un numero ridotto di bisogni finali;
I bisogni di gruppi di consumatori in termini di bisogni primari e, in particolare, la definizione
del numero e dei nomi di tali bisogni;
Il posizionamento dei prodotti esistenti rispetto alle dimensioni percettive corrispondenti ai
bisogni primari;
Le preferenze dei diversi segmenti di clientela in relazione ai bisogni primari.
Avversione agli estremi--> quando sto agli estremi la probabilità di fare un errore è più alta
per cui si evitano.
Effetto Alone--> concentrandoci su un aspetto sovrascrivo tutte le valutazioni successive
I dati raccolti con i sondaggi vengono messi in un database, si crea una matrice dei dati. Per
ogni rispondente si hanno una quantità di righe corrispondente alla quantità di marche
valutate. Nelle colonne sono presenti gli attributi, una per attributo.
Cerco variabilità, quindi i dati devono variare molto. Calcolo media e varianza per ogni
attributo. Calcolo da differenza tra i rispondenti, eterogeneità. Come posso rappresentare
questi dati efficacemente?
Esistono diversi modi (es. spazio a due dimensioni, profiling plot, grafico a radar, istogramma)
Però c'è un modo migliore? Possiamo fare una matrice di correlazione, dobbiamo ridurre gli
elementi di valutazione. Ci sono due scelte: quale schema di rappresentazione usiamo e
dobbiamo riuscire a collocare le marche in quello schema.
Percezioni, Preferenze e Scelte
Percezioni: si riferiscono alle convinzioni che i consumatori hanno circa i diversi prodotti
disponibili sul mercato.
Preferenze: si riferiscono a uno stato mentale che consente ai consumatori di un anteporre
nella loro mente un prodotto ad un altro rispetto ad un attributo.
Scelte: implicano una valutazione tra le diverse alternative disponibili, valutazione che può
condurre all'acquisto.
Percezioni--> Preferenze --> Scelte
Mappe percettive, Mappe di preferenza e Mappe Joint
Space
Rispetto a questa struttura si possono fare tre tipi di mappe:
Mappe percettive (metodi basati sulle somiglianze e metodi basati sugli attributi);
Mappe di preferenza, rappresentazione geometrica del punto ideale, in cui vengono
combinate in modo ideale due caratteristiche (Punto ideale e Modello Vettore);
Mappe Joint Space, non ci si preoccupa solo di definire dimensione 1 (Y), dimensione 2 (X)
e posizione del prodotto, ma si cerca anche di sintetizzare la definizione del punto ideale
attraverso più segmenti. Si creano quindi rappresentazioni che indicano come gli attributi si
integrano glu uni con gli altri. Combinazione delle precedenti, due spazi: uno delle percezioni
e l'altro delle preferenze (PREFMAP e Mappe "Joint space" utilizzando metodi percettivi
modificati).
Creare una mappa percettiva
Abbiamo due strade:
Metodi Decompositivi e libero di attributi, detto anche metodo attribute-free. Questi metodi
sono basati sulla somiglianza. Le dimensioni sottostanti vengono inferite da una serie di
giudizi di somiglianza forniti dai consumatori circa alcuni oggetti all'interno di un dataset.
Metodo: multidimensional scaling. Partiamo da una valutazione aggregata. Semplice, chiedo
alle persone di confrontare gli oggetti e dire quanto sono simili. Raccolgo tante informazioni,
quanto A è simile a B, quanto B a C, quanto A a C. Arrivo in cosa A è diverso da B senza
chiederlo ai rispondenti. Non chiedo ai rispondenti di valutare perchè A è diverso da B.
Chiedo solo il il grado di similarità/dissimilarità e non cosa li differenzia. Difficile da
interpretare ma molto ricco. Tutte le ragioni sono dentro i dati. Rinunciamo alle informazioni
ottenute con le interviste in profondità. Otteniamo una misura di distanza, che poi cerchiamo
di decomporre per capire.
Metodi Compositivi o attribute-based. Questi metodi sono basati sugli attributi. Ogni
oggetto viene valutato rispetto a una serie di attributi predefiniti. Gli attributi sono ridotti ad un
numero di dimensioni inferiori. Metodo: analisi delle componenti principali e analisi dei fattori,
analisi discriminante e analisi delle corrispondenze. Faccio domande molto specifiche, però
non posso andare oltre quelle. Poi analizzo i dati ricavati da queste domande. Se ci sono dei
fattori che vanno oltre alle domande fatte non lo sapremo mai. In essi partiamo da
un'informazione disaggregata e cerchiamo di comprarla per ridurre lo spazio del problema, se
abbiamo la rappresentazione di 10 attributi non molto informativa, riduciamo in bisogni di
ordine superiore aggregandoli, componendoli.
I due metodi sono complementari.
Metodi attribute-based
Scelgo attributi emersi nel focus group o interviste in profondità. Crediamo di essere in grado
di creare una lista completa dei bisogni partendo dalle informazioni emerse dalle interviste.
Anche se tecnicamente corretta, se trascuriamo delle informazioni che influenzano
notevolmente la valutazione dei consumatori, i risultati non sono corretti.
Sistema di riferimento --> logica che porta a giudicare e valutare, non è conosciuto a priori.
Il nostro obiettivo è produrre una visualizzazione dei dati che catturare l'essenza delle
informazioni. Consideriamo la matrice di correlazione basata sui dati grezzi.
Vogliamo una rappresentazione sintetica dello schema di riferimento.
Assumiamo che la variabilità degli individui è marginale rispetto alla variabilità tra marche.
Ipotesi che il gruppo di riferimento ha opinioni analoghe rispetto alle marche.
Prima considerazione: quali sono le componenti di variabilità?
Eterogeneità osservata: osservo delle fonti di differenza e verifico se influenzano
Eterogeneità non osservata: cioè le fonti di differenza non osservabili, non posso dividere il
campione in base a questa caratteristica.
Si parte dalla matrice di correlazione (lineare), dobbiamo cercare di sintetizzarla.
Cause di correlazione
Similarità semantica: le domande sono semplicemente delle variazioni verbali dello stesso
concetto;
Relazione causale percepita, cioè due variabili che si muovono nella stessa direzione;
Associazioni cognitive basate su correlazioni "econologiche": non c'è relazione causale
percepita di per sé, ma esiste una "condizione ambientale", i consumatori vedono legami che
noi non vediamo.
Sono guidata da due fondamentali desideri. Si possono usare due tipi di analisi, che dal
punto di vista statistico sono diverse, ma conducono agli stessi risultati.
Il primo è un desiderio di semplificazione, il secondo è il desiderio di identificare una struttura
sottostante (elementi correlati che descrivono un qualcosa che non è direttamente
misurabile). L'idea dietro al secondo desiderio è più avanzata, gli elementi covariano a
descrivere qualcosa che non posso direttamente misurare.
Analisi dei fattori
Analisi statistica multivariata per raggruppare insieme le variabili correlate per semplificare i
dati ed evidenziare le strutture sottostanti i dati. Permette di esaminare le interdipendenze tra
le variabili. L'analisi delle componenti principali risponde al desiderio di semplificare, mentre
l'analisi dei fattori risponde al desiderio di identificare la struttura sottostante i dati ed esamina
le interdipendenze tra le variabili. L'obiettivo dell'analisi dei fattori è catturare quanta più
informazione nel modello originale possibile con il minor numero di fattori possibili.
I dati osservati sono effettivamente generati da un insieme di fattori sottostanti:
Analisi delle componenti principali
Sta all'interno dell'analisi dei fattori, è la sua forma più semplice. Una tecnica "collegata" in cui
vengono create nuove variabili (componenti principali) che sono combinazioni lineari delle
variabili originali. Nella pratica l'analisi dei fattori e l'analisi in componenti principali vengono
usati per lo stesso scopo ma è sbagliato.
Vogliamo sintetizzare le informazioni e fare un riassunto, in modo che emerga l'attributo
principale e gli altri più importanti, tutto il resto gli abbandoniamo. In questo modo si ha una
perdita. Quindi aggiungo una variabile che racchiude quelle che sarebbero state
abbandonate.
Guardo quanto è perduto con il primo attributo, poi ne aggiungo altri fino a che ottengo ciò
che voglio, quindi una combinazione di attributi che permettono di sintetizzare. Ciascun
attributo ha un peso.
Prendo l'intera varianza osservata in un dataset e cerco di spiegare quella variabilità con un
numero di variabili molto più basso di quelle mappate nel dataset. Creo una combinazione
lineare che sintetizzi la variabilità. Con una prima variabile che spiega la maggior parte della
varianza, la seconda vede quanta variabilità resta.
PC1 deve spiegare la quantità più grande possibile di varianza nei dati. PC2 deve spiegare la
quantità più grande di varianza non spiegata da PC1.
Autovalore superiore a 1 significa che la variabilità della componente principale è maggiore
della variabilità delle singole