Che materia stai cercando?

Analisi degli OGM negli alimenti - Appunti Appunti scolastici Premium

Appunti di Analisi degli OGM negli alimenti per l'esame del professor Cassanelli. Gli argomenti trattati sono i seguenti: la situazione in Europa per quanto riguarda la percezione degli ogm, i miglioramenti ‘’artificiali", l’etichettatura, la
stabilità e la valutazione dei rischi.

Esame di Analisi degli OGM in alimenti docente Prof. S. Cassanelli

Anteprima

ESTRATTO DOCUMENTO

2 diverse matrici poste all’estremo, soia semi fino all’ultimo processo che tu puoi fare all’estratto

proteico che deriva dalla soia, cosa hanno fatto? Sono andati a prendere questi 2 estremi di matrice,

loro volevano vedere se riuscivano a trovare un solvente capace di estrarre in maniera nativa una

proteina transgenica unita alla farina (matrice poco processata) così come nella matrice altamente

processata, quindi hanno provato diversi tamponi di estrazione, ne hanno provati 5 e hanno fatto un

western blot dove hanno caricato la proteina nativa come controllo, poi hanno messo una serie di

controlli negativi, poi hanno provato una serie di campioni con diversi tamponi di estrazione, la

composizione dei diversi tamponi di estrazione si deve nel lucido, poi hanno cimentato con lo stesso

anticorpo e sono andati a vedere come funzionavano i diversi tamponi di estrazione, ce ne sono solo

2 che funziona sia nella matrice poco processata che nella matrice altamente processata, ma nella

matrice complessa non funzionano. In particolare hanno visto che uno dei metodi + efficienti di

estrazione è il classico tampone di estrazione della proteina, *** come posso validare il mio

anticorpo sulla mia matrice facendo un western blot in parallelo su matrice non processata?

Risposta: proteina nativa, controlli negatici e poi testare il protocollo d’estrazione, *** cosa c’è

dentro al protocollo di estrazione? Risposta: in genere c’è un tampone, tris HCl, perché c’è un

tampone che ha un ph che è intorno a 6.8-7.0? perché il ph fisiologico è intorno a questi valori, si

utilizza un tampone di estrazione e ci mettiamo dentro qualcosa che mantiene il ph nelle stesse

condizioni di ph che c’è nella matrice, *** perché si denaturano le proteina quando cambio il ph?

*** cosa succede se si denaturano? Se si denaturano cambiano gli epitopi della proteina, il punto

isoelettrico di una proteina è raggiunto quando il numero di cariche + è = al n. di cariche -, quando

si raggiunge il punto isoelettrico perde solubilità, quindi lo stesso ph di quello che troviamo nella

matrice serve per mantenere la proteina nelle stesse condizioni della matrice, quindi non denaturata

e quindi riconoscibile dall’anticorpo e solubile, il primo effetto che si ha cambiando il ph è quello

che variano le cariche e il più delle volte la proteina precipita, si perde e non si estrae nulla, poi

dentro al tampone di estrazione c’è l’SDS (sodio dodecil solfato) è un detergente che serve per

disgregare le membrane cellulari, poi c’è il glicerolo che in genere protegge le proteine evitando la

loro denaturazione, negli enzimi di trasformazione c’è glicerolo perché serve come stabilizzante

delle proteine; poi mercapto etanolo (molto forte) serve per ridurre i ponti di solfuro e disgregare

meno i complessi proteici facilitando l’estrazione della proteina, bromofenolo, twin che è un

detergente anionico a differenza dell’SDS, quindi grosso modo c’è un tampone per mantenere il ph,

un detergente, un agente riducente, qualche preservante della stabilità delle proteine tipo il

glicerolo, EDTA acido etilendiammino tetracetico serve perché è un chelante dei metalli e sottrae i

metalli tipo magnesio e cloruro che sono coenzimi delle proteasi, è un chelante li trattiene, serve

anche questo per preservare l’integrità delle proteine, poi IMSF è un inibitore delle proteasi posso-

33

metil sulfossido. In questo esperimento hanno validato diversi protocolli che contenevano uno o più

componenti e vedere quelli che funzionavano sia nella matrice semplice che nella matrice

processata per quanto riguarda l’estrazione di questa proteina, poi una volta che hanno visto che

questi 2 protocolli funzionavano hanno fatto l’estrazione e hanno settato il loro protocollo di Elisa,

lo schema della procedura è estremamente semplice, è un sistema a sandwich, 2 anticorpi, uno

monoclinale prodotto in topo e uno policlonale prodotto in coniglio contro la proteina transgenica

prodotta in E. Coli, poi come si fa? Lo avevamo già visto, anticorpo monoclinale adsorbito sul

fondo della piastra, sono piastre che sono in grado di adsorbire gli anticorpi nella loro posizione

costante, poi vengono applicati in ciascun pozzetto gli standard a concentrazione crescente di gmo, i

controlli positivi e negativi tipo la proteina pura, poi i campioni incogniti, poi si applica il

policlonale, l’immunoglobulina di coniglio che deve riconoscere gli epitopi dell’antigene diversi

rispetto al monoclinale altrimenti entrano in competizione, poi applicano un anticorpo monoclinale

anti igg di coniglio, questo è marcato con biotina, a questo punto la piastra viene cimentata con

avidina coniugata a biotina, si mettono su strato cromogeno, si sviluppa colore e si può quantificare

il contenuto di gmo perché nei pozzetti sono presenti qnt crescenti di standard a concentrazione

nota. Alla fine si ottiene una curva dello standard, questi indicati nel grafico sono i nano grammi di

proteina contenuti in ogni standard, poi ci sono i campioni incogniti, e si calcola quanta proteina c’è

in ogni pozzetto. È importante che la curva di legame del composto standard deve essere più o

meno equivalente dei campioni incogniti come andamento, quando le 2 curve sono esattamente

sovrapposte significa che entro questo limite di nano grammi per pozzetto c’è una quantificazione

accurata, man mano ci si sposta come quantità maggiore le 2 curve tendono a separarsi quindi

significa che la mia detection è più corretta all’interno di questo intervallo, oltre perde di sensibilità,

da notare che la curva dove non è una retta significa che c’è poca sensibilità, quindi quando c’è una

retta esiste la stessa proporzionalità, la stessa sensibilità, stessa capacità di distinguere 2 qnt

leggermente diverse, perché la differenza di intensità che riesco a misurare è sempre costante lungo

tutto il mio intervallo, se ho una curva invece avrò una sensibilità molto più bassa tra un campione e

l’altro a differenza della retta dove a piccole variazioni di ogm corrispondono grandi variazioni di

concentrazione, quindi perdo sensibilità dove ho la curva, quindi ritornando al grafico, nella parte

bassa dove c’è la curva mi dà una buona accuratezza cioè corrispondono le 2 curve ma una

sensibilità più bassa, non riesco a discriminare differenze molto piccole.

Limiti di detection per le varie frazioni se uno ha un western o se uno ha un’Elisa: soprattutto per le

matrici molto processate è più sensibile generalmente il western blot, invece l’Elisa va molto bene

nelle matrici poco processate, se lo uso (l’Elisa in matrici molto processate perdo in sensibilità sia

34

perché la proteina può essere parzialmente manipolata e sia perché aumentano le schifezze che ci

sono dentro.

Il metodo immunologici come funziona come principio? Immaginate di avere uno stick e di avere

un omogenato all’interno di una provettina, immergo lo stick all’interno dell’omogenato e per

capillarità il mio omogenato viene assorbito dalla stick, per capillarità lo strato acquoso si trascina

tutto quello che c’è dentro all’omogenato, sopra allo stick cosa c’è? Immaginiamo di avere il

campione con bt, di guardare la parte inferiore della stick, nella parte inferiore ci sono gli anticorpi

anti bt adsorbiti sul cartoncino marcati con una molecola reporter, ovviamente gli anticorpi

riconosceranno la molecola bt, per capillarità man mano sale la parte acquosa si trascina gli

anticorpi e quindi anche la proteina bt, arrivati a un certo punto cioè alla parte alta della stick c’è un

secondo anticorpo specifico che riconosce un epitopo diverso sulla proteina bt e blocca tutti i

complessi bt-anticorpo di quella proteina, poi ci sarà una terza qnt di anticorpo anti bt in eccesso

che non hanno legato nessuna proteina sale, non viene bloccato e trova un seconda anticorpo fissato

al cartoncino che mi riconosce la molecola reporter, a questo livello esiste anche il substrato per la

molecola reporter il che significa (2 substrati che danno 2 colorazioni diverse) che tutti gli anticorpi

bloccati qui mi produrranno una linea colorata in posti diversi, in colori diversi. Sono abbastanza

sensibili, in genere il vantaggio è che sono veloci (5-10 minuti), economiche e sviluppate le prime

contro la proteina bt. Nei kit forniscono la provettina col suo stick, poi lo stesso coperchietto

dell’heppendorf…. Aggiungi il baffer, immugenizzi, inserisci la stick, doppia linea non va bene…

*** le caratteristiche sono riassunte in questa tabellina: è un test estremamente rapido per la

detection dei transgeni, i vantaggi: prevede una minima preparazione del campione, rapidità del

risultato circa 5-10 minuti, qualitativo, semi quantitativo, relativamente pochi costosi, 3 dollari a kit,

possono essere storati e conservati, non è richiesta nessuna apparecchiatura costosa ed è idoneo ai

saggi, svantaggi: non sono molto sensibili, la sensibilità è sull’ordine dell’1% circa, soffre della

mancanza di anticorpi specifici per determinati tratti transgenici, le limitazioni sono dovute al fatto

che anche in questo caso non si può fare multiplex, non sono eventi specifici, non funzionano

laddove la proteina transgenica è espressa a bassi livelli, anche in questo caso adatto al materiale

non processato, adatto per semi ad esempio.

Questo è un lavoro in cui hanno messo a confronto l’affidabilità di queste diverse strip che sono in

grado di individuare proteine transgeniche in diverse matrici, cioè semi, foglie, farine di semi, farine

di foglie, di origine diversa come mais, soia e canola, cosa sono andati a valutare? I limiti di

sensibilità, la suscettibilità a trattamenti termici ed enzimatici della matrice e l’influenza del

contesto di matrice cioè al di là del trattamento quale è le differenza di performance con queste

strip? In questi kit il protocollo base era il seguente: procedura di estrazione cellulare sulla frazione

35

del solubile omogeneizzata ridotta in polvere, di diametro calibrato e l’estrazione avviene soltanto

con acqua, poi estratto la parte acquosa si centrifuga il surnatante, *** i limiti di sensibilità come

sono calcolati? In 2 modi e lo ritroveremo anche nel dna: per diluizione seriale cioè si è preso una

matrice cioè si è preso una matrice al 100% di gmo, si è fatta l’estrazione e si è cominciata a diluirla

2 volte, 3,4,5, volte in acqua per vedere quale era il limite, oppure diluizione in matrice cioè quale

era la sensibilità di questo metodo se io utilizzavo miscele di semi o foglie liofilizzate a varie

concentrazione di ogm, quindi un limite di sensibilità fatta in diluizione acquosa e uno fatta in

diluizione di matrice. prima cosa che si nota è che c’è una diversa sensibilità soglia: qui abbiamo

diversi eventi, diversi transgeni con diverse diluizioni in acqua, su ciascuna strip abbiamo 2 segnali

uno di controllo e un segnale dato dalla presenza di gmo, limiti di sensibilità per ogni strip e si vede

se una strip ha una buona o scarsa sensibilità e questo dipende dal tipo di anticorpo e dal tipo di

matrice, quindi la sensibilità soglia della strip può essere diversa a seconda del tipo di anticorpo che

andiamo a utilizzare, a parità di evento transgenico alcune strip si fermano a 1 a 500, altre vanno

oltre. Là dove non c’è gmo qui non ci deve essere segnale, se compare segnale *** se tu stai usando

una stri e ti compare il segnale corrispondente a quella proteina transgenica, tu cosa mi dici? 90%

c’è il transgenico, ma potrebbe anche esserci cross reattività per un altro elemento della matrice, ci

può essere un falso positivo, per questo si fa sempre in parallelo anche un non gmo, per vedere se

c’è cross reattività.

Un altro aspetto che hanno evidenziato: hanno preso i diversi materiali con gli stessi eventi

transgenici presenti in mais bt, in semi così come nelle foglie, così come in alcuni materiali di

riferimento previsto dall’istituto superiore di certificazione e hanno visto che alcune proteine gmo

sono individuate correttamente in tutte le matrici sia foglie che semi e lo stesso per alcuni altri

eventi, per esempio questo evento transgenico nei semi viene identificato fino a una diluizione

1/10.000 (molto sensibile), lo stesso evento nella stessa matrice però in mais 1/1.000 questo dice

che la sensibilità di una strip può dipendere sia dalla matrice, ma anche a parità di matrice dal tipo

di linea che andiamo a ricercare, perché l’anticorpo è specifico per quella proteina transgenica però

magari con una linea rispetto a un’altra (una è mais e l’altra è soia) la stessa proteina può subire

delle modificazioni post tradizionali diverse da far diminuire o aumentare l’affinità dell’anticorpo,

in genere questi anticorpi vengono prodotti da proteine transgeniche sintetizzate da E. Coli,

quell’anticorpo è fatto su questa proteina e può però avere minore affinità rispetto alle proteine

native che vengono prodotte nella soia rispetto al mais quindi ci sono dei limiti di decection diversi,

dire che l’ho trovato in mais e lo stesso evento me lo ritrovo anche quando diluisco la mia matrice

1/10.000 e poi cambi e passi da soia a mais non è detto che tu abbia la stessa performance a parità di

proteina transgenica perché 1. ci può essere un effetto matrice e 2. ci può essere un effetto matrice,

36

magari per qualche motivo la farina che ottieni dal mais e dalla soia contiene qualcosa che

interferisce con il legame antigene-anticorpo. Poi a parità di evento e anche di ospite ci sono alcune

proteine gm,o che vengono riconosciute da queste strip correttamente solo da alcune matrici e non

in altre, ad esempio in mais bt 176 che porta come evento transgenico una proteina bt, nei semi non

sono in grado di riconoscerlo, mentre sono in grado di riconoscerlo nelle foglie con una diluizione

di 1/100, nei semi non funziona, nelle foglie si, nonostante la proteina in western blot non abbia

dimostrato che questa proteina è espressa anche nei semi quindi qui c’è un effetto matrice di

disturbo oppure può anche darsi che la proteina bt espressa nei semi sia in qualche modo meno

idrosolubile di quella che si trova nelle foglie, può essere una modificazione della proteina, ma

anche in quale contesto quella proteina con le stesse modificazioni si può trovare, ci possono essere

modificazioni sulla stesa proteina, ma anche contesti in cui la proteina con le stesse modificazioni

può essere inserita e lo stesso alcuni altri tipo monsanto 810 ancora nei semi lo stesso evento non

viene riconosciuto, nelle foglie si. Le strip vanno quindi sempre validate con dei controlli positivi,

sullo stesso tipo di proteina transgenica sulla stessa matrice, cambi linea, hai sensibilità

completamente diversa, in teoria si dovrebbe prima testarla su un controllo positivo, poi vai in

campo o nelle ditte cementiere, poi attenzione, in alcuni casi può verificarsi che proteina gmo non

sono identificabili dagli anticorpi, basta una qualche mutazione per non essere riconosciuta dagli

anticorpi attualmente in commercio tanto è vero che la maggior parte dei kit riportano già nelle

prime 2 righe ad esempio GAL21 non funziona, poi nei kit vengono enunciate le caratteristiche di

cross reattività o positive o negative, ad esempio questa stick è in grado di riconoscere tutte queste

varianti, oppure questa riconosce solo questa variante, la cross reattività non è fattore da poco,

perché? L’abbiamo detto all’inizio, come viene determinata l’obbligatorietà dell’etichettatura? La

percentuale viene calcolata matrice ogm sulla stessa matrice non ogm, immaginate di avere una

matrice alimentare farina di mais e di soia ciascuna transgenica per la stessa proteina bt, questo kit

la quantifica sommandola, la real time essendo evento specifico è in grado di distinguerla così

sommandole si rischia di etichettarle, se si riesce a distinguere le 2 con la componente mais e la

componente soia se sono entrambe sotto i 0.9% (ad esempio entrambe 0.5) non si deve etichettare, i

metodi immunologici (Elisa, strip) mettono tutto insieme!!!! Dal punto di vista del rischio secondo

voi come mai il legislatore ha distinto i vari componenti? Tu puoi avere una stessa proteina bt

messa dentro al mais che per qualche motivo quella sequenza di trasformazione ti produce un mais

tossico, la stessa proteina bt, lo stesso costrutto, introdotta in un’altra varietà di mais oppure in soia

magari non ti va a interferire e non ti produce la tossina o l’antigene che ti dà lo shock anafilattico,

per cui 2 varietà trasformate = una è tossica e l’altra no, è per questo che si distinguono.

37

Una cosa che hanno fatto, sono andati a determinare la sensibilità, sono andati a mischiare in

percentuali variabili i semi peso/peso i semi gmo con semi non gmo, hanno fatto la farina e sono

andati a vedere fin dove riescono a quantificare rispetto gli standard a parità di evento e a parità di

matrice, quindi la sensibilità ancora una volta di queste strip dipende dal tipo da matrice a parità di

evento semi e foglie, in genere per la foglia siamo intorno all’1%, per i semi 0.5%, quindi siamo

prossimi ai valori della soglia. Un’altra cosa che sono andati a identificare era se queste stri

funzionavano bene quando le matrici venivano trattate in qualche modo, nel caso le avessi

sottoposte a trattamenti di tipo chimico con trattamenti con proteasi, e poi sono andati a vedere se

c’era un effetto di matrice cioè quale era a secondo delle matrici l’interferenza che potevo avere

nella detection dell’evento gmo con queste strip, in questa tabella è stata presa questa soia e questo

mais a livello di semi e a livello di foglie, poi hanno incubato a temperatura ambiente, a 55° e a 80°

e sono andati a vedere queste strip come potevano funzionare, si hanno dei + dove sono riusciti

nella detection dei – dove non sono riusciti, na non applicabile, e si deve quali tollerano il

trattamento termico, dopo gli 80° la maggior parte delle proteine nel seme non sono più

identificabili, le farine a 55° sono ancora in grado di identificare le proteine, sopra no, per le foglie è

un po’ più delicato, riesco a identificare a temperatura ambiente e alcune nel mais bt 11 anche a

temperatura ambiente non riesco a vederla, dopo di che siccome le foglie vengono utilizzate solo

per il test in campo non hanno saggiato il trattamento a 55° o a 80°, questo fa dire che determinate

proteine sono molto più robuste di altre, il che significa che questa linea (indicata nel lucido)

nonostante abbia a disposizione come targhet questo transgene io con le stri riesco a identificarle

solo se mi baso su una e non sull’altra almeno a livello delle foglie, uno dei trattamenti più comuni

è il trattamento con proteinasi cappa, come si vede le farine sottoposte a trattamenti industriali con

proteinasi cappa è impossibile rintracciare le proteine transgeniche, proteinasi cappa è abbastanza

specifica quindi se trattata con questo modo con le strip è impossibile fare analisi.

Poi si sono chiesti se uno dei fattori critici potesse essere l’autolisi cioè quando disgregare le

proteine, liberate anche delle proteasi che cominceranno ad agire, invece di saggiare hanno pensato

di saggiare dopo mezz’ora e hanno visto che dopo 30 minuti nelle foglie di soia e di mais sono

ancora evidenziabili, cioè le proteasi liberate consono sufficienti, nel caso invece di un’altra linea

dopo 5 minuti a temperatura ambiente non sono più evidenziabili, infatti loro suggeriscono di fare

l’estrazione per la detection di questa proteina a +4° perché rallenta l’attività della proteasi.

Ultima cosa è l’effetto matrice: si sono chiesti se era possibile rintracciare l’evento gmo quando

questa era inserita artificialmente in diverse matrici mimando un processo industriale, in questo

caso hanno preso 100 milligrammi di farina miscelata a 1 grammo o a 1 ml di matrice complessa, le

matrici complesse saggiate erano queste: keciap, verdure liofilizzate, pasta, latte concentrato,

38

biscotti e 3 mangimi, quindi hanno messo 100 grammi di farina transgenica in 1 grammo o 1 ml per

le sostanze liquide, hanno poi miscelato e hanno messo la stick e hanno visto che ancora una volta

questa proteina (indicata nel lucido) è estremamente robusta, la si può identificare in qualsiasi

matrice tranne la pasta, quest’altra proteina va un pochino peggio non lo vedi nel latte concentrato,

invece pessima è quest’altra e probabilmente c’è qualcosa che interferisce. *** ricordarsi come

funziona, quale è il limite di detection grosso modo, le caratteristiche che influenzano le

performance di una stri: effetto matrice, a parità di matrice l’evento, 2 linee di mais una può essere

riconosciuta e l’altra no e perché, tipi di controlli che possono essere fatti con le strip quindi

diluizioni , diluizione in matrice e saggio dell’effetto di trattamenti termici di tipo chimico.

L’ultima cosa riguarda le biglie magnetiche: praticamente il sandwich avviene in fase liquida, cioè

se ho una provettina in cui metto il primo anticorpo monoclinale, poi cimento con il mio staff e

quindi ci metto dentro l’antigene transgenico, poi attaccato all’anticorpo monoclonale ci sono delle

biglie magnetiche, se metto una calamita sul fondo attira il complesso monoclonale-antigene,

elimino il surnatante facendo qualche lavaggio e applico il secondo anticorpo e via via tutti gli altri

componenti del sandwich, questo ha il vantaggio di eliminare gli step di centrifugazione e di far

avvenire tutto il legame in fase liquida, il legame in fase solida la parte limitante, la cinetica di

legame è comunque + piccola, in fase liquida c’è più opportunità di legame perché non c’è il primo

anticorpo che mi condiziona la qnt di antigene che riesco a legare distribuito su una superficie

limitata, ma prendo tutta la superficie della soluzione, sono molto pratici anche per la purificazione

del dna, dell’rna, abbiamo dei reck sul cui fondo c’è una piastra magnetica.

Metodi di identificazione dei transgeni basati sul dna: cosa si cerca? Si cerca il costrutto, il costrutto

*** è una sequenza di dna chimerica, costruita usando diverse componenti da differenti sorgenti di

dna che è stata trasferita in una cellula, tipicamente il costrutto cosa comprende? Quindi cosa si va a

cercare all’interno del costrutto: il transgene, il gene di interesse, marker di selezione come il gene

gus che codifica per la beta glucoronidasi, poi le sequenze di controllo, promotore, terminatore,

eventuali enancer che sono sequenze a valle del gene che amplificano il segnale e le altre sequenze

che si utilizzano in genere sono introni che vengono posti all’interno dei costrutti per stabilizzarli.

Come si fanno le trasformazioni? Agrobacterium e metodo biolistico, quello che c’è scritto cioè

agrobacterium dicotiledoni e biolistico monocotiledoni non è vero anche perché in realtà

l’agrobacterium si mette anche nelle monocotiledoni perché l’hanno modificato.

Quello che ci interessa è che la cellula trasformata si verificano eventi rari di integrazione stabile e

casuale nel genoma, idealmente dovrebbe essere presente una singola copia anche se il + delle volte

questi costrutti si inseriscono a concatenare e questo si deve tenere conto perchè quando andiamo a

quantificare un transgene dobbiamo sapere se il gene è presente all’interno del genoma a singola

39

copia o sotto forma di concatenare; oppure a volte come succede nel bt 176 è proprio il costrutto ad

essere costituito a contenere al suo interno + regioni codificanti per la stessa proteina transgenica.

*** il numero di copie del genoma dipende: dal metodo che si utilizza: il biolistico permette

l’integrazione di più copie, l’agrobacterium una copia sola o un numero abbastanza basso di copie,

questo è fondamentale che questo inserimento, il costrutto all’interno del genoma va sotto nome di

evento, si parlerà di metodi evento specifici cioè identificano un particolare tipo di inserimento.

Il numero, l’orientamento nel genoma cioè se è stato inserito in senso anti senso oppure in direzione

opposta e la specifica localizzazione del concatenamero condiziona le strategie di individuazione e

quantificazione del costrutto, quindi numero, orientamento e dov’è, sostanzialmente questi

parametri ci permettono di distinguere un ogm dall’altro.

Normalmente dopo trasformazione viene fatta crescere in vitro la plantula sotto trattamento

ormonale, poi una volta ottenute le piante in età di fecondazione siccome quasi tutti questo tipo di

eventi sono in eterozigosi, in genere queste piante vengono incrociate per far si che i transgeni

vadano in omozigozi e si ottengono così le linee, una linea è un gruppo di individui che

condividono lo stesso progenitore, quindi una linea di gmo è caratterizzata da un singolo evento di

trasformazione, dal punto di vista genetico un gmo deve essere caratterizzato per costrutto (cosa c’è

dentro), per evento (dove è andato a inserirsi questo costrutto) e per la linea di appartenenza, posso

quindi ottenere a partire dalla stessa trasformazione diverse linee, questo è da tenere presente perché

dal punto di vista legislativo vengono identificati dei gmo secondo questi parametri.

I test di gmo a dna come quelli immunologici possono essere qlt o qnt, qualitativo c’è o non c’è, qnt

può essere assoluta e si determina il numero totale di copie, il più delle volte si quantifica in relativo

cioè si fanno quante copie del transgene sono presente all’interno del genoma. Purtroppo il

legislatore non essendo un tecnico ha posto i limiti di detection e di tracciabilità ed etichettatura dei

gmo espressi in peso percentuale, cioè peso di matrice gmo sulla matrice totale, spesso il passaggio

tra numero di copie per genoma a percentuale in peso non è poi così agevole, ci sono dei problemi.

La ricerca di un ogm procede secondo un metodo di definizione progressiva, prima tipologia di

indagine è quello di screening generico, abbiamo già visto che è rivolto all’identificazione del dna

che codifica per gli elementi regolatori sostanzialmente come promotori, terminatori, marcatori di

selezioni, quali sono però i limiti legati allo sceening? Lo sceening ti dà una risposta qualitativa e

l’impossibilità di qnt, di dire quanti ce ne è, immaginate che ci siano 2 copie del costrutto disposte

in tandem per sito di inserzione, se vado a calcolare il numero di copie rischio di sovrastimarle

perché ho concatenameli, poi incapacità di distinguere gli eventi autorizzati e non che portano le

stesse sequenze regolatrici: 2 mais che portano il promotore 35S uno autorizzato e uno no, se faccio

uno screening ho una risposta qlt ma non posso qnt correttamente perché potrebbero esserci quello

40

autorizzato e quello no mischiati insieme, poi non forniscono informazioni risolutive per

l’etichettatura quando si sospetta la presenza di + ingredienti gmo all’interno della stessa matrice, la

modalità di etichettatura riguardano gmo su stessa matrice wild tipe in percentuale, è chiaro che se

ho mais e soia e cerco 2 costrutti che hanno lo stesso terminatore vado a fare una quantificazione sul

terminatore e in realtà equivalgo i 2 gmo, quantifico contemporaneamente gmo mais e gmo soia, se

avessi tutti e 2 uno 0.4% e l’altro 0.4% quindi sostanzialmente sotto soglia perché la soglia sarebbe

0.5%, se vado a qnt con terminatore comune mais e soia che c’è in entrambi i costrutti io leggo una

qnt 0.8, la somma dei 2 e io andrei ad etichettare quando in realtà non dovrei farlo perché mais

transgenico su mais wild tipe è 0.4% e lo stesso per la soia, poi c’è un altro problema che è legato

alle varianti dei terminatori cioè posso avere dei falsi positivi che posso andare a qnt una

determinata matrice utilizzando come targhet una sequenza P35S, ma la sequenza P35S adesso ce

ne sono per la costruzione di costrutti per gli ogm circa 8/10 varianti, conseguentemente se ne vado

a cercare 1 me ne scappano gli altri 7 e se ci sono all’interno della stessa matrice 2 ogm che usano

varianti diverse io faccio una qnt unica di uno e non dell’altro, quindi sostanzialmente gli screening

mi danno una risposta di tipo qlt, ma non qnt, un altro problema abbastanza importante è

l’eventualità che queste sequenze regolatrici siano presenti anche come contaminanti naturali, ci

possono essere dei virus che hanno dei promotori simili al 35S e che possono dare un falso +,

oppure un altro batterio che non è quello legato al vettore di trasformazione che mi può dare una

positività, però in genere il virus appartenenti ala famiglia dei cab sono legati alla brassicaceae, non

si trovano in altri ospiti vegetali e poi sequenze terminatore dell’agrobacterium non sono poi così

comuni in natura perché molti di questi agrobacterium in realtà non la posseggono; tuttavia per la

flessibilità e i ridotti costi il legislatore ha posto lo screening generico alla base della procedura di

analisi di ogm, prima di andare a cercare quanto ce ne è, è meglio vedere se ce ne è, poi un’altra

cosa lo screening diventa fondamentale quando andremo a verificare se nella nostra matrice sono

presenti degli ogm non autorizzati i cui elementi sono in realtà sconosciuti.

Tratti specifici: abbiamo visto lo screenenig generici, le analisi di tipo tratto specifico individuano

la caratteristica della linea gmo e in genere sono riferiti all’amplificazione, all’identificazione della

sequenza che codifica per il transgene, equivalgono un po’ ai tratti specifici che abbiamo visto nei

metodi immunologici solo che i metodi immunologici cercano la proteina, i metodi a dna tratto

specifici cercano la sequenza nucleotidica che codifica per quella proteina, anche in questo caso non

permettono di distinguere gmo autorizzati da quelli non autorizzati che portano lo stesso tratto.

Poi costrutto-specifici: sono i test del dna disegnati per individuare sequenze così come sono state

assemblate nel costrutto, cioè vanno a rilevare le sequenze di giunzione tra i vari elementi del

costrutto cioè tra promotore e parte codificante, tra il terminatore e parte codificante, sono

41

relativamente specifici in termini di possibilità di identificare con certezza la presenza dell’ogm

perché è chiaro che questi elementi in natura si trovano in fila in organismo geneticamente molto

distanti, è difficile trovare un promotore virale con una sequenza bt uniti, da quel punto di vista lì se

la ricerca dei soli elementi regolatori tipo promotori, terminatore poteva dare dei falsi + perché in

natura potevano essere presenti, nel caso dei metodi costrutto-specifici invece da quel punto di vista

lì siamo abbastanza al sicuro proprio perché è difficile trovarli in natura copiati, poi abbiamo gli

eventi di sceening del tipo evento specifici e sono i test che sono disegnati per identificare sequenze

di giunzione tra il costrutto e il genoma e questi sono quelli che vengono normalmente usati per la

qnt relativa, come si fa a ricavare le giunzioni costrutto e genoma tramite pcr inversa o ancor pcr,

pcr inversa: si immagini di avere un gmo e avere a disposizione solo la sequenza del suo transgene,

quindi di poter fare uno screening di tipo costrutto-specifico e lo si trova + senza avere nessun altra

informazione, come è possibile verificare se questo è autorizzato o no? Si deve andare a identificare

l’evento, cioè trovare bt positivo, fare una pcr, bt positivo e non ho nessuna altra informazione, si va

in campo, poi dico che c’è però è autorizzato o no? Per sapere se è autorizzato o no si deve andare a

vedere che tipo di evento è, dove si è integrato, come si fa? Ho il mio costrutto, ho fatto una pcr

evento specifico e mi viene +, mi si amplifica un pezzo di 200 paia di basi come quello atteso,

andiamo a sequenziare e vediamo che corrisponde a un bt, però è un bt autorizzato o no? Devo

andare a vedere la sequenza di giunzione tra il costrutto e il genoma perché questo definisce

l’evento e l’autorizzazione viene data evento specifica, per ricavare la sequenza faccio una pcr

inversa, nella pcr inversa si fa un southern blot, ho estratto correttamente il dna, prendo il dna e lo

digerisco con degli enzimi di restrizione a caso, più o meno a distanza media che la pcr può

amplificare è 1.000 basi con le taq normali, quindi io ho il mo southern blot con il dna digerito con

tanti enzimi tipo ecor1, ind3 e foq1, poi ho un lad, una smiratina perché ovviamente questi enzimi

vanno a tagliare a caso quindi avremo frammenti di diversa dimensione, poi ho un marcatore

molecolare e mettiamo che il lad corrispondente a 1.000 paia di basi perché l’efficienza media di un

processo di amplificazione siamo intorno elle 1.000 paia di basi, vado a tagliare da gel questa

smiratina, purifico il mio dna, poi avrò tutta una serie di frammenti che mi finiscono con l’estremità

foq, questo dna lo diluisco in maniera opportuna e lo sottopongo a legazione, quindi questi

frammenti tenderanno a richiudersi tra loro, diluendoli molto saranno facilitati a richiudersi

piuttosto che a formare dei concatenameri, immaginiamo di avere 2 siti foq circa distanti 1.000 paia

di basi perché la distanza l’ho decisa io, prendo un primer disegnato in un senso e un primer

disegnato sull’altro, amplifico e a questo punto posso andare a vedere il mio amplificato che mi

contiene i punti di giunzione del mio costrutto, come faccio a saper che il mio costrutto è dentro a

1.000 paia di basi? Semplicemente, quando ho digerito con eco, ind e foq faccio la digestione,

42

trasferisco su filtro, uso una sonda e se mi viene fuori un segnale + per foq 1 a questa distanza io so

che 2 siti foq comprendono a una distanza di circa 1.000 paia di basi il mio costrutto, quindi questo

è uno dei metodi per andare a sequenziare il punto di giunzione tra il mio costrutto e il genoma, una

volta sequenziati ovviamente per quelli autorizzati la sequenza dell’evento c’è, quindi la sequenza

di giunzione è stata pubblicata, vado a confrontarla e so se quel risultato viene da un evento

autorizzato oppure no. L’ancor pcr è una cosa del tipo leggermente diversa, comunque ce ne sono

tante. Questo tipo di screening evento specifico che in teoria dovrebbero identificare l’evento quindi

avrò un primer sul genoma e l’altro primer sul costrutto non ci risolvono anche in cosa di

quantificazione tutti i problemi perché c’è il problema dello staked genes: immaginate cioè di dover

distinguere 2 ogm: un ogm che in realtà è l’irido tra 2 gmo erbicida tollerante e magari bt e la stessa

matrice che deriva invece dalla miscela equivalente di questo e di questo singolarmente, anche se si

lavora sull’evento specifico non si è in grado di determinare, cioè distinguere l’ibrido da una

miscela equivalente dei 2 parentali, io riesco a quantificarli, ma non a distinguerli e questo è uno dei

+ grossi problemi che abbiamo in Europa perché se all’inizio la maggior parte dei gmo erano a

evento unico, adesso molti dei gmo sotto autorizzazione sono degli ibridi che portano caratteristiche

diverse, gli stati uniti che sono pragmatici hanno risolto il problema: se io autorizzo i 2 parentali,

automaticamente autorizzo anche l’ibrido, quindi non si pone + il problema di distinguere l’ibrido

da una miscela equivalente di entrambi i tipi parentali. In Europa che siamo meno bisness man

invece ci sono 2 procedure di autorizzazione distinte: cioè se io autorizzo questo e questo non

autorizzo contemporaneamente anche l’ibrido, l’ibrido dovrà essere sottoposto a una procedura di

autorizzazione separata, il che significa che spesse volte in Europa è autorizzato questo e questo e

non l’ibrido quindi in fase di quantificazione non sono in grado di distinguere i 2 casi, se un

americano mi manda una partita di grano ibrido io non sono in grado di dirgli se quella partita posso

accettarla oppure no, perché non sono in grado di distinguere se questo grano è metà di questo o la

metà di questo oppure se è effettivamente l’ibrido. *** quali metodi di screening conosci? Evento

specifico, allora se ti viene una partita di matrice etc. e l’evento specifici ti viene positivo e questo è

autorizzato tu lo autorizzi? Anche se è autorizzato non sono sicuro che la cosa sia corretta, non c’è

modo di risolvere questo tipo di problema, ci sarebe ma è piuttosto lungo, dal punto di vista

routinario diventa un casino, quindi l’evento specifico pur essendo estremamente specifico quindi in

grado di identificare autorizzati e non al contrario del costrutto specifico, al contrario di quelli di

screening generici non risolve tutti i problemi, in particolare non risolve il problema per

l’autorizzazione degli ibridi. Tra tutti i test ce ne sarà poi uno particolare che è il test di

quantificazione dei geni di riferimento cioè dei geni house keeping, cioè quei geni che mi

permettono di identificare quante copie di genoma noi abbiamo all’interno della nostra matrice,

43

abbiamo detto che la qnt si basa sulla determinazione del numero di copie di transgene sul numero

di copie di genoma, allora numero di copie di transgene si identifica con tutti i metodi che abbiamo

visto, il numero di copie del genoma vengono qnt andando a vedere quanti geni house keeping ci

sono e poi lo vedremo nella real time, i geni di riferimento e questo è un altro grosso problema

perché uno deve sapere quante copie di gene di riferimento ci sono per genoma, se uno fa un gene

che è mono copia per genoma, quantifica quel gene e sa che avrà tante copie di genoma se è uno a

uno, però se ce ne sono 2 copie di genoma saranno mezzi.

In questa figurina ci sono tutti i tipi di targhet che noi abbiamo per l’analisi del gmo e per

l’identificazione del gmo, abbiamo visto lo screening, gli elementi regolatori, costrutti specifici,

eventi specifici tra il genoma della pianta e l’inserto + la determinazione di un gene indogeno, tutti

questi elementi ci servono per determinare il contenuto del gmo utilizzando dei metodi di

identificazione del dna.

Identificazione dei gmo non autorizzati, quale strategia: noi abbiamo dato per scontato che noi

andiamo a cercare qualcosa di noto, se immaginiamo di essere in un laboratorio e arriva un

campione e l’esempio più semplice è quello di andare a vedere ciò che è autorizzato in Italia e ciò

che è autorizzato in Europa, come si fa a reperire informazioni? Cioè arriva una partita di mais e

devo vedere se dentro a questo mais c’è qualche gmo, la cosa + semplice che devo fare è andare a

vedere sul data base, prendere tutti i metodi autorizzati, vedere quali metodi sono stati validato per

la loro autorizzazione, ordino i primer, faccio le pcr e faccio tutto, quindi per la ricerca di ciò che è

noto (autorizzato e non) in Italia, (in Europa è abbastanza facile perchè vado nelle banche dati) il

problema è quando devo andare a guardare ciò che è ignoto, non è che dentro alla banca dati

Europea ci sono tutti i metodi per tutti gli ogm etc. allora normalmente si usa un metodo di tipo

indiretto e si fonda sul cosiddetto approccio sottrattivi, cioè i campioni sono testanti con elementi

comunemente usati per il gmo, si vanno a fare delle analisi di screening cioè si vanno a cercare per

esempio a fare uno screening di tutti i promotori che normalmente si utilizzano per la costruzione di

transgeni, autorizzati e non. Poi si va a fare un test di amplificazione del tipo evento specifico,

immaginiamo di analizzare una partita di soia, si sa dalle banche dati che normalmente i costrutti

nella soia utilizzano quei tipi di promotori, i transgeni possono essere bt o tolleranti all’erbicida;

allora si va a fare il test evento specifico e poi si incrociano i dati, si può avere un caso in cui gli

eventi specifici risultano negativi, mentre quelli di screening risultano positivi, si va a fare una

amplificazione sul P35 e vi viene un risultato positivo, poi si prova a fare amplificazione su tutte le

sequenze bt conosciute e si vede che il bt viene negativo, però ovviamente il promotore viene

positivo ed è abbastanza probabile che ci sia qualcosa di nuovo, di non autorizzato. Oppure se viene

negativo e positivo il P35 e siamo nella brassicaceae e stiamo scrinando la canola che è la rapa

44

canadese di cui si estrae l’olio polinsaturo, l’olio della canola transgenica nel 90% dei prodotti

alimentari è presente perché è un olio abbastanza resistente ai trattamenti termici.

Quindi sto scrinando la canola transgenica e viene P35 positivo, i virus che possono contenere

questo P35 in genere sono diffusi tra le brassicaceae tipo rapa, quindi può darsi che se viene

positivo il P35 e negativa la ricerca di qualsiasi transgene prima di dire che c’è un transgene

sconosciuto è abbastanza probabile che vi sia una infezione naturale da parte di qualche virus, cosa

si fa in questo caso ***? Abbiamo già fatto uno screening sul P35 che è un elemento generico si va

a fare uno screening su qualche altro elemento generico come il terminatore per avere un doppio

controllo, sarà un falso positivo? Sarà un falso negativo oppure no? Se torna il terminatore positivo

c’è qualcosa che non va cioè probabilmente c’è un transgene che non sono in grado di riconoscere.

Un’altra cosa che si normalmente: immaginate di utilizzare uno screening positivo P35, noi

sappiamo che tutti i costrutti che utilizzano il P35 per quella determinata matrice autorizzati sono

utilizzati per guidare l’espressione che ne so del bt, se trovate positivo invece un transgene per la

resistenza all’erbicida è chiaro che c’è qualcosa che non va, probabilmente c’è un ogm non

autorizzato lì dentro, quindi si fanno questi controlli incrociati. Questo riportato sulla slide è un

esempio pratico in cui uno va a quantificare le copie del transgene, si va a quantificare prima il

promotore mettiamo di avere una miscela di mais monsanto 810, T25 e BT176 tutti questi tipi di

ogm contengono il 35S come promotore, è chiaro che se io vado a quantificare singolarmente i vari

eventi le somme delle copie gmo che ho trovato deve corrispondere alla somma, se la somma non

corrisponde vuol dire che ho un addetto in +. Quindi se quantifico il contenuto di gmo con P35S che

è contenuto in tutti questi tipi di ogm, poi vado a quantificare il contenuto dell’ogm con un eventi

specifico, quindi una cosa che mi identifica solo queste copie qua del primo, poi del secondo e poi

del terzo, la loro differenza deve essere = a zero. Quindi si utilizzano metodi generici some il P35S

per avere una somma di tutti i gmo in teoria presenti, poi si va a vedere quelli autorizzati, se la

somma delle loro copie non equivale a quella del P35S c’è qualcosa in +, tu sai che mais monsanto

810, T25 e BT176 sono quelli autorizzati, devono esserci solo quelli.

Questo era il metodo di tipo indiretto, sottrattivi, il metodo di tipo diretto si fa proprio nei casi

disperati in cui c’è una invasione nel marcato da qualche partita che non si sa bene che cosa sia,

ogni tanto capita ed è basato sul finger printer, in altre parole si fanno i rapid o gli rflp, gli rflp sono

basati sugli enzimi di restrizione per come tagliano il dna genomico e danno in genere un numero

ridotto di bande, invece i rapid prevedono l’uso della pcr in cui si amplificano con dei primer molto

corti che vanno ad amplificare in tutto il dna, poi si fa una elettroforesi e si inquadrano i

polimorfismi, i rapid non sono dominanti. Nel caso dei rapid o aflp per l’identificazione nel

transgene, gli aflp: noi dobbiamo avere un finger print che identifica una linea piuttosto che

45

un’altra, è il metodo indiretto, allora abbiamo il genoma lo digeriamo con 2 enzimi di restrizione

che tagliano in maniera mediamente frequente, diciamo che danno dei pezzi intorno tra le 500 e le

2.000 paia di basi, a questo punto tutt’ora che si è frammentato andiamo a legare alle estremità degli

adattatori che hanno sequenze compatibili con i siti di restrizione, a questo punto si fa un primo

round di pcr che utilizza primer che si appoggiano sulla sequenza di giunzione tra adattatore e sito

di restrizione, poi si amplifica, avremo molte ma molte bande che spesse volte non è possibile

risolvere su gel neanche di acrilammide che ha un grosso potere di risoluzione, per ridurree il

numero di bande si fa una riamplificazione usando dei primer che hanno una estremità al 3’ che con

una data sequenza che decido io di 2 o 3 nucleotidi casuali in modo tale che di tutte queste bande si

riamplificano solo quelle che hanno questi nucleotidi che ho scelto, quindi riduco il pattern di bande

in modo tale da poter risolvere su gel di acrilammide e contare le bande e avere un finger print,

allora nel caso degli aflp applicati all’analisi degli ogm, uno di questi primer qua si appoggia in

genere sul costrutto in modo tale da avere un finger print legato a tutto ciò che circonda il costrutto,

se faccio un finger print normale, casuale di questo tipo non si riesce a distinguere l’ogm dal non

ogm o ogm autorizzato dal ogm non autorizzato semplicemente perchè questa tecnica si basa

sull’intero genoma, quello che differenzia un ogm da un altro è solo una piccola parte del genoma e

noi non riusciamo a discriminarlo nel ladre di bande, sono 2 cose estremamente simile che si

differenziano solo per un punto di inserzione, è abbastanza improbabile che ci riesca a individuare

per pura fortuna la banda che differenzia il gmo dal non gmo, ma se uno di questi primer lo

appoggio sul costrutto tutto il resto del finger print riguarda le regioni che stanno attorno al costrutto

e questa è una cosa che si fa normalmente in modo tale che uno abbia un finger print specifico per

quel gmo, se io tramite P35S trovo la presenza di gmo tramite l’evento specifico so che riesco a

riconoscere se è autorizzato o meno, però voglio essere sicuro che sia qualcosa di diverso faccio un

finger print di questo tipo evidenziando se è autorizzato oppure no, attenzione in alcuni casi come

negli ibridi può essere utile, perché è chiaro che se faccio un finger print sull’ibrido avrò un

determinato finger print, se faccio un aflp sulla miscela dei 2 parentali avrò un altro finger print

perché l’ibrido contiene una parte dei 2 parentali non la somma e questo è uno dei metodi che viene

normalmente usato.

Come posso risolvere il problema dello stekked genes ***? Distinguere ibridi dalla miscela dei 2

parentali aflp e come si fa l’aflp, principio generale e come lo si adatta in modo che si va ad

analizzare solo l’intorno del costrutto. Come si è visto, la possibilità di sviluppare un test

diagnostico dipende dalla conoscenza delle caratteristiche del costrutto perché fino adesso abbiamo

definito tutti i metodi di amplificazione che si basano su vari elementi del costrutto, ma un metodo

di identificazione dipende anche dalla composizione della matrice, dalla presenza di inibitore

46

all’interno della matrice, dall’efficienza del metodo di estrazione e dal grado di lavorazione del

prodotto, della matrice stessa, inoltre più è basso il contenuto di dna genomico originale o

comunque quello residuo dopo il processo di lavorazione della matrice, più elevato sarà la

determinazione della sua qnt e questo è ovvio, quindi lo sviluppo di test per l’analisi degli ogm è

determinato da 3 fattori chiave che riguardano il dna e sono la qnt, la qlt e la purezza.

La qnt, meno ce ne è e più è difficile quantificarlo, come faccio a verificare la qnt del dna ***? Mi

hanno detto che prima di mettere a punto il metodo bisogna che sia sicuro che nel dna ci sia qnt, qlt

e purezza sufficiente, la qnt del dna come si misura? (la concentrazione) abbiamo l’informazione

sul costrutto come prima cosa dobbiamo amplificare il dna, si deve estrarre, il dna deve essere qlt e

qnt con una elevata purezza. Allo qnt come faccio a verificarla? Con lo spettrofotometro, si misura

quello che è l’assorbimento a 260 e a 280 nanometri, rapporto 260/280 che deve essere tra 1.7 e 2,

quindi uno dei metodi è l’assorbimento allo spettrofotometro, se tu leggi 0.5 di assorbimento quale

è il coefficiente che ti permette di passare dagli od alla concentrazione? …….

La qualità del dna come si misura? Abbiamo fatto una misura allo spettrofotometro, buon

assorbimento, per sapere se è intero oppure degradato come faccio? Elettroforesi, se vedo una

smirata vuol dire che è di scarsa qualità, se vedo un piedino vuol dire che c’è un segnale abbastanza

compatto, il peso molecolare è intorno ai 20.000kdalton allora significa che è intero, quindi

l’elettroforesi su gel è un controllo di qualità, poi la purezza: cosa si intende per purezza? Che non

ci siano altre proteine, quindi si vede il rapporto tra i 2 valori di lettura allo spettrofotometro

260/280, se è maggiore di 1.7 e intorno a 2 vuol dire che è buono, se il rapporto è molto basso

significa che c’è un assorbimento a 280 nanometri, allora come mai se c’è una contaminazione da

proteina c’è un alto assorbimento a 280? Innanzitutto come mai a 260 vado a quantificare

correttamente il dna? Che assorbe a 260 nel dna ci sono gli anelli aromatici, a 280 invece cosa

assorbe? Perché dico che se l’assorbimento è elevato a 280 ho una contaminazione da proteine?

Cosa c’è nelle proteine che assorbe a 280? Sempre un anello aromatico, gli anelli aromatici portati

dal triptofano, della fenilalanina, gli anelli aromatici come mai assorbono a 260, 280 comunque a

questa lunghezza d’onda? Perché gli armatici hanno un sistema delocalizzato di elettroni, gli

elettroni sono mobili da un punto di vista energetico il che significa che sono in grado di assorbire

una determinata lunghezza d’onda che in genere sono intorno ai 260,280 loro si eccitano, ma

assorbono parte di queste lunghezza d’onda e proprio perché sono localizzati possono aumentare la

loro energia abbastanza facilmente; se c’è contaminazione da rna? L’rna assorbe sempre a 260

come il dna, lo vedo provando a trattare con rnasi, l’altro lo si fa quando si fa la valutazione della

qualità, l’rna in genere si vede come smiratina a basso peso molecolare, mentre il dna intero lo vedo

sopra circa sulle 20 kilo basi, l’rna lo vedo come un pattone fluorescente se uso l’etidio bromuro o

47

qualsiasi altro colorante intercalante in fondo, se c’è quel pattone lì è rna quindi questo controllo

qualitativo mi dà anche un grado di contaminazione da rna. Un altro possibile contaminante, lo

vedremo comunque nei metodi di estrazione, si estrae con fenolo cloroformio, il fenolo assorbe a

260, come mai? Ha un anello aromatico, come faccio a distinguere l’assorbimento da dna da quello

di fenolo? Vado a leggere a 320, 320 assorbe solo l’anello aromatico del fenolo, ma non quello del

dna o rna. Quindi prima ancora di iniziare la nostra procedura dobbiamo controllare qnt, qlt e

purezza nei modi che abbiamo detto e poi dobbiamo settare un metodo che sia sensibile cioè che sia

in grado di determinare la minima qnt possibile e sia specifico cioè che in qualche modo vada ad

amplificare sola la sequenza che vogliamo andare ad identificare e in questo caso che caratterizza il

gmo. Questi 2 obiettivi cioè la possibilità di settare metodi sensibili e specifici ci viene consentita

da drastiche caratteristiche del dna che è una molecola relativamente stabile a doppia elica e

soprattutto dà la possibilità di amplificare il nostro segnale tramite pcr, quindi aumentare il numero

di copie di transgene ancora prima di andare a verificare quante ce ne sono.

Metodi immunologici contro il dna: il vantaggio dei metodi a dna l’abbiamo visto è la stabilità, il

che consente di lavorare con una certa sensibilità anche su matrici processate mentre proteine basta

il calore o un trattamento chimico-fisico minimo che si denaturano, essendo i metodi immunologici

basati sul riconoscimento dell’anticorpo con la proteina tutto decade, ritornando abbiamo la

possibilità di aumentare il numero di copie di campione da analizzare cioè l’amplificabilità e quindi

ne aumentiamo la sensibilità, se ricordate nei metodi immunologici l’unica amplificazione possibile

era durante la fase di detection, il sistema a sandwich mettiamo di avere un solo antigene quindi una

sola proteina transgenica avevamo il primo anticorpo, poi un secondo anticorpo magari a cui si

potevano legare al primario 2 e poi avere un raddoppio del segnale e poi successivamente tutta la

cascata, quindi qua potevamo avere un aumento di sensibilità solo in fase di detection perché a

parità di un antigene qui amplifichiamo il segnale, nel caso della pcr invece andiamo ad amplificare

ancora prima il numero di copie quindi ad aumentare la sensibilità, mentre i metodi immunologici

consentono di amplificare il segnale solo in fase di detection quelli del dna Anche in fase di

rilevazione, poi la possibilità di analizzare un alto numero di campione cioè un elevata processività,

nei metodi immunologici anche un Elisa sono piastre da 96, oggi giorno si fanno pcr con piastre da

384, si paga un prezzo, richiede personale specializzato, sono test di laboratorio e non possono

essere formulari on site, lateral strip per il dna da scordare anche se in realtà c’è qualcosa di simile,

richiede una maggiore processazione del campione, avevamo visto che i metodi Elisa si basavano

sulla semplice estrazione su mezzo acquoso tipo le lateral flow strip, estrarre il dna è un pochino più

difficile, sono maggiormente espressa all’effetto matrice perché basandosi su un processo di

amplificazione enzimatica e non solo sull’identificazione fra antigene anticorpo l’effetto matrice

48

quindi la presenza di inibitori è un pochino + critica nel dna rispetto alle proteine, sicuramente molti

possono sottovalutare questo aspetto, una delle fasi limitanti dello sviluppo di test specifici per la

detection dei gmo sul dna è proprio la fase di estrazione, la fase di estrazione è quella che

condiziona il’80/90% delle volte la robustezza del test, innanzitutto essendo un test che deve essere

applicato routinario deve avere una tempistica relativamente veloce, ci sono dei processi di

estrazione che durano 2 gg, sarebbe impensabile deve essere nell’ordine delle ore massimo, quindi

abbiamo già visto che è difficile estrarre il dna però non solo dobbiamo estrarlo decente, ma anche

senza inibitori, intero, ma anche estrarlo rapidamente, per le proteine è possibile per il dna c’è un

qualche problema in +, deve avere una buona efficienza di recupero dal dna della matrice, se

dobbiamo quantificarlo è necessario recuperarlo tutto dalla matrice altrimenti lo sottostimo, deve

essere intero e significa dal punto di vista pratico che la lunghezza dei frammenti dovrebbe essere

compresa intorno a 100/400 paia di basi, quindi quando vado a fare il controllo di qlt del mio dna

estratto idealmente dovrei avere il piedone da 20 kb, in realtà quando vado ad estrarre da matrici

complesse il più delle volte ho una smirata di diversa intensità di colorazione con coloranti

intercalanti fluorescenti tipo etidio bromuro o saiber green , il + delle volte otterò una smirata e il

tratto della smirata meglio rappresentata come dimensione sarà quello + intenso, bisognerebe

almeno che questo fattore + intenso sia intorno elle 100/400 paia di basi, se è maggiore tanto

meglio. La purezza del dna è influenzata dalla presenza di contaminanti soprattutto in ambiente

alimentare sono i polisaccaridi, lipidi e polifenoli che sono terribili perché sono forti inibitori della

taq polimerasi e in + devono essere puliti dai vari agenti e detergenti che noi utilizziamo nella fase

di estrazione, quindi la purezza intesa sia come contaminante da matrice, ma anche contaminanti da

reagenti di estrazione. Possiamo avere degli ottimi sistemi di estrazione che qualitativamente ti

danno un dna molto buono, ma ti lasciano del contaminante in termini di detergenti che non ti

permettono di amplificare. Esiste un vasto numero di protocolli, ma il set base sono

l’omogenizzazione del campione e la rottura della parete, distruzione delle membrane cellulari e per

fare questo generalmente si utilizzano dei detergenti tipo SDS, si utilizzano anche delle cellulasi nel

caso di materiale vegetale, agenti chelanti EDTA e tamponi fosfati, proteinasi K per distruggere la

matrice proteica e riuscire ad estrarre meglio il dna, spesso purtroppo questi passaggi prevedono

trattamenti termici da 50/60° quindi il dna potrebbe si essere estratto, ma potrebbe anche essere

degradato termicamente quindi c’è sempre un certo compromesso (in genere fino a 50/55° non si

hanno problemi, comunque dipende dalla matrice, la proteinasi K ha una temperatura ottimale

intorno ai 50° perché ha origine batterica, fa parte dei batteri termofili).

Separazione dagli inibitori sfruttando la diversa solubilità del dna rispetto a polisaccaridi e lo

vedremo, separazione dei costituenti idrofobici: lipidi e polifenoli e in genere si fa tramite solventi

49

organici e poi alla fine si recupera una fase acquosa da cui bisogna concentrare tramite

precipitazione il dna quindi si aggiungeranno in genere sali e acetato di potassio e solventi organici

tipo l’etanolo, questi sono gli step base, normalmente alcuni protocolli + di routin per renderli +

veloci invece di usare l’estrazione con fenolo cloroformio prevedono il passaggio attraverso delle

colonnine di silice e per cromatografia di affinità trattengono solo il dna e fanno passare tutto il

resto, quindi una volta omogeneizzato il tessuto e trattato con proteinasi K si fa passare il lisato in

colonnine che intrattengono il dna, una serie di lavaggi etc. etc. una normale cromatografia di

affinità esistono varie colonnine, queste 2 colonnine sono state introdotte in metodi validati dal

punto di vista legale, normalmente i protocolli + efficaci prevedono in realtà la combinazione sia

del CTAB quindi l’uso di detergenti che di colonnine, poi vedremo anche come si estrae il dna.

Siccome il CTAB viene incluso nel 90% dei protocolli di estrazione del dna, il CTAB è un

detergente cationico che ha la caratteristica di precipitare in maniera differenziale acidi nucleici,

proteine, polisaccaridi a seconda della forza ionica cioè delle concentrazioni saline presenti nella

soluzione, a questa forza ionica con una concentrazione di NaCl di 0.2 nel tampone di lisi il CTAB

forma dei complessi con proteine e polisaccaridi, ma non precipita gli acidi nucleici, questi

complessi CTAB, polisaccaridi o proteine vengono poi estratti con fenolo cloroformio che

rimuovono anche i lipidi e parte dei polifenoli, estrazione fenolo cloroformio è la mini prep,

separazione delle 2 fasi, soluzione acquosa etc. quindi il dna genomico recuperato dalla fase

acquosa può essere purificato tramite precipitazione con isopropanolo o etanolo e PEG che è il

polietilenglicol che è un alcol che complessa il dna, poi lo si centrifuga e lo si tira giù per forza di

gravità, oppure ancora dopo questo passaggio in CTAB si passa attraverso cromatografia di affinità

con su colonnine impaccate con gel di silice le colonnine commerciali. Una sola cosa: soprattutto

nelle matrici alimentari è importante eliminare tutti i polisaccaridi quindi fare questo passaggio in

CTAB ecco perché viene normalmente usato per l’estrazione del dna dagli alimenti perché

altrimenti i polisaccaridi si legano alla matrice di silice e il dna se passa attraverso non trattiene

niente e non purifichiamo niente, vedremo sempre nei protocolli di estrazione CTAB e poi

passaggio in colonnine per questo motivi: CTAB tolgono i polisaccaridi, la colonnina purifica il

dna. Ci sono altri metodi che utilizzano altri tamponi tipo il ROSE che è molto utilizzato e

comprende EDTA, tris, SDS, PVP polivinilpiruvidone che serve a complessate i polifenoli lo

vedremo è abbastanza comune, in genere danno rese buone, ma purezza abbastanza scarse per cui

uno va a leggere a 260 e a 280 vede un buon rapporto, va a fare una elettroforesi vede un bel

bandone a elevato peso molecolare il che significa che è integro però provando ad amplificare non

viene nulla. 50

Vediamo i metodi qualitativi e quelli semi quantitativi, iniziamo dai metodi qualitativi: i metodi qlt

possono essere divisi in base al numero di campioni che si possono processare per unità di tempo,

abbiamo il southern blot in cui possiamo saggiare la presenza dei gmo ed è un metodo qlt, possiamo

processare con un southern blot un vasto numero di campioni, con la pcr invece il numero di

campioni è medio dal centinaio in su, oggi giorno l’elevato trou put viene fornito dai micro array.

Southern blot: come funziona c’è scritto sulle slide, quello che ci serve conoscere sono i limiti ***:

è un metodo abbastanza laborioso necessita in media almeno un giorno, un paio di giorni, si può

utilizzare in media una sonda per volta almeno nel southern blot classico per identificare i transgeni,

in genere può essere meno sensibile rispetto agli altri 2 metodi basati sulla pcr perché sono privi di

step di amplificazione, richiede una qnt di dna e una qlt adeguata, la qualità necessaria per avere

una pcr positiva per geni a singola copia siamo nell’ordine dei nanometri dai 5 ai 100 nano grammi

sono + che sufficienti, per un southern blot siamo nell’ordine dei micro grammi quindi mille volte

in + e questo non può essere un limite quando si lavora su matrici non lavorate come ad esempio su

foglie o semi, ma quando si lavora su matrici complesse la qnt di dna che si riesce ad estrarre può

essere limitante. Southern blot può essere anche usato come controllo delle qlt dal dna, mentre

l’elettroforesi per il controllo qlt su gel è consentito con qnt industriali di dna, qnt sopra i 250 nano

grammi, sotto non si riesce + a vedere, mentre con il southern blot si come qnt di dna specifico,

recentemente sono stati introdotti sistemi di chemio luminescenza, non si usano + solo sonde radio

attive, sono stati introdotti sistemi in chemio luminescenza che consentono una buona sensibilità,

ma soprattutto tempi di rilevazione piuttosto brevi, anche nel giro di mezz’ora mentre con i metodi

radio attivi richiedevano minimo un’ora e a volte se la qnt era molto bassa anche over night e questo

incide sulla processività. Oggi giorno sono state introdotte anche delle sonde fluorescenti oltre ai

sistemi di chemio luminescenza. Questo è il southern blot tradizionale, oggi giorno si tende a

migliorare quello che è il fattore limitante del southern blot in termini di detection, stiamo sempre

parlando di mediti qlt, si tende a utilizzare il southern blot cercando di sopperire al suo + grosso

limite che è la mancanza di amplificazione del segnale quindi la bassa sensibilità e viene ottenuta

tramite 2 metodi che vanno sotto il nome di amplificazione isotermica del segnale, sono abbastanza

usati soprattutto nei kit a strip, a membrana dove si estrae il dna dalla matrice spesse volte non

complessa, spottate il dna sulla membranina e poi applicate la sonda specifica per il gmo che si

vuole cercare, normalmente il southern blot non consentirebbe di andare oltre una certa soglia, oggi

giorno con questi 2 sistemi di amplificazione del segnale il southern blot è stato un proprio modo di

valutare, uno di questi è il TSA (‘’targhet’’ signal amplification) che è relativamente semplice, voi

avete il vostro targhet di dna, si usa una sonda biotenilata, uno strech di dna a singolo filamento che

riconosce il targhet di dna, questa sonda è marcata con biotina perché magari è stata ottenuta per pcr

51

incorporata con dei nucleotidi da cui era stato inserito la biotina, quindi si cimenta l’etidio con

questa sonda, cimentate con streptavidina che riconosce la biotina, solito sistema, la streptavidina a

sua volta è coniugata a un enzima che in questo caso è la perossidasi, la perossidasi degrada un

substrato che degrada un substrato che si chiama tirammide, danno un prodotto insolubile colorato;

si può immaginare che per una determinata sonda in realtà avrò + legami con streptavidina, quindi

aumento la sensibilità del medito perché non ho + come succede nella rilevazione di tipo radio

attivo una sonda e un targhet, qui io ho una sonda e un targhet ma una sonda a sua volta viene

riconosciuta da diversi nucleo di streptavidina, un altro medito relativamente simile che prevede una

amplificazione del segnale in sauthern blot è quello che viene nominato come erreplication signal

amplification method, si sono inventati una particolarità, si sono inventati una sonda di tipo

circolare anziché lineare, quindi un prodotto a singolo filamento che da una parte riconosce una

molecola targhet e dall’altra avrà una sequenza che decidiamo noi che a sua volta incorpora dei

nucleotidi con qualsiasi ligando che può essere la stessa biotina, a questo punto viene applicato un

substrato che riconosce questo ligando che può essere la streptavidina o l’avidina, streptavidina-

avidina hanno almeno a seconda di come sono fatte 2 siti di legame, uno che riconosce la biotina

incorporata nella sonda e l’altra porzione è libera per riconoscere una seconda sonda arbitraria che è

biotinilata, a questo punto come si vede nel grafico con evento a cascata ancora una volta per una

singola sonda posso avere l’amplificazione del segnale perché utilizzo una sonda universale,

intermedia che mi riconosce la prima, quindi questa darà un segnale più forte, da tener presente che

man mano amplifico il segnale posso amplificare il segnale di fondo che è presente, cioè alzo il

segnale specifico, ma anche il fondo, quindi solitamente questi sistemi di amplificazione vanno

bene quando riesco a disegnare una sonda estremamente specifica sulla mia sequenza targhet,

comunque è un metodo che è stato introdotto in alcune strip commerciali tipo lateral flor.

L’altro metodo qualitativo per eccellenza è la PCR, sappiamo che cosa è, il suo grosso punto di

forza è che richiede qnt di dna molto piccole, 10/20 nano grammi ed ha una elevata sensibilità di

media si dice che ha una capacità in teoria di rilevare frazioni percentuali in prodotti di gmo sul

totale di peso di quella matrice che si sta indagando, grosso limite *** : è soggetta molto di più

rispetto al sauther blot all’effetto di inibitori e a fenomeni di contaminazione avventizia, il prodotto

di prc essendo un prodotto di amplificazione enzimatica usando la taq polimerasi, la dna polimerasi

può essere inibita da diverse sostanze soprattutto in matrici alimentari da polifenoli, l’amido etc.

quindi rispetto al southern blot ‘effetto matrice può essere abbastanza pesante per la pcr e a

fenomeni di contaminazione avventizia cioè amplificando di gran lunga il segnale per

contaminazione avventizia (grosso problema soprattutto in real time) se ci sono delle

contaminazioni nei reagenti dati da un dna gmo, la pcr lo rileva automaticamente, è molto sensibili,

52

ma il prezzo che si deve pagare è che si deve pagare è che si deve lavorare molto bene perché dà

spesse volte dei falsi +, dal punto di vista tecnico questo può essere un problema perché quando si

fa una quantificazione in realtà si lavora sempre con delle curve standard, in parallelo si fanno

sempre degli standard, controlli +, standard per costruire curve di calibrazione, il che significa che

siamo immersi in dna +, con la pcr se non si lavora bene viene +, questi sostanzialmente sono i

punti di forza e debolezza, normalmente la pcr può essere utilizzata per l’analisi degli rflp come

avevamo visto, invece di identificare direttamente il gmo di identifica il pattern genomico

dell’organismo modificato geneticamente oppure un tempo si faceva un sauthern blot sul prodotto

di amplificazione, a volte seminandolo su gel non lo vedi la bandina amplificata allora si fa un

sauthern blot sul prodotto di pcr, si ibrida con una sonda che tu ti aspetti riconosca una porzione

interna al tuo prodotto di pcr, non lo vedi su etidio bromuro, ma lo vedi su sauthern blot, poi si può

utilizzare il sequenziamento diretto: in alcuni casi l’unico modo per distinguere soprattutto varianti

di gmo l’unica cosa da fare è amplificare la porzione e sequenziare e questo vale ad esempio per il

mais bt, esistono tante varianti bt, chi ha soldi a sufficienza per permettersi un servizio di

sequenziamento per risparmiare tempo magari usa dei primer universali che amplificano tutti i

transgeni bt, poi per andare a vedere quale è effettivamente presente perché magari una variante bt è

autorizzata e l’altra no semplicemente si sequenza, ovviamente i 2 primer devono riconoscere le

porzioni comuni a tutti i vari bt, quello che si fa normalmente è la PCR NESTED o nidificata, la pcr

nested è quella che viene di solito usata per la detection dei gmo, detection qualitativa,

classicamente si utilizzano 2 primer più esterni, spesse volte la prima pcr non dà luogo a un

prodotto di amplificazione visibile in etidio bromuro, non puoi svolgere il test qualitativo, c’è o non

c’è, ma magari c’è una piccola qnt di amplificato e si usano 2 primer + interni per fare una

riamplificazione di questo prodotto di pcr e in questo caso il segnale risulta visibile, si chiama

nested, nidificata perché prima si usano 2 primer + esterni e poi 2 primer + interni, il secondo round

di pcr mi tira su il segnale, qua nel lucido ci sono degli esempi: c’è un esempio di pcr nidificata, ci

sono diversi metodi: A-B-C etc. per la detection della soia round up ready, il metodo A cosa può

prevedere? una prima pcr che utilizza questi 2 primer per dare il prodotto di 447 paia di basi che

spesso non si devono su gel perché la qnt di soia ogm è troppo bassa, poi su questo prodotto di pcr

si fa una seconda nested con dei primer + interni che danno un prodotto di 169 paia di basi, questo

in genere è visibile e dà una risposta al test qlt, normalmente la pcr nested si usa per amplificare il

segnale non visibile con una sola reazione di amplificazione.

A volte si parla spesso di reazione di semi nested, sono reazioni in cui se le prima reazione è stata

fatta con questi 2 primer, la seconda reazione viene fatta tenendo sempre fisso un primer più esterno

e utilizzandone uno solo più interno, questo viene chiamata di semi nested, in assoluto la maggiore

53

sensibilità è la nested, il problema è che spesse volte non hai informazione sufficiente per

disegnarne 2 di primer e i primer costano allora per risparmiare se è sufficiente una semi nested con

una efficienza non = di riamplificazione rispetto alla nested però uno si accontenta.

Una potenzialità del test qlt per pcr sono le cosiddette multiplex, cioè la possibilità di amplificare

nella stessa reazione di pcr più varianti dello stesso transgene per far si che si riesca con una sola

pcr ad identificare più gmo che portano lo stesso costrutto, questo è un esempio fatto per il mais:

esistono varie varianti di mais che portano la tossina bt: bt11, bt25, bt176, monsanto810, alcuni di

questi sono autorizzati in Europa altre no, come funziona? Sostanzialmente si disegnano 2 primer,

in questo caso un primer si appoggia sul genoma del mais all’interno del costrutto gmo e quindi è

uno screening di tipo evento specifico perché riconosce là dove si è inserito il mio costrutto

all’interno del genoma, come si vede la dimensione del prodotto di pcr varia a seconda del tipo di

costrutto, nel bt11 è 171 paia di basi di lunghezza, nel bt25 è di 151, nel 176 è 104, se io amplifico

del dna estratto da una matrice dove sono presenti tutti e 3 questi mais transgenici io in teoria

otterrei 4 prodotti di pcr con la stessa copia di primer diversi di lunghezza: 171/151/104/90, poi

questi tizi hanno utilizzato in questa reazione multiplex la stessa copia di primer ma potenziali

targhet diversi a seconda del gmo presente, hanno anche una copia di primer che viene chiamata

ADH che è un aldeide deidrogenasi, enzima presente nel mais come in parecchi altri vegetali,

comunque hanno disegnato specifici primer e l’hanno utilizzato in contemporanea con questa

coppia di primer in modo da aver un controllo positivo interno alla reazione di multiplex di

amplificazione, amplificando cioè un gene di mais mi dice che il mio dna è sufficientemente buono

per essere amplificato, nel caso io avessi omesso questo tipo di controllo e avessi ottenuto una

reazione negativa cioè una mancata amplificazione su uno dei 4 presenti mi sarebbe sempre rimasto

il dubbio che fosse venuta negativa perché non ci sono nessuna di queste varianti di mais nella mia

farina, oppure non è venuto perché il dna che ho estratto non è che fosse di qlt eccelsa,

l’introduzione di questa coppia di primer che mi amplifica il dna di mais mi dice che il mio dna va

bene, quindi tutte le volte che questa risulta negativa questa deve sempre risultare positiva, quindi è

un controllo positivo, quale è la difficoltà di svolgere questa multiplex? L’ottimizzazione, queste

sono le reazioni di pcr in simplex, cioè a parità di dna amplifico utilizzando la stessa copia di primer

in separate provette da pcr ciascun transgene, bt11, bt176, bt25 e monsanto 810 + anche con questa

coppia di primer il mio gene di controllo adh presente nel genoma di mais e separatamente le bande

funzionano benissimo, quando le metto insieme ottengo questo risultato (indicato nel lucido) cioè

tenendo costante questi parametri di amplificazione cioè i fattori critici che condizionano una

reazione di pcr che sono: temperatura di estensione e temperatura di anniling, (temperatura iniziale

della pcr quando parte la reazione), ad esempio se mi viene una bandina molto piccola, *** su quali

54

parametri si agisce per ottimizzare la reazione di pcr? A parte le cose appena detta, potrebbe

anche essere scegliere dei primer + specifici, ma prima di ridisegnarli magari provo a variare la loro

concentrazione, può darsi benissimo che un primer abbia una temperatura di anniling molto diversa

dall’altro ad esempio 50 e 60, in questo caso si sbilanciano le concentrazioni, magari si setta a 55 e

per far si che questo funzioni si aumenta molto di più la concentrazione di uno rispetto l’altro,

quindi si lavora sulla specificità settando la temperatura leggermente + alta e si consente il processo

di amplificazione aumentando la concentrazione di quello che ha la temperatura + bassa di anniling,

un altro fattore chiave oltre alla concentrazione della taq è il magnesio che è un coenzima della taq

polimerasi quindi si varia la concentrazione di Mg, *** più o meno in che range, quando arriva un

prodotto di pcr il + delle volte c’è diviso il buffer dal Mg, ci sarà un protocollo standard, se questo

protocollo standard non funziona in che range lo variamo in concentrazioni molari? Si titola la

concentrazione di Mg fra 1.2 e 3 millimolare come concentrazione finale, *** il Mg come mai si

titola, quando si alza la concentrazione del Mg, aumenta o diminuisce la specificità della reazione di

pcr? La taq anche con 1 millimolare si attacca comunque, c’è una condizione saturante, in genere

aumentando la concentrazione del Mg si aumenta la stabilità del doppio ibrido tra primer e

sequenza targhet, quindi se si mantiene una temperatura di anniling molto elevata per far si che il

primer si attacchi oltre ad aumentare la sua concentrazione si aumenta la concentrazione di Mg

perché si stabilizza il doppio ibrido, ad esempio nell’esempio di prima in cui si usavano 2 primer

con temperatura sbilanciata si può aumentare la concentrazione e invece di lavorare a 1.5

millimolare si lavora a 3 millimolare, è chiaro che man mano si aumenta la concentrazione di Mg

aumenta il rischio di aspecificità, perché non è detto che con quelle condizioni lì si attacchi anche

da un’altra parte quindi sono parametri che vanno ottimizzati, poi il Mg si lega ai dntps, anzi gli

Mg+ si lega ai dntps che sono cariche negativamente, quindi man mano che si aumenta il Mg

contemporaneamente diminuiscono i dntps per la reazione di sintesi del filamento, quindi per

reazioni di pcr relativamente corte sotto le 2 kb si può anche andare a 3 millimolare senza cambiare

la concentrazione dei dntps che comunque visto il pezzettino molto piccolo di amplificazione anche

alzando il Mg quei pochi dntps che si tolgono non inficiamo l’efficienza, se però si amplificano dei

frammenti molto lunghi man mano si aumenta la concentrazione di MgCl2 proporzionalmente si

dovrebbero aumentare anche le concentrazioni di dntps, quindi tornando a noi queste sono le

reazioni simplex separate con condizioni standard, quando si mettono insieme succede che invece di

avere la sovrapposizione di questi 3 prodotti di amplificazione, c’è un risultato del genere: è

possibile distinguere + o – chiaramente solo il bt176 e l’adh mentre gli altri amplificati non

vengono, allora questi tizi per consentire la reazione (perché i primer vanno in competizione tra

loro) e per ottenere una perfetta sovrapposizione di questo profilo in un’unica reazione di pcr hanno

55

ottimizzato la reazione di pcr stessa cambiando la temperatura di anniling, la concentrazione dei

primer, Mg etc e hanno ottenuto un profilo in cui per ogni reazione di pcr è possibile distinguere

tutti i prodotti di pcr qualora siano presenti tutti e 4 i transgeni, in questo caso ne manca uno: il

bt11, non ce l’hanno fatta a includerlo nella reazione di multiplex, quindi una delle forze della

reazione di pcr nei test qlt è la possibilità di svolgere delle multiplex, che cosa sono, come si

ottimizzano e quale è il vantaggio cioè la possibilità di identificare con una unica coppia di primer +

gmo contemporaneamente e cosa serve introdurre un gene cosiddetto house keeping che serve da

controllo di amplificazione e che cosa è un gene house keeping: un gene che è presente nel genoma

dell’organismo ospite. Un altro metodo qualitativo oggi molto utilizzato è la cosiddetta elettrofoseri

capillare che è semplicemente un riutilizzo dei sequenziatori automatici, l’elettroforesi capillare è

una tecnica di separazione che può essere usata per determinare accuratamente le dimensioni dei

frammenti di dna o di pcr, consente in 2 camere elettrolitiche unite da un sottile capillare sottoposte

a un campo elettrico e permette la separazione di un range di prodotti di pcr di dimensioni tra 80 e

1.000 paia di basi in un tempo relativamente breve con una elevata risoluzione quindi una

differenza di una base è sufficiente per produrre 2 prodotti di pcr, i costrutti di mais che abbiamo

visto prima alcuni di quelli si differenziavano per 3-4 basi, in elettrofoseri capillare aumenta la

sensibilità rispetto all’elettroforesi normale, come vengono detectati? In uscita dalla colonna, si

tratta di una cromatografia ad esclusione basata il peso molecolare perché la colonna è piena di

acrilammide, tramite assorbimento agli UV, a volte si colorano i prodotti di pcr con dei coloranti

intercalanti fluorescenti, i prodotti di pcr prima di farli passare attraverso l’eletttroforesi capillare in

modo tale che c’è un laser che eccita la lunghezza d’onda dell’intercalante e tutte le volte che passa

un prodotto di pcr se lo porta dietro e quindi legge l’uscita della colonna la presenza di un prodotto

di pcr, vantaggio: elevata sensibilità e elevata processività perché esistono nell’elettroforesi

capillare con un capillare parallelo in cui ogni30 minuti ne passa uno e spesse volte vengono

caricati in successione, è possibile quindi analizzare anche un centinaio di campioni solo in 8

minuti, lo stesso sistema dell’elettroforesi capillare è quello che consente di fare sequenziamento.

Oggi giorno recenti sono i micro array, c’è un semplice diagramma, voi avete il vostro dna

genomico estratto, amplificate le vostre sequenze targhet, uno dei primer è marcato con colorante

fluorescente presente al 5’, un filamento presente al 5’ del vostro prodotto di pcr è marcato, avete

una superficie solida che contiene delle sequenze complementari al gmo che volete identificare,

denaturate questo prodotto di pcr, sbattete questo prodotto di pcr all’interno della piastra, se in

corrispondente di un determinato pozzetto il vostro prodotto di pcr è presente viene trattenuto per

ibridazione dalla vostra sonda ancorata alla micro piastra, quindi potete quindi fare dei lavaggi,

utilizzare un laser che eccita il marcatore e tutte le volte che si vede un segnale + all’interno del

56

pozzetto si sa che c’è un determinato transgene che è stato trattenuto all’interno del pozzetto, sono

metodi qualitativi ad elevato trou put, ma sono sistemi chiusi nel senso che determinate qui entro

che cosa volete andare a cercare (*** metodi qlt basati sul dna: sauthern, pcr, northern quali sono i

limiti del sauthern, limiti pcr e vantaggi nel caso della multiplex, e grosso modo come funziona iol

micro arrey).

PCR-ELISA: è un metodo molto usato ed è un metodo semi qnt, cioè c’è oltre una determinata

soglia anche se non lo quantifico, *** mi dica un metodo semi quantitativo.

La pcr Elisa viene usata per tanti altri scopi non solo per la detection dei gmo, molto usata nella

routine perché ha 2 vantaggi: combina le peculiarità della reazione delle pcr cioè sensibilità e la

robustezza e i vantaggi offerti dall’Elisa cioè dai metodi immunologici cioè la rilevazione può

essere condotta con risorse strumentali relativamente ridotte non molto costose e una certa

scalabilità cioè la possibilità di svolgere molti test in parallelo riducendo la variabilità giorno per

giorno e la variabilità operatore-operatore perché soprattutto nella quantificazione se io fornisco dna

a personale poco esperto otterranno risultati con una deviazione standard elevata, cioè la possibilità

di analizzare insieme molti campioni abbatte la variabilità legata alla anche all’operatore.

Le applicazioni sono di tipo semi qnt e sono stati applicati e sono in commercio diversi kit per

l’identificazione di tratti generici come il classico promotore 35S per l’identificazione della soia

round up e per il mais bt176/11/25 il mais 810 e nei pomodori flavr savor (adesso non sono + in

commercio per 2 ragioni: perché sono usciti in un brutto periodo in cui c’era pubblicità negativa

contro gli ogm e poi perché aveva una produttività per ettaro quasi la metà delle varietà normali e

nel frattempo è uscita una varietà che aveva pari pari le stesse caratteristiche con incroci genetici

normali) come si può immaginare essendo un test basato sui metodi immunologici per analogia la

pcr Elisa consiste in un assemblaggio progressivo passo a passo di una struttura a sandwich, quello

che viene descritto è la rilevazione del 35S nella farina di soia round up ed è descritto in questo

lavoro che vi allego nelle slide. *** che cosa è la pcr-Elisa e quali sono i parametri di

ottimizzazione della tecnica. Allora questa pcr-Elisa utilizza 2 primer marcati al terminale al 5’ con

biotina poi cattura cioè immobilizzazione del prodotto di pcr biotinilato sui fondi dei pozzetti in

micro piastra ricoperti da streptavidina, lavaggio con tampone fosfato in presenza di un detergente

(PBST classico tampone), poi denaturazione del doppio filamento ancorato sul fondo della provetta,

esposizione di un singolo filamento e ibridazione con una sonda specifica.

Quindi noi abbiamo un prodotto di pcr con uno dei 2 primer botinilato all’estremità 5’ quindi

avremo un doppio filamento, mettiamo questo prodotto di pcr all’interno di un pozzetto sul fondo è

stato ancorata la streptavidina, la streptavidina ancora il prodotto il pcr al doppio filamento,

denaturazione cioè apertura di questo doppio filamento, esposizione di un filamento unico,

57

ibridazione con una sonda specifica, tratto di dna che vi riconosce una porzione interna di questo

doppio filamento, questa sonda come è fatta? È semplicemente un prodotto di pcr a singolo

filamento che viene marcato terminalmente con un aptene e in questo caso è la digossigenina, per

aptene si intende qualsiasi cosa che possa essere riconosciuta dallo specifico anticorpo, in questo

caso l’aptene che viene aggiunto all’estremità 5’ di questo prodotto di pcr, all’estremità ammino

terminale modificata è la digossigenina che è un aptene steroideo di origine vegetale,

sostanzialmente trasferisco questo aptene al terminale 5’ di un filamento a singola elica di dna che

mi funge da sonda, applico questa sonda al mio pozzetto, questa mi riconosce una porzione interna

del mio filamento di dna, faccio una serie di lavaggi con tampone fosfato e twin in modo da

eliminare l’eccesso di sonda, a questo punto applico un anticorpo anti digossigenina cioè qualcosa

che mi riconosce questo aptene, questo anticorpo è coniugato con un enzima reporter classicamente

la perossidasi, a questo punto faccio una serie di lavaggi per togliere l’eccesso di anticorpi non

legati, applico il mio substrato cromogeno che viene degradato dalla perossidasi dandomi un

prodotto colorato che dà una assorbenza che posso leggere allo spettrofotometro, questo è un

classico esempio di pcr-Elisa e viene definito come + il segnale come intensità di assorbimento,

questo come standard, un assorbenza la cui media più o meno la deviazione standard è + o – 3 volte

la deviazione standard del segnale che ho nei bianchi, questa cosa viene usata normalmente nella

pcr real time, se voi immaginate di avere i vostri campioni con il determinato O.D. e anche il vostro

bianco, il bianco come si fa? Ometto il prodotto di pcr, il bianco avrà anche un suo minimo di

assorbenza perché magari anche se ometto il bianco per qualche motivo questa sonda si attacca al

fondo del pozzetto, normalmente non avviene però parte della componente del bianco può essere

dovuto al primer che viene adsorbito dalla plastica, *** che è che contribuisce al bianco nella pcr-

Elisa? La sonda, può essere dovuta all’anticorpo, può essere per qualche motivo adsorbita dalla

plastica, normalmente non avviene riconoscere la streptavidina, oppure magari il substrato che si

degrada da solo senza intervento della perossidasi, substrati cromogeni vengono conservati a 3-4°,

man mano invecchiano spesso vanno incontro a processi di auto degradazione per cui diventano

colorati, ma lo vedi anche nella bottiglietta; posso avere un bianco positivo che ha un determinato

OD, poi faccio dei replicati del bianco e facendo dei replicati avrò una media + una deviazione

standard cioè una incertezza sul valore della media, la soglia della positività normalmente viene

data con il valore OD del bianco, il valore medio + 3 volte la sua deviazione standard, mettiamo che

questa sia un OD 0.1 di assorbimento e la deviazione standard 0.002, significa che la mia soglia di

positività l’avrò a 0.106, oltre questa soglia io dico che ha un valore +, sotto se il mio campione ha

un O.D. inferiore a questo livello qui io do per bianco cioè negativo.

58

*** Quali sono i parametri di ottimizzazione di una reazione di pcr-Elisa? La reazione procede a

stepe wise ed è abbastanza complessa, ciascuno di quei passaggi può abbassare la sensibilità del

mio medito di identificazione e semi qnt del gmo quindi la ottimizzazione di un procedimento di

pcr-Elisa è abbastanza complessa ed è abbastanza simile al processo di ottimizzazione che avevamo

nell’Elisa come metodo immunologici di detection, uno strumento per l’ottimizzazione della

procedura Elisa consiste nella doppia marcatura del prodotto di pcr, per doppia marcatura cosa si

intende? Si fa una reazione di pcr col primer forword e reverse marcati al loro terminale 5’, ma con

una marcatura diversa: una con biotina e l’altra con digossigenina, quindi con un primo step di

ottimizzazione della reazione di pcr io ho la reazione di pcr del mio tratto di gmo: in un primer ci

sarà la biotina e nell’altro la digossigenina, (mentre la detection si fa solo con un prodotto di pcr

marcato uno solo degli estremi con biotina) il primo step è la determinazione della cinetica di

legame cioè si devono definire i tempi di applicazione del mio prodotto di pcr alla mia piastra,

abbiamo visto che nella realizzazione della pcr-Elisa come primo step è mettere il mio prodotto di

pcr dentro alla piastra perché questo si deve legare alla piastra tramite la streptavidina, *** ma

quanto ce lo devo lasciare prima di fare i lavaggi? Prima di denaturare e applicare la sonda?

Normalmente si applicano in qnt variabili da 2 a 5 micro litri di pcr per pozzetto e si procede

all’immuno saggio fino allo sviluppo della colorazione a diversi tempi, dopo 15 minuti si raggiunge

il platò del segnale, in altre parole io posso aspettare una volta messo il prodotto di pcr nel pozzetto

da 1 a 30 minuti, poi procedo a tutte le fasi successive di detection, ma siccome devo valutare solo

la cinetica di legame faccio la detection utilizzando direttamente il prodotto di pcr senza denaturarlo

perché se io facessi il procedimento classico introdurrei la variabile sonda anticorpo etc. invece

faccio l’immunosaggio, ottimizzo i tempi in questo modo cioè metto il mio prodotto di pcr faccio

dei lavaggi in modo da togliere il prodotto di pcr che non si è legato poi direttamente l’anticorpo

con la perossidasi senza passare attraverso la denaturazione e l’ibridazione con la sonda, in questo

modo valuto a tempi diversi l’incubazione del mio prodotto di pcr dentro al mio pozzetto prima dei

lavaggi solo la cinetica di legame, prodotto il pcr con la streptavidina sul fondo del pozzetto non

introduco altre variabili, quindi loro hanno testato diversi tempi di incubazione prima di lavare e

aggiungere l’anticorpo e hanno visto che dopo 15 minuti si raggiunge il platò del segnale cioè loro

hanno visto che dopo 1 minuto ho un determinato O.D , dopo 5 minuti ne ho un altro, dopo 30

minuti ho questo O.D, dopo 40 è = etc. quindi è inutile siccome raggiungo il platò a questo tempo

incubare per tempi + lunghi prima di fare il lavaggio tanto tutto quello che si doveva legare si è già

legato, è chiaro che per tempi più bassi il tempo che gli lascio prima dei lavaggi non è sufficiente

perché tutti i prodotti di pcr mi vadano a legare la streptavidina in fondo al pozzetto. Quindi primo

parametro di ottimizzazione è la determinazione della cinetica di legame quindi quanto tempo devo

59

aspettare dopo che ho applicato il mio prodotto il pcr prima di passare agli step successivi.nella mia

reazione di pcr il parametro che inficia la sensibilità è la determinazione delle condizioni di idrolisi

alcalina e abbiamo visto che una volta ottimizzati i tempi di legame del mio prodotto di pcr l’altra

variabile nella reazione di pcr normale dove devo esporre il singolo filamento sono i tempi di

separazione di questi 2 prodotti perché se io eccedo all’idrolisi alcalina che è fatta con NaOH 0.2

molare ma non è importante ricordare il numero, per separate questi 2 frammenti, se io eccedo con i

tempi possono succedere 2 cose: 1. mi si stacca la biotina dalla streptavidina e mi si sgancia il mio

singolo filamento e oltre a sganciarsi questo si degrada, comincia ad essere frammentato

dall’estremità 3’ accorciandomi il mio filamento, quindi se io prolungo troppo il trattamento

d’idrolisi questi 2 filamenti si separano, questo inizia ad essere degradato ammesso che addirittura

non si stacchi, ma questo filamento comincia ad essere mangiato, se la mia sonda comincia a

riconoscere questo tratto e chiaro che se ho prolungato l’idrolisi oltre a un certo tempo questo tratto

è stato degradato e la mia sonda non mi riconosce nulla perché non trova il targhet, 2. secondo

parametro da ottimizzare è quanto tempo devo trattare con una soluzione alcalina in questo caso

NaOH per separare i 2 filamenti, tempo minimo perché abbia una separazione senza avere

degradazione e distacco del filamento, come si fa? Si lavora sempre su un prodotto di pcr marcato,

incubo per tempi via via crescenti poi sviluppo la reazione di Elisa direttamente con l’anticorpo

senza usare la sonda perché in questo caso mi interessa solo la denaturazione dei 2 filamenti, non

voglio introdurre altre variabili come specificità della sonda e concentrazione della sonda, poi vado

a vedere come mi cala in segnale, gli O.D., per tempi relativamente brevi avrò un segnale di O.D.

alto, poi man mano aumento col tempo il segnale tende a decrescere perché comincio ad avere la

degradazione di questi filamenti, quindi mi devo mettere in tempi sufficientemente brevi da

consentire l’apertura del filamento, ma non la sua degradazione. *** io sto usando per

l’ottimizzazione di questi parametri il prodotto di pcr marcato alle 2 estremità, uno con biotina e

uno con digossigenina, ma perché non lo uso anche per fare la pcr-Elisa vera e propria in modo tale

da non avere bisogno di una sonda? Normalmente la reazione di pcr-Elisa è fata con biotina, doppio

filamento, questo se ne va per denaturazione l’NaOH e lo apre, poi qui dopo io vado ad applicare

un’altra sondina interna marcata con digossigenina e poi avrò un anticorpo etc., io per

l’ottimizzazione usiamo direttamente un prodotto marcato 2 volte con biotina e digossigenina

perché vogliamo omettere l’influenza della sonda per ottimizzare tempi di applicazione del prodotto

della pcr e tempi di idrolisi alcalina, perché non usiamo direttamente questo prodotto di

amplificazione direttamente marcato anche per la detection vera e propria, non solo per

l’ottimizzazione? Perché se prendo una sonda + interna sarà + specifica: immaginate di fare una

pcr-Elisa costruita in questo modo anziché nell’altro: guadagno uno step perché evito di metterci la

60

sonda, il problema è che se ho dei prodotti di amplificazione aspecifica cioè questi 2 primer mi

amplificano qualcos’altro magari un altro prodotto di pcr + corto con biotina e digossigenina diversi

da questo, questo mi va =mente a legarsi all’avidina, se io la detection la faccio direttamente con

anticorpi antidigossigenina io li prendo dentro tutti e 2, se io invece utilizzo una sonda con

digossigenina che mi riconosce una porzione interna è abbastanza facile che questo aspecifico qui

questo tratto non ce lo abbia per questo aggiungo uno step intermedio di sonda piuttosto che fare

una detection direttamente, le prime pcr-Elisa erano costruite così. Con questo sistema si allungano

i tempi, è + difficile da ottimizzare, + costosa ma aumenta la specificità.

Immaginiamo di avere ottimizzato questi 2 parametri: tempi di applicazione del prodotto di pcr,

tempi di idrolisi alcalina, altro parametro da ottimizzare è la quantità di sonda, adesso siamo arrivati

allo step successivo: abbiamo attaccato il prodotto di pcr, l’abbiamo aperto, dobbiamo applicare la

sonda, primo parametro è qnt di sonda: è chiaro che non ce ne possiamo mettere troppo poca perché

non identifico tutti i prodotti di pcr, vado sempre sotto stima, non ce ne posso mettere troppa perché

aumento il segnale di fondo, quindi anche in questo caso si fa una ottimizzazione, si parte da

concentrazioni di prodotti di pcr, poi mantenendo costante la qnt di pcr saggiata dai 2 ai 5 microlitri

in questo caso, si sono utilizzate delle concentrazioni crescenti di sonda, nel protocollo originale la

concentrazione andava da 5 a 40 nano molare non interessano i numeri), la condizione saturante

senza un significativo incremento del segnale dei bianchi era intorno a 10/20 nanomolare, che cosa

hanno fatto? Hanno messo concentrazioni crescenti di sonda dig che andavano da 5 a 40 nano

molare nel pozzetto e poi hanno letto gli O.D. tenendo fisso la qnt di pcr che è stata applicata e

tenendo fissi i tempi di idrolisi che sono già stati ottimizzati, man mano aumentavo la

concentrazione della sonda ottenevo una curva di questo tipo 8(vedi slide) nei miei pozzetti perché

qui era in condizioni limitanti e ci mettevo troppo poca sonda rispetto ai prodotti di pcr che avevo

dentro e quindi man mano aumentavo la concentrazione aumentavo il segnale, qui invece arrivo

ancora una volta a platò e quando arrivo a questo punto significa che è inutile che aggiungo + sonda

tanto tutti i prodotti di pcr che c’erano sono stati identificati, quindi per questioni di costi e di

rumore di fondo aspecifico in genere mi metto in una posizione in cui andando oltre ho un segnale a

platò tenendo conto anche dei segnali dei bianche che generalmente rimangono costanti, non mi

devo mettere in un punto in cui i segnali dei bianche aumentano, mi metto in un punto in cui il

segnale dei bianche rimane costante e questo significa che c’è poco fondo e nel contempo ho

ottenuto la saturazione di tutti i prodotti di pcr. Quindi altro step ottimizzazione della qnt di sonda

che si fa in questo modo, altro step la temperatura cioè a quale temperatura fare avvenire

l’ibridazione sponda col vostro singolo filamento ancorato sul fondo del pozzetto, normalmente per

sonde relativamente brevi come sono queste sonde che si usano in pcr-Elisa sui 20/30 paia di basi

61

che sono molte più corte rispetto a quelle che utilizzano in sauthern blot che possono essere

100/200/300 paia di basi, queste sono estremamente piccole per aumentare la specificità, la

temperatura di ibridazione ha relativa importanza, nel caso specifico di questo lavoro, nella farina di

soia per questo tipo si sonda 35S hanno visto che svolgere la reazione di ibridazione a temperatura

ambiente o a 54° era la stessa cosa, quindi per questioni di praticità la reazione di ibridazione quindi

applicazione della sonda è stata svolta a temperatura ambiente però spesso la temperatura di

ibridazione è uno dei parametri che vengono ottimizzati per ottimizzare la reazione di pcr-Elisa in

presenza di prodotti aspecifici, ammettiamo per puro caso che qui voi abbiate l’amplificazione

specifica un’ampalificazione di tipo aspecifico, un altro targhet che avviene generalmente per le

famiglie multigeniche questo frammento aspecifico + corto se per caso mi contiene anche qualcosa

di simile alla sequenza riconosciuta dalla sonda aumentando la temperatura di ibridazione la sonda

mi riconoscerà solo questo prodotto di pcr e non l’altro, capiterà di trovare kit di pcr-Elisa in cui la

temperatura usata come discriminante per identificare una variante bt rispetto un’altra, nel senso che

avremo una sonda di digossigenina e immaginate la variante bt176 e la bt11 con un pezzo comune e

un pezzo diverso peculiare del bt176, se avete una sonda che riconosce questo pezzo se si mantiene

una temperatura relativamente bassa si riconoscono entrambi, alzando la temperatura è abbastanza

facile che si riconosca in maniera specifica solo il bt176 e non l’altra perché di solito il terminale 3’

è + stabile, quindi variando la temperatura si può anche variare la specificità della pcr Elisa, magari

la si fa prima a basa temperatura e si troverà un segnale + e ci può essere il dubbio, alzando la

temperatura se ne vede solo 1. Poi il tempo di incubazione: siamo sempre nello step di utilizzo della

sonda, abbiamo visto la qnt di sonda, la temperatura di ibridazione, il tempo: quanto lasciamo

applicata la sonda? Questo parametro è estremamente variabile, dipende dalla velocità di

ibridazione, dalla concentrazione della sonda e dalla conformazione tridimensionale del prodotto di

pcr, sostanzialmente con quanta facilità i 2 filamenti riescono ad appaiarsi perfettamente, possono

variare i tempi di applicazione della sonda da pochi minuti fino a 2 ore ammezza, è un parametro

abbastanza importante, anche in questo caso per ottimizzarlo si tengono fisse tutte le altre

condizioni e si vanno a testare progressivamente dei tempi + lunghi di applicazione della sonda

prima dei successivi lavaggi e poi si va a vedere quale è il minimo tempo in cui ho un segnale che

mi aumenta e poi raggiunge un platò, è inutile lasciare la sonda + a lungo prima di fare i lavaggi,

tanto tutta la sonda che si doveva legare si è legata, quindi io mi pongo all’estremità ascendente

della curva prima che raggiunga il platò, questo è il tempo minimo che devo dare alla sonda per

riconoscere tutti i potenziali targhet, dopo di che passo ai lavaggi. Poi altro parametro è il buffer di

ibridazione e il lavaggio di post ibridazione: cioè questa reazione di riconoscimento della sonda col

suo targhet avviene all’interno del pozzetto e all’interno di un buffer di ibridazione, normalmente

62

questo buffer tampone di ibridazione sono tamponi fosfato o tamponi citrato, la forza ionica cioè la

concentrazione del mio tampone mi condiziona la stabilità dell’irido, la stessa cosa del magnesio,

cioè più questa reazione di ibridazione sonda-targhet si svolge in presenza di elevate concentrazioni

saline + è stabile il legame sonda-sequenza targhet il che significa che se voglio aumentare la

specificità del mio riconoscimento diminuisco la concentrazione salina, destabilizzo il doppio ibrido

perché mi rimarrà attaccato solo quello che è complementare alla sonda. Quindi per aumentare la

specificità posso anche non solo alzare la temperatura, ma abbassare la concentrazione salina (più

aumento la con contrazione salina + è stabile il doppio filamento quindi + potrebbe essere

aspecifico il mio legame, se faccio avvenire la mia reazione di legame sonda-sequenza targhet in

bassa concentrazione salina + destabilizzo il che significa che solo quello che ha il 100% di

complementarietà mi starà attaccato), la stessa cosa vale per i lavaggi, immaginate di avere già fatto

avvenire la reazione a una determinata concentrazione salina, poi si deve lavare per togliere

l’eccesso di sonda non legata, + faccio questi lavaggi a una temperatura elevata e a una

concentrazione salina bassa + aumento l’efficacia del lavaggio quindi abbasso il segnale di fondo

presente nei bianchi. Quindi concentrazione salina dei tamponi di ibridazione e dei lavaggi post-

ibridazione insieme alla temperatura sono quelli che mi condizionano la specificità del

riconoscimento sonda sequenza-targhet. Poi un altro parametro anche se non si ottimizza quasi mai

è quanto applicare l’anticorpo antidigossigenina: anche in questo caso si usano delle concentrazioni

via via decrescenti e siccome l’anticorpo antidigossigenina costa si tendono a mettere

concentrazioni di anticorpo anti-digossigenina che fa si che si abbia la massima intensità di segnale

senza eccedere nella qnt perché inutile e rischia di aumentare il rumore di fondo. Poi c’è la

determinazione della condizione saturante del sistema pcr-Elisa che è la qnt di sonda che possiamo

applicare al fondo del pozzetto, il fondo del pozzetto ha una certa capacità di legame, se eccediamo

in questa capacità di legame in realtà 2 segnali di amplificazione diversi li vediamo identici,

dobbiamo sempre stare leggermente + bassi, è chiaro che se ci sono 100 molecole di streptavidina e

posso legare 100 prodotti di pcr a singolo filamento e ho 2 amplificazioni diverse in 2 campioni

diversi che hanno qnt diverse di amplificato finale, se io applico in tutti e 2 qui dentro 150 io non

vedo la differenza perché ho saturato la mia capacità di legame della piastra. Poi purificazione post

pcr prima del saggio: cioè noi abbiamo immaginato di applicare al nostro fondo della piastra i

prodotti di pcr direttamente senza cioè eliminare primer, dntps marcati etc. normalmente non si fa,

cioè quando voi applicate i vostri prodotti di pcr fate una reazione di cinetica tra avidina e biotina,

può accadere che in alcune condizioni soprattutto se si usano concentrazioni di Mg molto alte

questo legame sia a bassa efficienza, allora in genere si purificano prodotti di pcr attraverso

colonnine per una cromatografia di affinità, colonnine di silice che trattengono solo i prodotti di pcr

63

e poi eluite successivamente in modo da eliminare l’eccesso di primer non utilizzati, Mg, il buffer

che contiene spesso detergenti che possono inficiare il legame biotina-avidina, normalmente la qnt

di pcr che in questo caso era da 2 a 5 microlitri per pozzetto, una qnt così piccola spesso non è

necessaria. (*** quali sono i parametri da ottimizzare, come si svolge la pcr-Elisa, come posso

aumentare la specificità di una reazione di pcr-Elisa: temperatura di ibridazione).

Metodi di quantificazione basati sulla pcr: teoricamente la reazione do pcr dovrebbe procedere

secondo un andamento di tipo esponenziale in modo tale che il numero ci copie per ogni ciclo che

via via si accumulano è dato da una equazione, assumendo una efficienza pari al 100%, il che

significa che partendo da 1 copia dopo 35 cicli si hanno 68.000.000.000 di copie, questo però è un

caso ideale in cui ad ogni ciclo c’è un raddoppio della sequenza targhet. Cosa significa questa

equazione? Che se fosse real,ente così noi semplicemente andando a misurare quella che è la qnt

finale di copie saremmo in grado di capire quante copie iniziali avevamo, questo non avviene

perché sfortunatamente l’efficienza di amplificazione non è un parametro costante, ma varia e va a

diminuire durante i cicli, quindi avremo una diversa efficienza che varia nelle diverse reazioni di

pcr, quindi diverse repliche e all’interno si una singola reazione varia nel tempo secondo il classico

andamento indicato dal grafico dove se sulle ascisse mettiamo in n. dei cicli e sulle ordinate il

logaritmo del dna delle copie che si vanno ad accumulare progressivamente risulta questa tipica

curva a plateau dove è possibile evidenziare 3 fasi: una prima esponenziale dove abbiamo una

efficienza del 100% dove abbiamo un eccesso di reagenti tutti disponibili per la sintesi, poi abbiamo

una fase lineare in cui i reagenti iniziano e diventare limitanti (dntps, primer) inoltre a seguito dei

processi di denaturazione con trattamento a 94/95° anche solo per 30/20 secondi la taq polimerasi è

una dna polimerasi termo resistente però subisce danni dopo un tot di cicli a 95°, cala la propria

efficienza e poi soprattutto abbiamo una concorrenza fra i primer e il processo di self anniling cioè i

doppi filamenti che tendono a riappaiarsi tra di loro man mano la loro concentrazione sale col

progredire dei cicli, quindi succede che il numero di ampliconi non raddoppia + ad ogni ciclo, ma

questa efficienza inizia via via a calare, poi abbiamo una fase di plateau, in cui la concentrazione

dei reagenti inizia ad essere veramente limitante, la taq polimerasi non funziona bene per cui la

reazioni di amplificazione va progressivamente a spegnersi e con l’ulteriore progredire del numero

dei cicli non di ha un progressivo accumulo del prodotto di pcr. Quindi succede che se noi andiamo

qui in fondo a misurare la concentrazione dei prodotti di pcr tramite l’assorbimento, tramite l’analisi

densitometrica se facciamo una elettroforesi e misuriamo lo spessore della banda cioè l’intensità

della banda in etidio bromuro, o fluorescenza se mettiamo un intercalante nel doppio filamento, qui

le varie reazioni che pur partono da una stessa qnt di dna iniziale tendono a divergere, *** come

64

mai non qnt alla end-point? Perché tutto il processo di pcr non corrisponde esattamente al numero di

copie iniziali che avevamo perché cala l’efficienza di reazione e cala perché lo sabbiamo visto.

Nel caso reale visto la concentrazione degli ampliconi varia con la potenza de n. del numero di cicli,

2 alla n, la scala ideale per rappresentare i prodotti di pcr che si accumulano non è tanto quella

discreta cioè nano grammi o pico moli, ma quando una scala di tipo semi logaritmica dove se qui

abbiamo un colorante fluorescente intercalante che mi intralcia l’accumulo dei prodotti di

amplificazione durante il progredire dei cicli, perché si intercala nella doppia elica, questa curva

trasformata con andamento semi logaritmico, se si preparano 5 repliche di 5 punti di diluizione di

un certo standard, ad esempio uno standard che contiene 100 copie, 10, 1, 0.1, 0.01 se si vanno a

verificare come si accumulano i segnali in fluorescenza si vede questo tipo di curva logaritmica in

fluorescenza e si deve che normalmente a plateau tutti le curve tendono a convergere

indipendentemente dal n. iniziale di copie, poi che in genere le repliche per ogni punto di diluizione

dopo un certo n. di cicli tendono a ‘’dimezzare’’, questo fascio tende ad aprirsi questo perché

all’interno di ciascuna reazione di pcr che pure è una replica l’efficienza è diversa man mano si

procede col numero di cicli, nella fase iniziale dove i reagenti non sono limitanti, abbiamo che i

punti di diluizione sono ben equidistanti tra loro, il che significa che se io ho dato un rapporto di

diluizione di 10, quindi ho fatto 1000, 100, 10, 1, 0.1, 0.01 la distanza rimane costante, il che

significa che in questa fase in ciascuna delle reazioni a questi cicli corrispondenti è identica perché

a diversità di copie iniziali abbiamo una equi distanza fra i vari punti di diluizione, inoltre nei

corrispondenti cicli le curve delle varie repliche sono tutti uniti in un fascio quindi questo sta a

significare che l’efficienza all’interno delle repliche e i diversi punti di diluizioni è la stessa, poi lo

vedremo meglio nella reazione di real time e una procedura di ottimizzazione consiste nel rendere

equidistanti i vari punti di diluizione e rendere in un unico fascio le repliche per ciascun punto di

diluizione. Se noi vogliamo quantificare è chiaro che i metodi che dobbiamo usare in qualche modo

devono compensare questa variazione di efficienza di amplificazione durante il procedere dei cicli,

esistono sostanzialmente 2 modi: la pcr di tipo quantitativo competitiva che misura all’end point e

che compensa questa variazione di efficienza di reazione pere cu reazioni aventi copie iniziali

diverse al plateau in realtà tendono a convergere, escogitando un piccolo trucco che è la

coamplificazione della sequenza bersaglio con uno standard interno, poi lo vedremo, secondo

metodo è quello della real time che tende a misurare l’accumulo dei prodotto di pcr non a plateau

ma nella fase esponenziale.

Pcr quantitativa competitiva, detta QC-PCR: la qc-pcr prevede la coamplificazione di una qnt

sconosciuta di uno specifico gene targhet con una qnt conosciuta con uno standard interno detto

anche competitore (attenzione al linguaggio che deve essere preciso) termine standard interno =

65

competitore è un linguaggio di tipo tecnico. Come era costituito il competitore quando questa

tecnica è stata via via soppiantata da tecniche relativamente + recenti? Il competitore è costituito

generalmente da un plasmide linearizzato nella quale sia stata clonata la sequenza targhet, eccetto

per una delezione o inserzione di 40 paia di basi, quindi io voglio quantificare una sequenza targhet,

per esempio di un transgene o qualsiasi elemento del transgene: il promotore, il gene che conferisce

la specificità transgenica come un bt etc. + insieme amplifico un competitore che contiene la stessa

sequenza che vado ad amplificare nel dna bersaglio, dna che potenzialmente contiene il tratto

transgenico, ma che in mezzo ha una delezione o inserzione di 40 paia di basi, non +, quindi una

piccola differenza di dimensioni e questa differenza di dimensione come prodotto di amplificazione

fra lo standard o competitore con la sequenza targhet transgenica può essere rilevata mediante

elettroforesi su gel di agarosio colorato con etidio bromuro. La procedura di quantificazione assume

che la reazione di amplificazione, della sequenza targhet, quindi della sequenza transgenica e dello

standard interno calibratore procedano sempre con la stessa efficienza in ogni fase della reazione

compresa quella di plateau perché la stessa efficienza tra le 2 reazioni garantisce che le sequenze

targhet e competitore competano in equal misura per i reagenti (primer e dntps in ogni fase della

reazione di amplicazione) nb. Questo è il principio della pcr competitiva, se non si riescono a

soddisfare questi tipi di pre requisiti non si può fare una pcr quantitativa competitiva. La procedura

prevede la costruzione di una curva di calibrazione dello standard interno, la coamplificazione di

una qnt costante di calibratore con una qnt complessivamente + elevata del campione incognito

contenente la sequenza targhet transgenica, quindi una separazione elettroforetica e ricerca tramite

analisi densitometrica o anche solo visivo del punto di equivalenza cioè nel punto in cui i 2 prodotti

di pcr hanno la stessa intensità. *** come si costruisce un calibratore? Dei metodi ne vedremo

almeno un paio vengono usati anche nelle reazioni di real time. In questo caso la pcr quantitativa

competitiva è indirizzata a quantificare il promotore 35S nella solita soia round up ready, come

matrice si usa la farina, ma si potrebbe usare qualsiasi altra cosa, come si costruisce? Si deve avere

a disposizione un plasmide che contiene la sequenza targhet, quindi un 35S o una sua porzione,

abbiamo detto che lo standard deve essere costruito in modo tale che questa sequenza competitrice

contenga la sequenza nativa 35S + o – 40/80 paia di basi, come si fa? Un metodo relativamente

semplice ed economico, c’è il plasmide contenente la sequenza targhet con i vari siti di restrizione

viene descritta la metodologia: si va a digerire con Eco, apre il plasmide, il plasmide viene

defosforilato usando la CIS poi viene sottoposta a legazione con una miscela di oligonucleotidi

complementari tra di loro e che quindi formano una doppia elica defosforilati alle estremità, e in

presenza della ligasi questa piccola cassettina qua è inserita all’interno del plasmide, a volte può

capitare che siccome questi frammenti sono estremamente piccoli 40/80 paia di basi che si abbiano

66

dei concatenameri, 2 cassette unite una di seguito all’altra, *** come mai una volta digerito EcoR1,

prima di rifare la legazione in presenza di questo piccolo frammento a doppia elica defosforilo il

plasmide? Per evitare che si richiuda su se steso, come pre requisito io devo avere questa cassettina

all’estremità 5’ fosforilata alle 2 estremità 5’, diversamente la ligasi non riuscirebbe a ligare i pezzi,

quindi ho ottenuto uno standard contenente un piccolo pezzettino rispetto alla sequenza nativa di 40

paia di basi, è chiaro che anche in questo caso si trasforma, si fa una trasformazione batterica e si

produce tanto plasmide, lo si purifica etc. in modo da avere una certa qnt, poi eventualmente prima

dell’uso si tende a linearizzare il plasmide digerendolo in modo da aprire il plasmide, plasmide

dovrà essere amplificato con primer che noi utilizziamo per amplificare la sequenza nativa del dna

transgenico, il fatto che si linearizza il plasmide è perché tende ad avere una struttura super coild, a

chiudersi, per facilitare la reazione di pcr si digerisce il plasmide e lo si linearizza, una volta aperto

è + difficile che assuma delle conformazioni tridimensionali tali da impedire l’accesso ai targhet dei

rispettivi primer. Costruzione di una curva di calibrazione: abbiamo fatto lo standard, come

facciamo la pcr quantitativa competitiva? Un sistema basato sull’amplificazione elettroforesi, co-

amplificazione della sequenza targhet, + di una sequenza standard che abbiamo costruito in quel

modo, le 2 sequenze sono identiche tranne per quel pezzettino di 40/80 paia di basi, come si fa? Il

sistema è calibrato co amplificando 0.5 femto grammi di dna standard, con 500 nano grammi di dna

contenente varie percentuali di dna transgenico, non è altro che dna estratto da farine certificate

contenente l’1/2/3/4/5/6% di farina di soia ogm, in una prima reazione di pcr amplifichiamo

semplicemente la sequenza targhet, in questo caso era il 35S, abbiamo un numero variabile di copie

a decrescere dal pozzetto 1 a quello 9, man mano diminuisco il numero di copie di dna transgenico

quindi passo da una soia che può essere 100% trangenica fino a una soia che ha lo 0% come

contenuto in transgene il segnale va progressiva,mente a diminuire, questo è ovvio perchè le copie

iniziali della sequenza targhet sono via vie sempre minori, avrò dei controlli negativi e positivi.

A questo punto faccio la vera e propria pcr quantitativa competitiva, faccio la stessa reazione dove

ho messo solo qnt costanti, 500 nano grammi di dna contenenti percentuali decrescenti di dna

transgenico, aggiungo anche 0.5 femto grammi di dna standard, quindi una qnt costante di standard

e co amplifico insieme a una qnt di dna contenente in percentuale gmo via via decrescente. Si deve

immaginare che queste 2 sequenze targhet sono immaginate dalla stessa copia di primer, perché lo

standard è = alla sequenza nativa 35S + la cassettina di 40 paia di basi, il che significa che

l’amplificato del competitore avrà una dimensione leggermente superiore rispetto a quella della

sequenza targhet, le 2 sequenze entrano in competizione tra di loro, man mano cala la

concentrazione di dna transgenico, quindi di dna con 35S a elevate percentuali, i primer tenderanno

ad amplificare sempre + favorevolmente anche il competitore che invece ha una qnt costante, quindi

67

a elevate percentuali di dna transgenico, quindi 100% o 505 di dna ogm ho delle amplificazioni

sono della sequenza targhet, il competitore che ha solo 0.5 femto grammi sono viene amplificato,

man mano diminuisco la concentrazione del dna transgenico inizia a comparire anche il competitore

fino a che la concentrazione del dna gmo è talmente bassa che viene preferibilmente amplificato il

competitore. Il punto in cui ho la stessa intensità di bande, quindi la stessa efficienza di

amplificazione a platò tra competitore e sequenza targhet viene chiamato punto di equivalenza.

Immaginiamo di avere una reazione di pcr quantitativa competitiva, ancora una volta abbiamo una

standard che ha maggiori dimensioni rispetto alla sequenza targhet, abbiamo dna estratto da farine

contenenti percentuali via via crescenti di soia transgenica, quindi amplificando il 35S vediamo che

dove non c’è transgene viene amplificato prevalentemente lo standard e via così, man mano invece

aumenta la percentuale di transgene nel dna presente si viene ad amplificare anche il targhet fino col

100% di dna transgenico solo la sequenza targhet e non lo standard, allo immaginiamo di fare una

analisi densitometrica, di andare a leggere l’intensità di queste bande in scala di grigio e di fare un

grafico in cui mettiamo il logaritmo che è il targhet, poi mettiamo il logaritmo del rapporto come

intensità in scala di grigi del targhet rispetto allo standard, è chiaro che quando raggiungo il punto di

equivalenza avrò uno stesso rapporto quindi logaritmo = a zero, non si fa altro che costruire una

curva di calibrazione sull’analisi densitometrica della co amplificazione dello standard e del targhet,

a questo punto è abbastanza semplice: se abbiamo un campione incognito si va ad amplificare 500

nano grammi del dna estratto dalla farina a contenuto incognito di soia insieme a 0.5 femto grammi

di standard, si va a leggere il rapporto fra l’intensità, quindi si fa l’amplificazione l’elettroforesi etc.

si va a leggere il rapporto tra l’intensità tra la banda del targhet e quello dello standard, poi

riportandolo su questo grafico si ricaverà la percentuale di contenuto di dna transgenico, in genere

sperimentalmente perché la curva sia valida occorre che questa retta abbia un coefficiente di

correlazione lineare maggiore di 0.98, mi dice quanto i miri punti sperimentali sono allineati fra di

loro, o meglio quanto la mia retta di calibrazione approssima i punti sperimentali. Allora pcr

competitiva può essere utilizzata sia come metodo quantitativo che come metodo semi-qnt, a volte

può essere noioso e anche costoso fare una retta di calibrazione perché vengono svolte usando dei

materiali certificati, quindi si è estratto il dna da farine certificate contenenti 0.5/1/2/10% di soia

transgenica, questo materiale certificato è molto costoso, soprattutto se si fanno analisi di routine,

per cui ai fini dell’etichettatura si utilizzano solo dei metodo semi-qnt, si definisce se il contenuto

transgenico è sopra o sotto una certa soglia legale, normalmente quando hop un formato semi-qnt

per la pcr competitiva? Invece di fare una vera e propri curva di calibrazione si scelgono di fare 3

pcr competitive partendo dal dna estratto dal materiale certificato che sta sopra e sotto alla soglia

legale, in questo caso 0.1/0.5/1/2 quindi si avranno anche in questo caso dei rapporti di intensità, è

68

chiaro che là dove ho un materiale certificato a 0.1% ottenuto in dna transgenico ho la banda del

targhet piuttosto debole rispetto al competitore, al lato opposto là dove ho il 2% ho prevalente la

banda della sequenza targhet come intensità di amplificazione rispetto al competitore, poi a questo

punto ho una serie di campioni incogniti, questo è un caso reale, ad esempio in corsia 1 si può avere

una lecitina, del dna estratto da lecitina di soia, io voglio quantificare il contenuto transgenico, gli

autori dicono che è circa l’1%, i segnali di amplificazione si equivalgono e sono al punto + o – di

equivalenza, uno va semplicemente a interpolare dice questa intensità è intermedia tra 0.5 e 2,

piuttosto grossolano ma è sufficiente, nella corsia 2 c’era una farina incognita, si amplifica solo il

competitore, nella percentuale dello 0.1% c’era ancora un pochino di targhet amplificato, qui non

c’è + quindi è sotto a questa soglia e così via per tutti gli atri, c’erano dei biscotti etc. normalmente

la pcr qnt competitiva si può fare in un formato tipicamente semi-quantitativo.

Questa è la procedura quantitativa non semi quantitativa di quantificazione basata sulla pcr qnt:

anche in questo caso di costruisce una curva standard con analisi densitometrica, si vedono i picchi

di lettura dell’intensità in scala di grigio delle 2 bande, si vede il punto di equivalenza quando si

hanno 2 picchi =, il laser legge la scala di grigio, su gel alcune bande non si devono ma il laser lo

legge, quando sono pari vuol dire che c’è il punto di equivalenza cioè hanno la stessa intensità, non

è detto che tu abbia direttamente il 50%, cioè la curva di calibratura te la costruisci tu, dipende

dall’efficienza di reazione e da come è stata costruita la curva di calibrazione, da come sono stati

costruiti i primer, delle volte tu cambi i primer magari usando gli stessi standard il punto di

equivalenza cambia, c’è il 50% in teoria di copie, ma non è detto che ci sia il 50% di contenuto in

dna transgenico, quindi questa è la versione qnt vera e propria, si fa una retta poi uno va a leggere

nel campione incognito e co amplifica, *** quando si va a costruire una curva di taratura di questo

tipo si amplifica una qnt costante di standard in questo caso 0.5 femto moli contro una qnt costante

di dna 500 nano grammi, ma al cui interno ci sono percentuali diverse di dna transgenico e quando

voi andate a qnt il contenuto ogm in un dna estratto da una matrice incognita i rapporti tra la qnt di

standard e di dna devono essere sempre costanti e corrispondenti a quelli che si sono utilizzati con

la curva standard. Come tutti i metodi ha dei limiti, innanzitutto ha un ridotto range dinamico,

ridotto anche se confrontato con la real time, in genere è limitato a rapporti di intensità tra

amplificato standard e amplificato del dna nativo, quindi della sequenza transgenica che va da 1:10

e da 10:1, cioè la lettura densitometrica è basata su una lettura di differenza di scala di grigi, in

genere anche i buoni densitometri non riescono a percepire una differenza superiore al 10X, per una

questione di curva si saturazione del segnale. Quindi la differenza di intensità tra le bande in genere

è compresa intorno ai 10X, è necessaria la costruzione di uno standard per ogni sequenza che deve

essere qnt, ci vuole un competitore interno e quindi si deve ogni volta farsi quel plasmide, poi

69

vedremo anche un altro modo di costruire lo standard. Si deve garantire una stessa efficienza di

amplificazione tra targhet e competitore, quindi occorre che abbiamo + o – la stessa dimensione,

l’abbiamo visto come si ottiene introducendo la cassettina di 40 e 80 pia di basi, però spesse volte

l’efficienza di reazione non dipende soltanto dalla lunghezza, è chiaro che se costruisci uno

standard lungo 200 paia di basi, la mia sequenza targhet è di 50 o 100 la mia sequenza del

competitore verrebbe amplificata molto + difficilmente rispetto alla sequenza nativa a parità di

primer, però si deve tener conto anche che la differenza di efficienza di amplificazione può

comunque risiedere nel fatto che la sequenza targhet è inserita in un contesto di dna genomico e non

libera come il competitore perché ovviamente il mio pezzettino deve cercare all’interno di tutte le

sequenze, all’interno spesso di una struttura tridimensionale perché ci dimentichiamo sempre che il

dna non è lineare, questo è un effetto tipicamente matrice anche se non è del tutto corretto, questo

invece è un errore sistematico cioè la quantificazione del dna del competitore è molto meno

soggetta ad errori di quella del dna della sequenza targhet, quei 500 nano grammi di dna che metto

dentro al mio prodotto di pcr spesse volte non sono esattamente 500 nano grammi, mentre quei 0.5

femto grammi di standard che co amplificano quasi sempre sono misurati correttamente perché è

molto è facile con l’0analisi in assorbimento op fluorimetrica quantificare un plasmide perché si

purifica bene attraverso le colonnine rispetto alla quantificazione di dna che mi viene estratto da

matrice e che mi contiene tutta una serie di fattori, altre sostanze che possono alterare la lettura o

fluorimetrica op allo spettrofotometro, spesse volte l’errore sistematico risiede nel quanto dna

transagenico da analizzare metto dentro, lo standard invece quasi sempre si riesce a qnt

correttamente perché è molto + facile misurare la concentrazione di un plasmide sciolto in acqua,

poi ci sono una serie di procedure di analisi post-amplificazione, abbiamo visto che oltre

all’amplificazione si deve fare un gel, un elettroforesi etc. poi si deve anche fare una analisi

densitometrica, acquisire le immagini, darle in pasto a un analizzatore di immagini che legge una

scala di grigi, comunque c’è sempre da fare una serie di manipolazioni e quindi abbiamo dei limiti

di tempo, le bandine sono spesso separate da un numero ridotto di paia di basi quindi l’elettroforesi

viene spesso fatta in condizioni particolari o n corsa raffreddata a +4° (applicando differenzie di

potenziali alte tenderebbe a fondere il gel) oppure usando dei gel particolari che richiedono corse

lente con differenze di potenziali basse perché + fai correre in fretta e meno hai risoluzione

ovviamente. Vantaggi della pcr competitiva: la presenza di un inibitore nella reazione di pcr può

essere rilevata tramite co amplificazione dello standard interno, in presenza di un dna relativamente

sporco co amplificate in quel dna sporco anche il dna plasmidico, il che significa che se ci sono dei

polifenoli nel dna estratto dalla matrice anche la vostra sequenza del plasmide ne risentirà nel

processo di amplificazione, quindi se si amplifica poco lo standard probabilmente c’è un problema

70

di inibitore, il fatto di co amplificare lo standard mi fa da controllo nel caso la reazione venga male

o con una bassa efficienza perché mi dice che probabilmente ci sono dei polifenoli in mezzo o

contaminanti e si deve migliorare il processo di estrazione dalla matrice; è possibile limitare i falsi

negativi procedurali perché almeno lo standard interno deve essere amplificato, noi amplifichiamo

una sequenza targhet transgenica da un dna incognito, se si facesse solo l’amplificazione del dna e

viene negativa non sappiamo mai se non c’è il dna transgenico o c’è e ci sono inibitori che danno

fastidio, quindi lo standard interno deve sempre venire se non ci sono problemi legato all’effetto

matrice. poi qualora ci sia anche un effetto di inibizione quindi che la reazione di amplificazione

non venga con eccessiva efficienza pari al 100%, ma si amplifica anche male, ma almeno da vederla

su gel perché si deve poi fare una analisi densitometrica e noi non importa nulla perché quello che si

deve leggere è un rapporto tra intensità di segnale. L’uso di uno standard fornisce indicazioni sulle

performance di pcr limitando le differente inter laboratorio, sostanzialmente controlla gli errori di

tipo sistematico perchè se prendo gli stessi standard e faccio una curva di calibrazione quindi mi

leggerà un certo rapporto di analisi densitometriche e gli stessi standard li faccio analizzare da un

altro laboratorio in teoria se i 2 laboratori lavorano bene devo vedere per ogni punto di calibrazione

i 2 picchi esattamente identici in un laboratorio rispetto nell’altro, cioè i rapporti che leggo per

ciascun punto di calibrazione fra standard interno e calibratore dovrebbero essere identici nei 2

laboratori se lavorano alla stessa maniera, se uno mi leggono rapporti diversi c’è qualcosa che non

va, tipicamente a parità di punti da calibrazione vedete se se ci sono, *** un laboratorio fa

l’estrazione correttamente mentre un altro fa un errore di estrazione cosa ti aspetti di vedere se

analizziamo lo stesso punto di calibrazione? Quello che ha estratto bene avrà un rapporto ad

esempio 1:1 cioè stessa intensità di segnale, l’altro che ha estratto male ci saranno dei rapporti

diversi prevarrà lo standard. *** come faccio a discriminare i 2 metodi, cioè i 2 errori, si possono

aver fatto 2 errori, 1. ho estratto male nel senso che ho un dna sporco, 2. ho estratto male, ho usato

un fenolo acido perché vecchio che mi ha degradato il dna, come vi aspettate che siano i 2 segnali

nei 2 casi nella pcr competitiva? Come riesco a capire dove è l’errore? Il dna vecchio o è sporco?

Potrei valutare la purezza del dna, ma si vede già in base ai rapporti di intensità, posso leggerlo,

oppure? In teoria se il dna è sporco nella co amplificazione standard- dna transgenico i polifenoli/i

polisaccaridi inibiscono sia la reazione dello spettro di amplificazione dello standard sia quello del

dna quindi avrò una riduzione del segnale di entrambi rispetto a lei che ha lavorato bene, magari il

rapporto fra i segnali è identico di intensità ma io leggo meno, mentre se il dna è degradato avrò un

alto segnale dello standard e un basso segnale di amplificazione della sequenza nativa transgenica,

del 35S perchè degradato. Altri vantaggi: richiede una strumentazione minima: pcr, camera

71

elettroforetica, densitometri che è uno scanner economico, inoltre ha costi di reagenti piuttosto

contenuti.

LA DOPPIA PCR QUANTITATIVA è una versione migliorata della pcr competitiva, in questo

caso permette di stimare la percentuale di dna di quel gmo sul totale del dna dell’ingrediente gmo e

non gmo, sono stati validati diversi metodi ma come solito i primi furono messi a punto con la soia

round up e con il mais bt nelle sue varie versioni. In che cosa consiste? Consiste in una

quantificazione del dna transgenico comparabile alla singola pcr quantitativa, quindi avremo una

amplificazione della sequenza transgenica + uno standard interno, 2. una quantificazione sempre per

pcr competitiva di una sequenza di un gene di riferimento house keeping + il suo standard interno

sostanzialmente la combinazione tra 2 pcr competitive. Si dà come risultato la proporzione

dell’ingrediente di gmo sul totale dell’ingrediente dna di mais/dna di mais è calcolato in base al

rapporto fra il n. di copie di dna transgenico sul n. di copie di gene di riferimento. La pcr

campetitiva è indicata per la valutazione dei campioni particolarmente processati, per un

trattamento chimico-fisico possono ridurre l’amplificabilità del materiale transgenico, in sostanza

non si fa altro che normalizzare il n. di copie transgeniche sul numero di copie di un gene endogeno

e questo consente di compensare gli errori dati dalla scarsa qlt del dna estratto perché parzialmente

degradato, dalla ridotta amplificabilità perché c’è un effetto matrice e di compensare eventuali

errori sistematici; sostanzialmente la pcr doppia competitiva consente in parte di correggere molti

dei possibili errori che abbiamo nella pcr competitiva singola, cosa si fa? Non si fa altro che fare 2

reazioni di amplificazioni competitiva semplice, anche in questo caso avremo la sequenza targhet e

competitore, in questo caso il competitore ha dimensioni ridotte rispetto alla sequenza targhet, qnt

costante del competitore, qnt variabili con un calibratore, anche in questo caso sia per la curva di

quantificazione gmo che per il gene house keeping la curva di calibrazione con un punto di

equivalenza preciso con la stessa intensità e in questo caso interpolato, una volta determinato il n. di

copie in un campione incognito sui 500 nano grammi di dna amplificato si troverà una certa qnt di

gmo in base alla curva di taratura, in questi 500nano grammi si valuterà la presenza di un tot di

numero di copie di gene house keeping, gene che comunque deve essere presente perché è un gene

dell’organismo ospite, il contenuto di gmo può essere calcolato usando la seguente formula:

rapporto fra n. di copie di transgene e numero di copie del gene house keeping moltiplicato per 100,

questa quantificazione relativa quindi n. di copie di gmo su numero di geni house keeping permette

di compensare a tutti quegli errori che abbiamo visto. Questo è sempre un esempio sperimentale:

cosa sono andati a determinare? La doppia pcr competitiva normalizzando su un gene house

keeping consente di quantificare correttamente le matrici trattate dal punto di vista chimico-fisico,

qui hanno fatto una pcr competitiva per andare a valutare la percentuale di mais bt in farina e un

72

prodotto derivante dalla farina che è la polenta, quindi farina non trattata e nella polenta, in questo

caso hanno fatto una pcr doppia competitiva quindi hanno amplificato tratto transgenico bt + il suo

standard + la zeina, quindi hanno quantificato sulla percentuale di dna amplificato qui dentro quante

copie di geni zeine c’erano e in base a quella hanno calcolato il percentuale di bt.

Hanno fatto 3 esperimenti di quantificazione: amplificazione mais bt e zeina e rapporto relativo

percentuale, con del bt certificato 8.8%, 9.8% e 10.3%, poi sono andati a vedere nella polenta,

hanno estratto il dna nella polenta, hanno co amplificato la stessa qnt di dna 500 nano grammi + i

vari standard e hanno qnt il rapporto relativo in numero di copie e hanno visto che nel caso della

polenta nelle varie repliche dove il materiale certificato era 8.8 nella polenta loro lo quantificano 3.2

con una pcr semplicemente competitiva e il recovery è quanto hanno recuperato della percentuale

3.32 fatta in 2 repliche, anche qua hanno usato standard diversi, poi hanno ripetuto lo stesso

esperimento facendo una doppia competitiva cioè tenendo conto anche del numero di copie del gene

house keeping della zeina perché in questo modo si corregge l’errore dovuto all’eventuale

degradazione del dna e hanno espresso a seconda del trattamento termico 0 minuti. 5 minuti.

10/30/60 minuti di cottura della polenta prima di estrarre il dna, quanto era la percentuale di bt che

riuscivano a recuperare, quanto c’era corrispondenza rispetto allo standard, tempo zero cioè niente

trattamento termico c’è un 100% cioè tutto, man mano trattano 5 minuti e 10 comunque riescono a

quantificarlo quasi correttamente, per trattamenti termici molti spinti hanno un recupero vicino al

150% cioè quantificano di +, questo perché quando fai dei trattamenti termici prolungati, la qnt di

dna è così piccola che l’errore di calcolo è molto ampio, un conto è quantificare la percentuale di bt

quando si ha un dna poco degradato, quindi amplificabile, un altro è tentare di misurare qualcosa

danneggiato, l’errore di quantificazione è moto grande, infatti abbiamo una deviazione standard

molto grande. Questo solo per dire che facendo una doppia competitiva almeno per trattamenti

termici non molto elevati 5/10/30 minuti c’è una quantificazione corretta.

Come abbiamo visto nella pcr doppia competitiva il principale limite era il basso trou put, proprio

perché richiede dopo il processo il amplificazione tutta una serie di procedure come l’analisi

densitometrica, il numero di campioni che si possono analizzare per unità di tempo è relativamente

basso, quindi questa metodica era stata introdotta agli inizi del 2000 ma poi con l’incremento della

richiesta di questo tipo di analisi ha dovuto seguire un adeguamento di tipo biotecnologici,

relativamente recente perché questa modifica del protocollo ha reso la doppia competitiva a elevato

trou put ed è stata introdotta nel 2005, adesso stanno uscendo numerosi kit.

La vediamo nel dettaglio: come dice la stessa sigla, elevato trou put pc pcr è una metodica che

consente di processare un elevato numero di campioni, che cosa è che differenzia l’elevato trou put

dalla normale pcr competitiva e cosa le accomuna? Innanzitutto non è possibile eliminare le 2 co

73

amplificazioni, cioè l’amplificazione del gene targhet e del suo competitore e la co amplificazione

del gene house keeping col suo competitore. Cambia la tipologia di saggio: il saggio si svolge in

micro piastra e di conseguenza si eliminano lo step di separazione elettroforetica e nel contempo si

introduce il tempo per l’analisi e si aumenta il numero di campioni processabili in parallelo, questo

non significa solo che faccio più analisi nell’unità di tempo, ma soprattutto che posso fare +

repliche nello stesso saggio e di conseguenza riesco ad avere maggiore sensibilità. Per ogni co

amplificazione in realtà sono necessarie 2 reazioni di rilevazioni da svolgersi in una coppia di

pozzetti, identiche uno per il gmo e l’altro per il gene house keeping, questo tipo di analisi si

realizza attraverso un processo di ibridazione molecolare che si basa sull’ibridazione di singoli

filamenti, la metodica inizialmente è stata testata per la determinazione della soia round up ready e

si è scelto gene targhet per la determinazione delle copie gmo ovviamente il 35S e come gene di

riferimento la lectina. Quindi da tenere presente: tutta la separazione elettroforetica, co

amplificazione costante, separazione elettroforetica., analisi densitometrica eliminata dal saggio in

micro piastra. Innanzitutto come hanno costruito gli standard? Abbiamo visto che lo step di co

amplificazione non è eliminabile, lo step di co amplificazione prevede l’utilizzo di standard interni,

un metodo per la costituzione degli standard lo avevamo già visto per la doppia competitiva

tradizionale, questo è un metodo che viene utilizzato per la maggiore, è basata esclusivamente sulla

pcr, non prevede l’utilizzo di tecniche di clonaggio, sostanzialmente da dove si parte? In questo

caso lo standard ha dimensione identica rispetto all’amplificato che deriva dal gene che si vuole

quantificare, 35S transgene o lectina per il gene house keeping, mentre precedentemente si

introducevano delle cassette da 40/80 nucleotidi, in questo caso gli standard hanno la stessa

dimensione rispetto agli amplificati delle sequenze targhet però divergono non come dimensione,

ma proprio come sequenza nucleotidica nella porzione centrale e questa divergenza di sequenza

permette di distinguere all’interno di ciascuna co amplificazione quale è l’amplificato relativo alla

sequenza targhet 35S-lectina e quale è l’amplificato relativo allo standard interno, che metodi si

utilizza? Il metodo dei mega primer, è un metodo che viene utilizzato per la mutagenesi in vitro, è

una tecnica molto utilizzata se si vogliono introdurre mutazioni puntiformi, introdurre codoni di

stop, per aprire un ORF, usati molto nella biologia molecolare, innanzitutto come si costruiscono gli

standard basati sul metodo dei mega primer *** ? step uno si amplificano le sequenza native per il

35S e la lectina, quindi per i geni targhet che si vogliono quantificare: transgene e gene house

keeping utilizzando dei primer esterni, i prodotti dio pcr a sua volta si utilizzano come stampo per

costruire gli standard, quindi volete costruire uno standard sulla lectina-35S? Innanzitutto ne

amplificate una porzione, secondo step¨per ogni standard si ripete una procedura che permette la

realizzazione di 3 amplificazioni successive, nel primo step si svolgono 2 amplificazioni, come si

74

svolgono? Utilizzano come temprato questo prodotto di pcr che viene riamplificato utilizzando nella

reazione A 2 primer uno reverse e uno forword, questo forword ha una codina di sequenza arbitraria

rispetto alla sequenza nativa che non annida u questa filamento, lo stesso si fa sulla seconda

reazione di pcr in cui abbiamo un primer forword che annida perfettamente e un primer reverse che

anche in questo caso ha una sequenza 3’ che si annida completamente e una sequenza arbitraria

invece diversa dalla sequenza che trovavano nella pcr di stampo, queste 2 sequenze rossa e nera

sono complementari fra loro, quindi si vengono a formare 2 prodotti di pcr che hanno come

caratteristica quella di avere estremità identiche. I 2 prodotti di pcr con le estremità identiche, li

abbiamo fatti correre su gel, purificati da gel e quantificati, quindi vengono miscelati in qnt equi

molare e sottoposti a una reazioni di pcr a 40 cicli dove si omettono i primer in cui abbiamo uno

step di denaturazione, uno di anniling e uno di estensione però mancano i primer, all’interno di

questa reazione succede che ciascun filamento funge da primer per la sintesi del filamento

complementare se l’estensione è possibile, quindi abbiamo prodotto della pcr A e pcr B con

estremità complementari, questi vengono denaturati quindi vengono aperti, poi vengono rinaturati

alla sua temperatura di anniling, nella fase di rinaturazione abbiamo 2 possibili combinazioni, una

volta raggiunta la temperatura di 52° si ha l’anniling, poi la porto a 52°, ma la taq polimerasi non è

in grado di estendere questa estremità perché non espongono il 3’ e non trova il filamento

complementare su cui copiare quindi questo accoppiamento non dà origine a nessun tipo di

estensione, è abortiva, mentre l’altro accoppiamento comincia a estendere, quindi aumenta il

numero di copie, chiaramente avremo una efficienza di amplificazione che è la metà rispetto a una

pcr normale perché metà dell’accoppiamento è abortivo però alla fine dei 40 cicli si accumulerà

questo prodotto. Vediamo questo prodotto: la sequenza centrale è diventata la sequenza che

abbiamo deciso noi in base all’estremità rossa e nera che avevamo selezionato nei mega primer,

l’estremità rossa e nera l’avevamo decisa noi, questa sequenze che troviamo nella porzione centrale

è diversa dalla sequenza nativa che noi abbiamo sostituito attraverso questo stratagemma, quindi

questo standard è = al prodotto di pcr che noi potremmo ottenere dalla sequenza nativa tranne che

per la porzione interna. Si chiamano mega primer perché sono lunghi circa 39 paia di basi, un

primer normale è lungo dai 18 ai 23 paia di basi, questo è lungo 39 perché dovremmo dare una

porzione che trova complementarietà nella sequenza nativa + una porzione che decidiamo noi,

quindi è lungo 39 ed è per questo che si chiama metodo dei mega primer. A questo punto non

possiamo usare lo standard così come è, ma per poterlo usare nel saggio in micro piastra abbiamo

bisogno che un estremità di questo filamento sia marcato con biotina, come si fa? Semplicemente

una volta ottenuta questa reazione di pcr, fatta la pcr, fatta correre, ancora una volta trovo solo

questa banda, la purifico da gel e poi la utilizzo come stampo per una terza reazione di pcr in cui

75

utilizzo dei primer leggermente + interni rispetto a questa sequenza è tipo l’F, l’F però è marcato

terminalmente con biotina, quindi faccio una amplificazione, ottengo un prodotto leggermente +

corto però ha l’etremità 5’ marcata con biotina, questo è in realtà il mio standard cos’ì come lo

utilizzerò, se io prendo E ed F e vado ad amplificare la stessa sequenza partendo dal dna genomico

otterrò una sequenza = a questa, ma che si distingue per la porzione centrale. Abbiamo quindi una

sequenza = a quella nativa marcata con biotina e che si differenzia per una porzione centrale H

rispetto a G, la porzione H l’abbiamo introdotta tramite l’etremità 5’ dei mega primer, una sequenza

arbitraria che abbiamo deciso noi. Questa marcatura con biotina servirà poi per assemblare questo

sandwich molecolare a questo stato, questo standard marcato con biotina.

Per la realizzazione del mio saggio molecolare ho bisogno di trattare la mia piastra in modo tale che

in ciascun pozzetto sia presente una sonda che mi riconosca la sequenza nativa e la sequenza

standard, abbiamo detto nel caso di amplificazione io per ogni co amplificazione dovrò avere 2 line,

una line che mi contiene una sonda per riconoscere il gmo, la sequenza nativa e una sonda che mi

riconosce il competitore della sequenza nativa e lo stesso per la sequenza del gene house keeping,

un targhet che mi riconosca questo amplificato qui se lo vogliamo vedere si gel e da un’altra sonda

che mi riconosca questo amplificato qui, come faccio a piazzare le sonde dentro a quella piastra lì?

Sostanzialmente il complesso sonda questo pezzo bsa (bsa è la proteina body sion albumine) +

verde + il nero, questo pezzo viene chiamata sonda universale ed è formata da bsa + una codina di

poli T che viene ancorata al pozzetto e che mi aggancia la sonda vera e propria che mi riconosce il

singolo filamento standard o sequenza nativa, comunque vediamo come si fa questo pezzettino e

cominciamo dalla sonda universale, abbiamo detto che la sonda universale è costituita da bsa che è

una proteina che avrà dei residui di lisina quindi con dei gruppi funzionali amminici esposti, liberi a

cui noi dobbiamo agganciare una codina di oligo di T, come facciamo? Usiamo questa sostanza

reattiva, questo cross linking che è usatissimo in biologia molecolare che è una lunga catena di

carbonio con 2 gruppi funzionali, cosa si fa? In una prima reazione si fa reagire questo gruppo

funzionale del cross linker che si chiama PS3, ma ce ne sono diversi e fa si che il gruppo amminico

viene agganciato a questo gruppo funzionale del cross linker, quindi da una parte abbiamo l’absa,

dall’altra dobbiamo mettere la codina di oligo di T, allora non si fa altro che sintetizzare in vitro una

serie di filamenti e all’estremità 5’ il primo oligonucleotide di questa serie in direzione 5’3’ invece

di avere un guppo fosfato e un gruppo ossidrile ha un altro gruppo amminico, questo mi permette di

ancorare tutto questo blocco qui all’altra estremità del cross linker in modo tale da avere una

struttura: bsa, gruppo amminico, cross linker, l’altro gruppo funzionale collegato all’oligo di T,

tutto questo complesso che sui chiama sonda universale viene ancorata al fondo del pozzetto per

semplice assorbimento fisico cioè il materiale di cui è costituito la piastra che è polistirene è carico,

76

la bsa la proteina è carica, per interazione ionica se metto tutto questo blocco all’interno del

pozzetto, all’interno del pozzetto mi viene ancorata tutta la struttura quindi io in ognuna delle 4 line

della micro piastra metto questa struttura, per questo si chiama universale perché in ogni pozzetto

ho questo tipo di struttura, poi cosa è che per ogni line mi dà la specificità? È il fatto che tutta

questa struttura può agganciare una sonda, sonda che sarà specifica per il 35S e per il suo

competitore e per il gene house keeping: lectina e per il suo competitore, come è fatta la sonda? La

sonda la costruisco io di sintesi, la costruisco in modo che sia complementare alla sequenza centrale

che differenzia lo standard dall’amplificato nativo G da H, una volta sintetizzata questa sonda uso la

D-terminal transferasi (cioè faccio una reazione di pcr che si svolge a 37° in cui metto il mio primer

il presenza di D-terminal transferasi) che in presenza di DT-ATP la D-terminal transferasi mi

attacca l’estremità 3’ (è un primer) tutta la serie di nucleotidi AAAAAAA, i residui di poli

adenosina quindi alla fine avrò un prodotto: sonda che è complementare alla regione centrale e la

coda di poli A, e questo lo farò per la sonda che mi riconosce la porzione centrale dello standard e

la sonda che è complementare della sequenza nativa e lo faccio sia per il 35S che per la lectina e lo

vado a mettere nelle 4 line, in modo tale che ogni line di quella micro piastra mi riconosca gli

standard e i geni nativi, perché viene ancorata, trattenuta al fondo del pozzetto? Perché ovviamente

ci sono le codine di poli T, questa struttura che io ho precedentemente agganciato in modo tale che

all’interno di ciascuna line mi riesco a riconoscere un targhet specifico. Vediamo come funziona il

saggio delle prove: innanzitutto immaginiamo di estrarre il dna genomico e di aver già preparato i

relativi standard, quindi di ottenere una sequenza nativa per ogni standard, di co-amplificarli

contemporaneamente, a questo punto si costruisce tutto il sistema sonda: bsa, cross linker, sonda,

codino oligo di T e coda di A appaiate, poi ho nei miei prodotti di pcr queste 2 co amplificazioni:

standard e sequenza nativa, la denaturo cioè apro il doppio filamento trattando a 95°, poi non faccio

altro che applicarli al pozzetto e cosa succede? Quindi ho ancorato la parte solida universale, poi ho

ancorato la mia sonda specifica, poi ho denaturato il mio prodotto di pcr e l’ho messo dentro,

singolo filamento biotinilato verrà agganciato a ciascuna sonda, quindi ho tutta questa struttura

assemblata con un terminale di biotina libero, questo è dato dal fatto che ho amplificato utilizzando

un primer marcato al terminale 5’ con biotina, a questo punto tratto con un complesso di

streptavidina che è coniugata a una molecola reporter che si chiama acquorina, la streptavidina

riconosce la biotina, la quorina è una molecola reporter che ha la proprietà di emettere luce in

presenza di calcio, in presenza di calcio cambia la conformazione ed emette luce la proteina perché

cambia la sua situazione energetica, cambia la struttura tridimensionale, una volta che ho applicato

streptavidina coniugata ad acquolina faccio i dovuti lavaggi per togliere tutto l’eccesso che si è

legato, aggiungo un tampone contenente calcio come TRISHCL 25 millimolare di calcio cloruro e

77

si emette luce, l’intensità del segnale luminoso è proporzionale alla qnt di singolo filamento

catturata sul fondo del pozzetto, + amplificato ho + doppio filamento è stato trattenuto, +

streptavidina è stata legata maggiore sarà il segnale di luminescenza, quindi mi immagino una

struttura in cui man mano ridurrò il numero di copie del 35S il segnale tenderà a diminuire.

In genere quando si fanno queste cose si fanno dei controlli di cross ibridazione cioè tutto questo

sistema si basa sulla possibilità che la sonda effettivamente riconosca in maniera corretta la

porzione centrale senza che ci sia cross reattività tra i 2 filamenti: tra G e H, anche se la disegnamo

noi non siamo sempre sicuri di questo, può darsi che per qualche motivo di struttura tridimensionale

etc. comunque una sonda targhettata sulla porzione H tenda a riconoscere anche la porzione G, ***

cosa si fa normalmente? Che cosa sono i test di cross ibridazione *** ? sono adottati per verificare

la specificità della sonda, si verifica che la sonda specifica per lo standard non ibridi con la

sequenza del gene da quantificare (35S di lectina) e come si fa? Si omette nella reazione di pcr le

copie del corrispettivo standard interno e si vede se il segnale è rilevato verrà solo dalla

amplificazione del gene targhet oppure no, lo steso se si vuole verificare se la sonda molecolare per

il gene da quantificare 35S di lectina non ibridi con la sequenza dello standard, classicamente questi

sono i controlli che vengono fatti, nel controllo 35S lectina negativo nella pcr competitiva si

omettono i templati , dna genomico e copie prefissate nello standard sostanzialmente sono i bianchi,

e nessuna delle 2 sonde fornisce il segnale, non fornisce segnale quello per il 35S e nemmeno per il

suo standard, e lo stesso quando ometto come templato sia il dna che il relativo standard non si

amplifica nulla tanto è vero che la sonda per lo standard non dà segnali in luminescenza e la sonda

per la sequenza targhet non dà segnali in luminescenza, praticamente zero, poi posso dare questo

tipo di controllo: 35S e lectina in cui si omettono le copie dello standard e solo la sonda del gene

deve dare del segnale, il segnale della sonda che riconosce lo standard interno che io ho omesso

deve dare zero. L’ultimo controllo che si fa quindi si omette il dna genomico, si ha solo la sonda

standard specifica e riconosce la sequenza targhet e il segnale deve essere negativo perché se io ho

omesso il dna genomico mentre è presente lo standard avrò un segnale solo da questa sonda mentre

qua non avrò nulla. La sonda della lectina non è che funzioni molto bene, nell’altro controllo quello

che abbiamo visto precedentemente un minimo di segnale c’è, significa che questa sonda mi

riconosce qualcosina, sono controlli che normalmente si fanno e sono i controlli di cross reattività,

*** come si fanno, cosa è la pcr competitiva, come si assembla, come si costruisce lo standard e

come si fanno i controlli di cross ibridazione: controlli per i bianchi, controlli di specificità per una

sonda, controlli di specificità per la sequenza standard.

A questo punto abbiamo il nostro metodo ma come si costruisce la curva di calibrazione? Da tenere

conto che in questo tipo di analisi si devono valutare il campione incognito, il numero di copie di

78

transgene, il numero di copie di gene endogeno, il rapporto di numero di copie del transgene fratto

numero di copie di gene indogeno per cento mi dà la percentuale in contenuto di gmo, quindi cosa

si fa? Si fanno 2 co amplificazioni in cui nella curva di calibrazione io metto un numero noto di

copie di prodotti di pcr derivato dall’amplificazione del 35S nativo, quello che mi amplifica la

regione G e un numero costante di copie di standard che ha la sequenza centrale H, qui lo hanno

fatto con diverse co amplificazioni, diversi punti che vanno da 8.000 fino a 10 copie di 35S con la

qnt standard di 1.000 copie costante per tutte le amplificazioni, la stessa cosa si fa per il gene house

keeping: per la costruzione della curva di calibrazione si fanno diverse reazioni di pcr di co

amplificazione poi di co amplificano un numero diverso di sequenze native, in questo caso la lectina

perché è il gene house keeping, un numero costante invece di copie dello standard interno u qui

vanno da 16.000 a 5.000 mentre le copie standard interno sono 1.000, poi come avete visto nella

semplice prc competitiva tradizionale, nella doppia competitiva, ovviamente man mano vanno a

ridursi il numero di copie della sequenza nativa, in questo caso 35S, siccome il primer che

amplificano questi prodotti sono identici competono tra di loro e man mano cala il 35S emerge il

segnale del competitore, lo stesso succede per la determinazione del numero di copie della lectina,

cioè cala il numero di copie della pcr lectina e aumenta il segnale di quello dello standard interno

che è sempre costante come numero di copie, voi immaginate di prendere queste 2 co

amplificazioni, di trattarle a 95° e di seminarle all’interno della vostra piastra, sul fondo della

piastra è messa una sonda che mi riconosce la porzione G della sequenza nativa, sul fondo della

piastra è stata ancorata una sonda che mi riconosce la porzione H dello standard interno, quello che

fa la sonda siccome + prodotto di pcr si è accumulato + verrà trattenuto, + molecole di streptavidina

si legano + acquorina c’è, maggiore sarà il segnale luminometrico, di conseguenza l’intensità della

banda in elettroforesi verrà tradotta come intensità di banda come segnale luminometrico, se

l’intensità di questi segnali vengono definiti come L standard interno avrò un segnale in questi

pozzetti che decresce e un segnale che in questi pozzetti che cresce e ovviamente anche nell’altro,

voi non fate altro che costruire 2 curve di calibrazione in cui in ascissa voi mettete il numero di

copie che avete messo dentro in ogni co amplificazione di sequenza nativa 35S o lectina, in ordinate

mettete il rapporto che c’è tra questi 2 segnali, tra L e LDS, man mano aumentano il numero di

copie della sequenza 35S ovviamente + forte sarà il segnale, per la lectina è = so anche in questo

caso quale è il numero di copie presente in ogni co amplificazione, leggo il rapporto di segnale fra

quello dato dalla sonda che mi ha trattenuto la sequenza nativa e quello che mi ha trattenuto lo

standard interno, standard interno numero di copie costante, gene astina numero di copie calante e

anche qui faccio la curva e ottengo la curva di calibrazione, allora ho un campione incognito di dna

estratto di cui non conosco la percentuale di gmo, estraggo il dna, vado a fare queste 2 co

79

amplificazioni alla cieca, magari con diverse diluizioni di concentrazioni del dna, almeno una di

queste diluizioni come segnale L/ILD cade all’interno di questa curva, quindi sarò in grado di

determinare per il 35S il numero di copie e per la lectina il numero di copie, per ricavare la

percentuale in gmo numero di copie di questo diviso per questo per cento.

Tutti i laboratori che forniscono una risposta certificata con valore legale sono obbligati ad essere

sottoposti a ring test cioè c’è l’ente europeo che manda dei campioni ignoti e poi ti fa fare la

determinazione per verificare se tu come laboratorio stai lavorando bene, poi l’ente confronta i vari

dati fra loro, lo stesso lotto di campioni viene slittato e mandato in laboratori diversi, poi tutti i

laboratori mandano una risposta in cui c’è il valore vero quello dato dall’ente, poi la distribuzione di

tutti i valori dei laboratori, poi in base a quello il laboratorio centrale calcola un certo grado di

deviazione standard, di errore, se tu stai dentro a questo errore la certificazione ti viene rinnovata,

oppure ti dicono che tu sei fuori dalla media dell’errore quindi ti viene ‘’sospesa’’ la licenza.

Nella maggior parte dei casi le analisi non ti richiedono mai il contenuto di gmo e basta, ti viene

richiesta determinazione della qnt di soia round up ready linea x, tu quantifichi esclusivamente

quella, poi in caso di dubbi puoi fare i controlli incrociati, prendendo delle sonde relativamente

generiche e calcolare quello che può essere il gmo totale e andare a vedere i singoli autorizzati e la

somma ti deve dare quello altrimenti c’è qualcosa in +. Tutti adesso stanno puntando sulla

tracciabilità, non si punta l’attenzione sul cercare qualcosa di strano, ma si dice che il nostro è fatto

così, invece di cercare il transgene si cerca la tipicità.

Qui hanno fatto semplicemente una valutazione dell’accuratezza del saggio, hanno preso farine di

riferimento specificate a contenuto di gmo noto che va da 0 al 5%, hanno estratto da 60

microgrammi di dna genomico usando un kit commerciale a colonnine per la reazione di co

amplificazione secondo quei rapporti di numero di copie di 35S lectina con numero di copie

costanti dello standard interno, 5 micro litri di reazioni di pcr sono state utilizzate in luminometrico

poi sono andati a vedere se c’era corrispondenza tra la percentuale certificata e quella calcolata,

queste sono normali rette che sono utilizzate per verificare se c’è corrispondenza data dal

coefficiente di correlazioni che varia da zero a uno, ed è risultato molto accurato, un’altra cosa che

hanno fatto: sono andati a valutare la percentuale di gmo con questo metodo e quello della real time

e ancora una volta hanno cercato di confrontare i 2 metodi e hanno visto che c’è una relativa

corrispondenza, significa che questo metodo equivale + o – alla real time, sul lavoro che troverete

allegato c’è scritto che hanno saggiato materiale certificato lavorato tipo biscotti, mangimi e anche

lì hanno ottenuto una buona corrispondenza.

Quali sono i vantaggi della doppia pcr competitiva ad alto trou put? Abbiamo visto l’elevata

sensibilità grazie al metodo luminometrico nel senso che in analisi di densitometria voi potete non

80

vedere la bandina su gel però la stessa pcr saggiata col metodo luminometrico dà l’emissione di

luce, vi dice guardate avete un amplificato e riuscite a quantificarlo, poi altro vantaggio versabilità

perché la costruzione delle sonde e degli standard è adattabile a qualsiasi targhet sono semplici

reazioni di pcr dove vengono sintetizzati dei primer, non si usano ne vettori, né trasformazioni

batteriche, hanno elevato trou put, si fanno in micro piastra e soprattutto a parte il numero dei

campioni il formato della micro piastra consente una procedura di automizzazione, un robot che fa

tutte le analisi in automatico, poi economicità si utilizzano dei reagenti comuni, si utilizzano dei

nucleotidi, si fanno delle pcr a basso costo, non s usano anticorpi coniugati con enzimi tipo la

perossidasi che sono molto costosi, la strumentazione richiesta è relativamente economica, un

lumenometro costa sui 12/13.000 euro e sui 28/32.000 la real time, poi robustezza: il

riconoscimento del prodotto amplificato avviene mediante ibridazione con sonde molecolari

evitando il problema della formazione degli eteroduplici tipici della pcr competitiva tradizionale

esaminata per gel di elettroforesi di agarosio, il problema degli eteroduplici è un classico problema

che si ha quando si vanno a quantificare gli amplificati per pcr, gli eteroduplici sono dei mismatch,

nelle reazioni di pcr può accadere frequentemente che si formino degli eteroduplici in cui i 2

filamenti si appaiano e nell’economia della reazione in realtà non si ha la perfette duplicazione dei 2

targhet, ma si ha una minore efficienza, quando si vanno a vedere le 2 bande è difficile dire da che

accoppiamento sono fatti, cioè fatico a dire se gli accoppiamenti sono ibridi e siccome si misura un

rapporto di intensità tra queste bande accade che una sia sovrastimata perché magari contiene dei

doppi ibridi o viceversa, la sovrastima non avviene se il riconoscimento è basato su sonda, da tenere

presente che andiamo a quantificare quantità estremamente basse (0.9%, non 5/10% perché se

avessi soglie così alte alcuni eteroduplici non inficiano + di tanto) anche un minimo errore di

sovrastima ti può dire si è sopra si è sotto. La rilevazione luminometrico per mezzo dell’acquorina

non richiede sostanze cromogene instabili che possono generare un elevato rumore di fondo come la

diminuzione della sensibilità, nella pcr Elisa dove si utilizzava un anticorpo che riconosce una

molecola con cui era stato marcato un filamento di pcr coniugato alla perossidasi, perossidasi

degradava il cromogeno e da solubile incolore diventata insolubile colorata per cui dava un segnale,

questi cromogeno come tutte le sostanze che quando ne stacchi un pezzo cambiano il loro stato a

volte può accadere che si degradano in maniera autonoma e che diventano insolubili e colorate di

per se il che significa che nei bianche in cui non si dovrebbe avere segnale a seguito dell’auto

degradazione cromogeno hai invece un segnale minimo, se si alza il segnale del bianco significa che

ti diminuisce la sensibilità del tuo metodo cioè le piccole qnt vengono sovrapposte ai bianchi quindi

diminuisce il limite di detection. Nel caso del metodo luminometrico no perché l’acquorina è una

molecola che cambia soltanto di stato emettendo luce, anche se si dovesse degradare essendo

81

vecchio non emette luce, ma necessita di calcio e assumere una determinata configurazione che ben

difficilmente sarà quella della molecola degradata. Poi la luminescenza è meno soggetta a

interferenze da parte di sostanze contaminanti rispetto al segnale cromogeno colorato o

nell’emissione di fluorescenza, cioè segnale cromogeno voi immaginate una perossidasi che dà un

colore giallo rosso intorno a 405 nano metri, immaginate che voi estraete dna da una matrice che

contiene quel tipo di pigmento, quando si fa il saggio la pcr è colorata di rosso e avrò sempre un

segnale di rosso estremamente elevato non perché il cromogeno si degrada, ma perché è colorata di

per se la reazione di pcr e con le matrici complesse pcr di colore verde non sono poi così rare.

A volte nelle pcr Elisa non si utilizzano anticorpi coniugati con enzimi che degradano il cromogeno,

ma si usano anticorpi coniugati a sostanze fluorescenti che hanno una sensibilità abbastanza vicina a

quella della luminescenza, ma soffrono dei problemi di auto fluorescenza, se voi avete vitamine E

che è una sostanza che dà interferenza a fluoresceina, al fluorocromo normalmente usato perché la

stessa lunghezza d’onda che eccita il fluorocromo eccita anche la vitamina E, lo spettro di

emissione è parzialmente sovrapposto, quindi se c’è contaminazione di vitamina E il segnale di

fluorescenza salta fuori anche nei bianchi e di solito si fanno delle reazioni di pcr senza primer, se

salta fuori qualcosa significa che era dovuto al dna che abbiamo messo dentro non all’amplificato.

ANALISI DELLA REAL TIME: metodo di pcr quantitativa che non misura a platò la reazione di

pcr come quelli che abbiamo visto fino adesso, ma durante la fase esponenziale di accumulo degli

ampliconi, cosa è la real time è il monitoraggio della reazione in tempo reale, la reazione di pcr

viene accoppiata all’emissione di un segnale di fluorescenza tramite una molecola reporter che va

sotto il nome di reference attivo (importante la terminologia), la caratteristica del reporter varia a

seconda della chimica, lo vedremo, quindi abbiamo un segnale di fluorescenza che vi dice come

aumentano con il progressivo aumentare del numero di cicli di accumulo dei vostri ampliconi, la

fluorescenza viene normalizzata e il segnale di normalizzazione come viene ottenuto? Dividendo

per ogni campione l’intensità di fluorescenza misurata per i segnali di reference passivo, il reference

passivo è una molecola fluorescente che è presente nel baffer della reazione di pcr tradizionalmente

nella terminologia taqman è il ROX e serve per correggere gli errori di volume di reazione di

pipettamento, vediamo come funziona: quello che misura in fluorescenza non è la fluorescenza

assoluta, ma la fluorescenza normalizzata che è misurata in questo modo: immaginiamo di leggere

l’accumulo in fluorescenza col progredire dei cicli e di fermarsi a un determinato ciclo,

sostanzialmente come legge la macchina la fluorescenza? L’intensità del reference attivo cioè della

molecola reporter, della sonda taqman o del saiber green se si usa un fluorescente intercalante

diviso l’intensità del reference passivo che è il rox che è una sostanza fluorescente che non

partecipa alla reazione di amplificazione, è presente solo nel baffer di amplificazione, nel campione

82

dove abbiamo messo il templato, questo è il cosiddetto rna +, l’rna – invece è l’intensità del

reference attivo quindi sonda taqman o colorante intercalante diviso l’intensità del reference passivo

(il rox per i bianche dove non ho messo il templato, quindi questi 2 valori vengono sottratti e questo

detto RN è quello che viene posto qui, per ogni campione misuro la fluorescenza della sonda

taqman che è proporzionale all’amplificato e lo divide per il reference passivo, il rox non è altro che

un colorante fluorescente che consente di normalizzare sugli errori di pipettamento, se non

normalizzassi e vado a misurare un segnale in fluorescenza a parità di segnale può essere dovuto ad

errore di pipettamento ad esempio immaginate una reazione dove ci sono 25 micro litri e una

reazione in cui ne avete messi 20, voi misurate il segnale nei 2 pozzetti a densità diversa quindi

maggiore in quello da 25 e via via meno in quello da 20, ma non è dovuto al fatto che si è

amplificato meno in uno rispetto all’altra ma semplicemente ne ho messo 20, allora siccome nei

baffer di reazione è presente questo reference passivo, il rox che ha una determinata concentrazione

per micro litro la macchina è in grado di controllare se lì dentro ci sono esattamente 25 micro litri o

20 e di correggere se c’è discrepanza il valore della fluorescenza misurata, (l’emissione del rox, se

la differenza in fluorescenza è dovuta a una differenza affettiva di qnt di templato di copie iniziali i

2 segnali rox per i 2 campioni sarà sovrapponibile, se invece questa differenza è dovuta a errore di

pipettamento il rox lo vedo diverso, questi sono normali controlli che vengono fatti quando si legge

un segnale a fluorescenza, la macchina nel calcolare l’accumulo dell’amplificato normalizza il dato

della fluorescenza dato dalla sonda taqman con quello della fluorescenza dato dal rox, ed esempio

dice la differenza di segnale è di 2 per, allora moltiplica il segnale sbagliato per 2 correggendolo in

automatica) questo è il significato che la real time misura il segnale in fluorescenza normalizzato

per correggere gli errori di pipettamento. Ovviamente il delta rn lo fa per il campione e per il

bianco, ciascun segnale viene sempre normalizzato, rn è un segnale di amplificazione che viene

misurato ad ogni ciclo, l’intensità della fluorescenza aumenta proporzionalmente in risposta alla

crescente concentrazione dell’amplificato, il primo ciclo al quale lo strumento riesce a distinguere la

fluorescenza generata dall’amplificazione dal rumore di fondo cioè dal segnale dei bianchi viene

detto ciclo soglia o ciclo CT, quindi voi avete un segnale di amplificazione, quando questo segnale

di amplificazione supera il segnale dei bianchi che questo è costante dove non avete messo nessun

dna di controllo, questo ciclo soglia in cui il segnale della mia pcr si distingue dal bianco viene

detto ciclo soglia, poi nella curva di amplificazione c’è una fase in cui il segnale è basso, una fase di

amplificazione esponenziale, una fase di amplificazione lineare e una fase di platò, semplicemente

questa curva in questo caso viene ideata leggendo un segnale in fluorescenza normalizzata. ***

perché la curva è a platò? Vedi slide 83

Riprendiamo: la real time consente di monitorare in modo continuo l’accumulo di prodotti di pcr,

normalmente si legge un segnale in fluorescenza per cui è possibile tracciare un profilo di

amplificazione di questo tipi in cui si riconosce una fase iniziale in cui non c’è un accumulo di un

segnale in fluorescenza leggibile dalla macchina, poi inizia una fase esponenziale di accumulo di

prodotti di pcr e alla fine si arriva alla condizione di platò, in realtà il segnale che si legge è un

segnale normalizzato, cioè un segnale che viene calcolato leggendo 2 parametri che qui vengono

indicati cioè l’intensità del reference attivo/ l’intensità del reference passivo per i pozzetti

contenenti il dna, quindi con stampo – rna negativo che è dato dall’intensità del reference attivo /

l’intensità del reference passivo nei pcr non templi controll, che non contengono il dna stampo.

Principi della real time: nella pcr convenzionale alla quantificazione alla and point se non si ricorre

a particolari artifizi come la pcr competitiva o doppia competitiva dopo 30/40 cicli noi andiamo a

misurata la qnt di dna amplificato e questa qnt in realtà non è esattamente proporzionale alla qnt di

copie iniziali che sono state utilizzate come stampo, questo perché vengono ad esaurirsi i reagenti,

la taq polimerasi tende a perdere la sua capacità di sintesi in seguito a continui cicli di

denaturazione e rinaturazione a 95°/94°, comunque la legge che descrive l’accumulo della qnt di

amplificati in funzione della qnt iniziale che abbiamo usato come stampo è in questa equazione

dove Xn sono la qnt di sequenze bersaglio al ciclo N, Xo è la qnt iniziale di sequenza bersaglio in

numero di copie per 1 + E dove E è l’efficienza della reazione, tutto elevato alla N, quindi se

conosco le copie iniziali, conosco l’efficienza di amplificazione e vedremo come si fa a calcolare io

sono in grado a ogni ciclo N di calcolare teoricamente quante copie avrò partendo da un numero di

copie zero iniziali, mediamente nel caso in cui l’amplificazione sia perfettamente ottimizzata

l’efficienza di amplificazione è del 100% cioè questo fattore E equivale a 1, E varia da 1 a 0, se E

diventa zero Xn è = a Xo e non si ha nessun tipo di amplificazione, un tipico esempio di come è

possibile verificare che alla end point la quantificazione non è corretta è quella di fare diverse

repliche della stessa pcr e in genere si vede che alla end point queste repliche tendono a divergere,

mentre durante la fase esponenziale questo fascio è molto + ristretto, quindi se noi andiamo a

misurare le qnt di copie amplificate in questi cicli la misura fatta nella fase esponenziale, proprio

perché il fascio è relativamente ristretto fra le repliche è molto + affidabile rispetto alla misura fatta

alla end point, viceversa è possibile verificare come punti di diluizione diversi cioè se noi partiamo

da un campione che ha un certo numero di copie poi tendiamo a dividerlo in 2 volte, quindi 1, ½, ¼,

1/8 può darsi che nella reazione di pcr a platò si abbia una convergenza, quindi non corrisponde + la

misura di fluorescenza misurata all’effettivo numero via via a dimezzarsi di copie che avevamo

inizialmente nei diversi campioni, mentre ancora nella fase esponenziale le varie curve tendono a

distinguersi poi vedremo nel calcolo della quantificazione questo cosa prevede. Qui vengono messe

84

a confronto la quantificazione nella end point e la quantificazione in real time: immaginiamo di

estrarre da un campione a contenuto di gmo certificato che può variare da 100% fino a 0.1%, e di

monitorare in real time l’accumulo dei prodotti di pcr lungo tutto il proseguirsi dei cicli di pcr,

abbiamo il numero di cicli, per ogni reazione di amplificazione avremo queste curve sigmoidali, se

noi andiamo a misurare la qnt di pcr accumulate all’end point corrispondente + o – al 30° ciclo e

andiamo a misurare per ogni curva quanto prodotto di pcr ho, e andiamo a riportare in un grafico la

percentuale di gmo corrispondente a ciascuna curva con la qnt dei prodotti di pcr accumulati

avremo una curva di questo tipo: se io volessi usare questa curva per determinare la concentrazione

di gmo percentuale in un campione incognito misurando dopo 30 cicli i prodotti di pcr quindi

andando a misurare avendo questo dato e andando a utilizzare questo grafico, la perfetta linearità,

proporzionalità tra segnali in fluorescenza quindi accumulo dei prodotti di pcr e percentuale di gmo

l’ho sostanzialmente in un intervallo, mentre per quanto riguarda gli altri campioni il B, il C e il D

non esiste + proporzionalità, che cosa vuol dire? Che quando vado a misurare il trentesimo ciclo

all’end point sostanzialmente posso calcolare con accuratezza la mia percentuale di gmo in un

campione incognito solo quando la percentuale di gmo è compresa fra quella rappresentata dal

campione E e quella rappresentata dal campione G, quindi da 0.01 fino a 1, per quanto riguarda gli

altri campioni non riesco, in realtà questa proporzionalità mi è consentita dal fatto che alla end point

dopo 30 cicli le curve G, F ed E si trovano o all’inizio, o perfettamente in mezzo o alla fine della

fase esponenziale del processo di amplificazione, mentre gli altri campioni ormai si trovano già a

platò, questo spiega graficamente come mai noi conviene quantificare i prodotti di pcr sempre nella

fase esponenziale di amplificazione perché dopo non c’è + proporzionalità fra segnale di pcr

amplificato e percentuale di gmo o numero iniziale di copie di gmo. I sistemi RT consentono di

monitorare e quindi verificare l’accumulo dei prodotti di pcr in tempo reale e quindi consentono di

individuare la fase esponenziale in ogni profilo di amplificazione, nella real time quello che si fa è

quello di esaminare il profilo di tutte le curve di amplificazione, qui nel disegno è stato tolto un

pezzo, la parte iniziale della curva, quello che si fa è di scegliere un segnale di fluorescenza

corrispondente a un determinato accumulo di prodotti di amplificazione che viene chiamata

tresciold che è la soglia, di tracciare una retta parallela alle ascisse, qui vengono riportati il numero

di cicli di pcr, in modo tale che questa retta intersechi tutte le curve di amplificazione durante la

loro fase esponenziale, a questo punto si va a leggere a quale è il numero di ciclo di pcr che

corrisponde per ciascuna curva, il ciclo soglia viene detto CT.

Se io riporto ciclo soglia e la percentuale di gmo ho una perfetta linearità, in questo modo, nel caso

abbia un campione incognito leggere la percentuale di gmo in tutto il range dinamico della curva

quindi compresi tra gli estremi 0.01 e 100%. 85

Quello che si costruisce è una curva standard in cui si utilizza una qnt nota di dna durante il

processo di amplificazione, viene fissata una tresciold appena sopra al segnale di fondo e vedremo

come si fa, quindi si individua un CT per ciascuna delle curve di amplificazione dei nostri standard,

si riporta in una curva di calibrazione in cui deduco il relativo CT del mio campione incognito, a

questo punto non faccio altro che andare sul mio grafico e leggere a quale percentuale di gmo

corrisponde e leggo ad esempio 0.72% in questo caso.

Come abbiamo visto il fatto che noi quantifichiamo durante la fase esponenziale perché durante

questo step del processo di amplificazione l’efficienza è prossima al 100%, ancora una volta se

questa è l’equazione che descrive l’accumulo di n. di copie al ciclo N in base al numero di copie

iniziali, con efficienza pari a 1 idealmente ho una equazione di questo tipo (vedi slide), significa che

in queste condizioni la qnt di prodotto di pcr raddoppia ad ogni ciclo e si ha il massimo incremento

di fluorescenza quando si ha l’efficienza = a 1 e quindi il massimo delta rn per ogni ciclo (delta rn =

differenza di intensità) perché si ha massima produzione di templato che idealmente raddoppia per

ogni ciclo, quindi se i campioni differiscono per una qnt doppia di copie iniziale di transgene è

presenza una differenza in CT pari all’unità. Qui iene fatto un esempio discreto: se Xo cioè il

numero di copie di partenza del mio gene targhet che può essere il mio transgene, il mio 35S, la

tresciold la fisso con intensità di segnale = delta rn a 32 copie, il numero di copie per ogni ciclo se

l’efficienza è = a 1 sarà dato da una formula, quindi sostanzialmente se io parto da un campione di

stampo con 8 copie e il successivo campione lo diluisco di 2 volte avrò 4 copie iniziali, di 4 volte 2

copie iniziale e poi vado a svolgere la mia reazione di pcr e vedo a vedere a quale ciclo il numero di

copie che ottengo supera la tresciold, abbiamo detto che fisso una soglia in fluorescenza pari a 32

numero di copie, il primo lo supera al secondo ciclo, il secondo al terzo (nell’esempio, vedi slide),

quindi c’è differenza di un ciclo ogni raddoppio di numero di copie iniziali e se avete una curva di

questo tipo che cosa significa *** ? Prima ancora di fare questo grafico che dice che la curva di

calibrazione va bene perché tutti i punti degli standard giacciono perfettamente sulla retta ideale?

Già dal profilo di amplificazione si vede, le curve sono equidistanti perché se le diluizioni sono

sempre di 1:2 (titolo di diluizione 2X) queste curve saranno tutte equidistanti, se questo non viene

rispettato e ci si trova con delle fasi di compressione significa che questa curva standard non va

bene ancora prima di disegnare in corrispondenza del CT il grafico CT nelle ordinate e percentuale

di gmo nelle ascisse, quindi si vede subito che c’è qualcosa che non va bene.

Per verificare che questa curva sia corretta a parte fare le repliche che devono + o – risultare tutte

corrispondenti, quando tu poi diluisci il tuo dna, questa amplificazione è stata ottenuta magari

amplificando 20 nano grammi di dna, per essere sicuri che questa curva corrisponda a una corretta

amplificazione vai a diluire il dna del tuo campione e in teoria se lo diluisci 2 volte il campione

86

incognito, prima ancora di sapere ti devi aspettare delle curve equidistanti, se questa prima curva

che hai fatto con 20 nano grammi è sbagliata per qualche motivo, le successive diluizione

probabilmente non verranno equidistanti, o hai sbagliato la qnt di dna o la mix, questo è un

controllo che puoi fare tu oltre alle repliche per ciascun punto, questo viene replicato più volte e il

soft were richiede almeno 3 repliche per campione, perché si lavora con volumi molto piccoli da 20

a 25 micro litri, quindi gli errori di pipettamento che fai su 25 micro litri spesso sono significativi.

Da ricordare sono i titoli di diluizione costante, equidistanza tra le curve e anche queste relazioni

che al raddoppio del numero di copie o al dimezzamento c’è una differenza di CT idealmente di una

unità se l’efficienza è pari al 100% e vedremo che raramente è così.

Nel grafico della curva standard (CT sulla percentuale di gmo nota) è relativamente importante

perché consente di ottimizzare le reazioni di pcr perché quando si costruisce una curva standard e si

traccia la retta, a questa retta corrisponderà una equazione del tipo Y = coefficiente angolare X +

quota all’origine, questo è un altro parametro tecnico importante, se l’efficienza di reazione è = a 1

significa che per avere una amplificazione di 10X nel numero di copie iniziali, N è pari a -3.32

circa, cosa succede? In virtù di questo semplice calcolo matematico, se voi esprimete quella curva

in scala semi logaritmica, cioè invece di mettere la percentuale di gmo come valore mettere il

logaritmo in base 10, quindi significa trasformare questo asse in unità di 10 e come solito si

riportano i CT, idealmente se l’efficienza è = a 1 il coefficiente angolare di questa retta è pari a –

3.32, questo significa che tutte le volte che voi fate una curva standard e l’equazione della retta ha

un coefficiente angolare a –3.32 o molto prossimo a questo valore significa che l’efficienza della

reazione di amplificazione è prossimo a 1, cioè al 100%, inoltre se i punti sperimentali di quella

retta di regressione che corrispondono ai vari standard, magari sono 2 repliche dello stesso standard,

approssimano la retta di regressione voi avete un coefficiente di correlazione lineare molto

prossimo a 1. allora questi 2 dati: coefficiente angolare della retta di calibrazione e R2 servono per

ottimizzare le reazioni di pcr, immaginate cioè di volere settare una reazione di amplificazione in

RT, quindi indipendentemente dai primer che si scelgono e dalla sonda quando andate a fare la

curva di calibrazione con materiale certificato deve saltare fuori una curva di calibrazione +

prossima al casi ideale, nel caso il coefficiente angolare di questa retta di regressione così come il

coefficiente angolare distano molto dal caso ideale (-3.32 e sono molto + piccoli di 1) significa che

la retta di calibrazione non è affidabile e si deve ottimizzare la pcr cioè portarla + prossima al caso

ideale. Come si fa sperimentalmente? Si deve calcolare l’efficienza di pcr, esiste una correlazione

fra il coefficiente angolare della retta e l’efficienza della pcr, voi fate la vostra curva standard,

ottenete un certo coefficiente angolare della curva standard, andandolo a sostituire in una formula

voi calcolate l’efficienza di reazione, cosa succede? Ammettete di avere una efficienza molto

87

lontana, dobbiamo ottimizzare l’efficienza della reazione, ricostruire la curva standard e verificare

che l’N tenda a –3.32, come si fa a ottimizzare una reazione di pcr? Su quali parametri si agisce?

Posso variare la concentrazione dei primer, posso sbilanciarle tra loro, posso alzarle o abbassarle,.

Posso modificare la concentrazione di Mg, il Mg cosa serve *** ? come faccio a ottimizzare la mia

reazione in real time *** ? faccio una curva di calibrazione, standard noti, concentrazione di gmo,

costruisco questo tipo di grafico, verifico com’è il coefficiente angolare che deve essere prossimo a

–3.32, se non è prossimo devo ottimizzare la reazione, come faccio *** ? concentrazione primer,

concentrazione Mg, effetto del Mg sulla concentrazione della reazione di pcr: il Mg tende a

stabilizzare la doppia elica, l’appaiamento tra i primer e lo standard, allora succede che se c’è un

primer che è stato disegnato male e che quindi contiene un qualche mis match oppure ha una

temperatura di anniling relativamente bassa per stabilizzare l’appaiamento primer e sequenza

templato si tende ad alzare la concentrazione del Mg, *** quale è l’ordine di grandezza della

concentrazione del Mg? Varia da 1.5 a 3, nella reazione di pcr nelle multiplex è molto è alta quando

si tendono ad amplificare contemporaneamente + prodotti do pcr, quindi si titola la concentrazione

del Mg e si vede se l’efficienza della reazione di pcr migliora cioè se l’N tende a –3.32 però si deve

stare attenti perché + alzi la concentrazione del Mg, il Mg contiene ioni Mg+ che interagiscono con

i nucleotidi complessandoli, quindi + alzi la concentrazione di Mg in teoria oltre ai 3 milli molari

dovresti alzare anche la concentrazione dei dntpis perché gli ioni Mg catturano i dntpis e aumenti

l’efficienza di appaiamento del primer con il suo templato, ma contemporaneamente sottrai dntpis

alla reazione di pcr, l’efficienza comunque rimane bassa, oppure una cosa banale per migliorare la

reazione di pcr è agire sul profilo termico, magari ho messo una temperatura troppo alta rispetto a

quella della sequenza dei primer, se l’abbasso un po’ rendo è efficiente la reazione e migliora

ancora il mio coefficiente angolare della mia retta di calibrazione, oppure posso avere messo troppo

dna, troppo non in senso assoluto, è chiaro che se si mette una qnt dai 10 ai 100 nano grammi di dna

nella pcr spesse volte la taq viene inibita, però troppo dipende anche da quante schifezze mi trascino

dentro alla matrice, può capitare che anche con una qnt ‘’normale’’ di dna standard su 25 micro litri

che possono essere 50 nano grammi la pcr non venga perché mi tiro dietro con l’estratto anche un

inibitore della taq polimerasi, allora si diluisce in dna e anche gli inibitori, questi sono tutti

parametri che vengono normalmente settati per ottimizzare la reazione di pcr, quello che è

importante è comprendere che una reazione di pcr deve avere questi tipi di parametri.

Non è detto che con le concentrazioni standard vada bene così soprattutto se si parla di dna che

deriva da matrici complesse dove il dna che si estrae è o parzialmente degradato, sporco etc.

Successiva domanda, uno mi può dire degli inibitori, come faccio a sapere se ci sono degli inibitori

dentro *** ? in particolare per quanto riguarda gli inibitori, spesso in presenza di inibitori il

88

coefficiente angolare di quella retta risulta maggiore di –3.32 tipo –1.190 (maggiore non in valore

assoluto), spesso quando si ha un valore di questo tipo siamo in presenza di inibitori nel dna che uso

come stampo, se faccio una curva di calibrazione in cui ancora una volta viene costruita sul

logaritmo del numero di copie e numero di CT che si ricava, si vede che la perdita di linearità si ha

spesse volte nei campioni dove il numero di copie risulta + alto, cioè i CT più bassi, escludendo

questi punti spesso si ha una curva di calibrazione con un coefficiente angolare vicino a –3.32,

significa che posso quantificare correttamente la mia percentuale di gmo solo da un certo numero di

copie in giù, perché da un certo numero dio copie in su significa che amplifico molto dna con un

sacco di schifezze che mi fanno perdere in efficienza.

Altre volte il coefficiente angolare risolta minore di –3.32, in questo caso l’efficienza teorica è

inferiore al 100%, cioè inferiore a 1, in genere quando il coefficiente angolare di questa retta di

calibrazione è inferiore a –3.32 significa che la reazione di pcr non è ottimizzata, cioè si deve agire

su alcuni di quei parametri, sostanzialmente quindi la retta di calibrazione vi dice se la vostra curva

di calibrazione raggiunge il 100% dell’efficienza e significa avere la massima affidabilità e

sensibilità del sistema perché si ha il raddoppio ad ogni ciclo numero di copie quindi massimo

incremento di segnale fra un ciclo re l’altro, esaminando nella curva di amplificazione il

coefficiente angolare della retta può essere utile per ottimizzare la reazione di pcr, un coefficiente

angolare molto + grande di –3.32 probabilmente si è in presenza di un effetto di inibizione, meno

significa che probabilmente siamo di fronte a una pcr non ottimizzata e si può intervenire

cambiando la concentrazione dei primer, dntpis, Mg, profilo termico.

Normalmente si ritiene ottimizzata una reazione di pcr in cui il coefficiente angolare è prossimo a –

3.32 e in genere sono presi per buoni anche –2.90, poi un altro parametro è il coefficiente di

regressione che deve essere maggiore di 0.98 il che significa che non solo il coefficiente angolare è

corretto, ma che la retta la cui equazione è descritta da quel coefficiente angolare approssima

correttamente i punti sperimentali perché teoricamente potrei avere un –3.32 per puro caso perfetto,

ma avere i punti molto distanti tra loro, quindi deve essere e e. poi la deviazione standard dei CT

per ogni punto deve essere inferiore o = a –0.3, quindi questi sono i parametri matematici che si

devono considerare per definire ottimizzata la propria reazione di pcr (coefficiente angolare,

coefficiente di correlazione lineare, deviazione standard fra i CT per singolo punto della curva

standard).

C’è da chiedersi come fa la macchina a quantificare: la macchina automaticamente legge i profili di

amplificazione delle curve standard, automaticamente sceglie una tresciold, si può fare anche in

manuale, e vedrete che cosa significa farglielo fare a lei o impstarla manualmente, e poi la macchina

costruisce la curva di taratura e l’equazione della retta e da lì si capisce se abbiamo lavorato

89

decentemente. Sostanzialmente la macchina monitorizza il segnale in fluorescenza, quindi legge col

proseguire dei cicli il profilo di amplificazione per ciascuno punto e possiede un algoritmo che

consente di misurare il rumore di fondo cioè il segnale dato dai bianchi o il segnale che sono

presenti nei miei campioni di pcr dove ho messo un templato prima che questo templato venga

amplificato esponenzialmente, in base a questo sceglie una tresciold che di solito è appena sopra al

rumore di fondo, c’è tutto un fascio che corrisponde al rumore di fondo all’interno del quale la

macchina legge una cosiddetta vaseline, una linea di base che è il rumore di fondo, ( questo non lo

chiede!) la taqman per defolt fissa un livello di tresciolt quindi di segnale soglia che è il segnale

medio dei bianchi + 3 volte la loro deviazione standard, immaginate di avere tanti profili di

amplificazione, la macchina legge questo intervallo di fluorescenza delta rn e calcola il valore

medio, poi ne calcola la deviazione standard, poi prende il valore medio e aggiunge 3 deviazione

standard e poi fissa la soglia, il valore medio + 3 volte la deviazione standard e poi fissa la soglia, la

tresciold, quello che dovete sapere è che la macchina automaticamente è in grado tramite un

determinato algoritmo e tramite il calcolo del segnale di fondo di fissare la soglia appena sopra al

segnale di fondo e una volta fissata la soglia automaticamente legge i relativi CT, questo lo fa

automaticamente, però l’algoritmo non è infallibile posso avere dei profili di amplificazione che

nono sono ideali, nel profilo ideale ho una curva che sale, vi troverete spesso delle curve un po’

smorte, lei ovviamente anche qui andrà a calcolare l’X medio, deviazione standard, fissa la soglia,

ma potrà capitare che la soglia che fissa e visivamente si vede non corrisponde perfettamente alla

fase esponenziale della reazione di pcr, occorrerà magari spostarla un po’ + su perché qui è ancora

presto. Come faccio ad accorgermi che la macchina ha sbagliato la soglia? Innanzitutto ve lo fa

vedere, graficamente sullo schermo apparirà dove ha messo la soglia, però anche sperimentalmente

voi se avete introdotto nella vostra reazione di pcr opportuni controlli ve ne accorgerete che ha

sbagliato a fissare la soglia a e calcolare i relativi CT, a calcolare la curva standard, i sintomi di una

scorretta determinazione automatica sono: errata assegnazione dei controlli negativi, cioè sabbiamo

dei falsi positivi perché ho fissato una soglia troppo bassa, in altre parole avete introdotto dei

bianchi, delle reazioni negative e lui non ve le legge zero, concentrazioni percentuali di gmo pari a

zero, ma vi attribuisce una determinata percentuale quindi sono dei falsi positivi, se per errore lui

fissa una soglia troppo bassa può capitare che me li legge come se fossero un campione, quello che

vedete è che nella vostra piastra i controlli negativi risultano positivi, questo spesso è sintomo del

fatto che è stata scelta una soglia troppo bassa ed è facilissimo avere campioni positivi, spesse volte

una soglia troppo bassa però il + delle volte significa che le reazioni di pcr non ben ottimizzate, ma

il 90% è perché le avete contaminate, anche il problema della contaminazione vedremo come si

risolve in real time, è un errore sistematico dell’operatore e si vede anche perché.

90

Un altro sintomo è che controlli positivi a un elevato numero di copie presentano un CT ritardato

rispetto all’atteso, maggiore è il numero di copie iniziale prima il segnale di amplificazione

emergerà dal rumore di fondo quindi incrocerà la retta della soglia, se voi avete un campione ad

elevato numero di copie che vi aspettate emerga con un CT ed emerge con un altro è abbastanza

probabile che la macchina sabbia sbagliato il calcolo della soglia. Un altro sintomo abbastanza

comune in real time è avere una elevata deviazione standard dei CT tra le repliche per ciascun

campione, se voi avete tante repliche di uno stesso campione si fissa la soglia + bassa, qui la

deviazione standard del CT è molto bassa perché sono tutti riuniti in un fascio, se la soglia è stata

fissata troppo qua avete dei CT molto distanti tra di loro.

In questo caso è una linea di base che è stata calcolata troppo presto, tra il 2° e il 4° ciclo anziché

essere misurata entro un ampio intervallo di cicli, cosa succede? Che il segnale di fondo viene

calcolato entro questo intervallo, mentre normalmente è molto + ampio, lui legge come positivo

anche tutto questo fascio, questa invece è una linea di base calcolata in un intervallo piuttosto ampio

avanzato per cui mi legge come segnale di fondo anche parte del segnale di amplificazione e me lo

esclude automaticamente perché me lo legge come bianco, diciamo che la determinazione della

linea di base se la reazione di pcr è stata ottimizzata la macchina riesce a calcolarla abbastanza

correttamente, non ha problemi successivamente per fissare la tresciold, mi consente di calcolare il

segnale del bianco pochi cicli prima che aumenti il segnale di accumulo nella fase di amplificazione

dei prodotti di pcr, però può accadere spesse volte se si hanno dei segnali che hanno andamenti o

molto alti mischiati a segnali molto bassi che tu abbia difficoltà a calcolare la linea di base del

rumore di fondo, quando avete dei segnali che crescono molto rapidamente insieme a segnali che

crescono molto lentamente si fa fatica. Non interessa per l’esame questo.

Questo invece è importante quando andrete a lavorare in RT: una volta calcolata la linea di base poi

lui assegna l’intensità di fluorescenza soglia in base al quale poi calcolare i CT, ancora una volta

vedete un esempio di assegnazione corretta di tresciold, qui invece è una assegnazione in tresciold

troppo bassa nel senso che la tresciold non interseca i vari profili di amplificazione quando questi

sono non durante la fase esponenziale e ve ne accorgete perché la deviazione standard tra lo stesso

campione risulta molto ampia, lo stesso quando la soglia è fissata troppo alta: ancora una volta la

deviazione standard è molto alta, è quello che farete in laboratorio, mentre la linea di base

normalmente la macchina riesce ad individuarla correttamente spesso l’operatore deve intervenire

sulla determinazione del ciclo soglia e per verificarlo guarda la deviazione standard delle repliche

dei campioni, voi muoverete questa linea soglia perché si muove proprio a schermo e andrete a

leggere contemporaneamente la deviazione standard di ciascuna replica in profilo di amplificazione,

quando avrete la minore deviazione standard combinata per tutti i cicli di amplificazione in valore

91

della soglia è corretto e questo è importantissimo perché una volta fissata il ciclo soglia, la

macchina automaticamente calcola il CT e ricostruisce quella curva là se i profili di amplificazione

appartengono a degli standard a contenuto gmo noto. Quindi all’esame dovete dire su un profilo di

amplificazione *** : quali sono i parametri su cui posso agire io per ottimizzare la curva standard

che sono la determinazione della linea di base che viene determinata entro quel ciclo in cui nel

segnale di amplificazione, poco prima che si abbia l’aumento esponenziale del segnale di

amplificazione e la soglia, questo è importante.

Questo lo abbiamo già visto, come una reazione di tipo qualitativa anche una reazione di tipo qnt si

differenziano per vari parametri tra cui la sequenza targhet che io vado a indagare, in questo caso

avremo RT basate su reazioni di screening quindi regolatori comuni a vari costrutti, avremo delle

reazioni qnt basate sul gene specifico-tratto specifico gmo, avremo delle reazioni qnt di tipo

costrutto specifico cioè quelle che vanno a identificare degli elementi di giunzione all’interno del

costrutto tra promotore e regione codificante, avremo delle reazione di quantificazione evento-

specifica dove noi andiamo ad amplificare qnt l’amplificato che viene ottenuto con il primer che si

appoggia uno sul costrutto e l’altro sul genoma dell’organismo ospite.

Vedremo che le reazioni di quantificazione si distinguono anche per la tipologia delle molecole

reporter, vedremo diverse sonde: intercalante, taqman, una variante taqman che viene utilizzata

oggi, la fret e la scorpion, dal tipo di standard e vedremo una lezione in cui verranno messi a

confronto con la determinazione della qnt di gmo vari tipi di standard, non abbiamo detto che cosa

sono questi standard e come sono fatti, vedremo che saranno estratti da materiale processato, non

saranno dna transgenico mischiato a dna genomico, saranno dna plasmidico e vedremo che esistono

diversi dna plasmidici, come vengono costruite, ancora una volta vedremo standard costruiti con

dna plasmidico diluito nel dna transgenico da soli in acqua oppure diluito nel dna genomico della

pianta ospite. I metodi real time oltre che le molecole reporter e gli standard si distinguono anche

per il tipo di metodo di metodi di quantificazione (molto importante), esistono 2 metodi di

quantificazione: uno è la curva standard e l’altro è il metodo comparativo detto anche del delta CT,

poi le reazioni real time si distinguono ancora per il fatto che noi possiamo amplificare

separatamente gene endogeno e transgene e allora parleremo di reazioni simplex oppure possiamo

fare una co amplificazione e avremo una reazione multiplex, quindi vedremo dei metodi quantitativi

che combinano tutte queste caratteristiche, però alla domanda come si distinguono i metodi di

quantificazione in RT *** ? a seconda del tipo di indagine che noi compiamo: screening o costrutto

specifici, a seconda del reporter, a seconda degli standard, a seconda del metodo di quantificazione,

a seconda del fatto che facciamo delle reazioni simplex o multiplex e cosa significano.

92


PAGINE

135

PESO

470.50 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea magistrale in scienze e biotecnologie agroambientale
SSD:
A.A.: 2014-2015

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher marcorivi di informazioni apprese con la frequenza delle lezioni di Analisi degli OGM in alimenti e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Modena e Reggio Emilia - Unimore o del prof Cassanelli Stefano.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea magistrale in scienze e biotecnologie agroambientale

Virologia vegetale - Appunti
Appunto
Tesi - Flusso genico da colza geneticamente modificata a senape nera per la valutazione del rischio di inquinamento genetico
Tesi
Biotecnologie delle specie erbacee - Appunti
Appunto
Biotecnologia per la difesa delle piante - Appunti
Appunto