vuoi
o PayPal
tutte le volte che vuoi
PROGETTO GENOMA UMANO
Con la scoperta della struttura del DNA nel 1953, nasce la genetica moderna. Nel 1977 vengono messe a punto le prime tecniche di sequenziamento, quali:- tecnica di Maxam e Gilbert: tecnica chimica abbastanza complessa nella sua esecuzione, basata sull'utilizzo di isotopi radioattivi
- tecnica di Sanger: basata su un principio biologico, sull'utilizzo di una polimerasi in vitro, in grado di sintetizzare e sequenziare il DNA. Simula in provetta ciò che avviene spontaneamente nel nucleo durante la duplicazione del DNA, con l'ausilio di marcatori radioattivi o fluorescenti. Per il successivo sequenziamento si utilizza un rilevatore di immunofluorescenza e un'elettroforesi.
Sintetizzando una molecola di DNA marcata. Questa è una tecnica in grado di amplificare la sequenza di DNA, un passaggio fondamentale per consentire lo studio del tratto di genoma.
Nel 1986, il premio Nobel Renato Dulbecco, insieme al biologo Leroy Hood, lanciano l'idea di sequenziare l'intero genoma umano. Questo progetto rimane accantonato, relegato ad utopia, finché nel 1990 non viene lanciato dagli USA lo Human Genome Project, sotto l'egida di James Watson. Pochi anni dopo, fra il 1992 e il 1993 si aggiunsero il Giappone, il Regno Unito, la Francia, la Germania e la Cina, formando un consorzio. Così per la prima volta non solo i singoli laboratori hanno smesso di lavorare singolarmente, ma anche le singole nazioni si sono coalizzate. A questo consorzio si è aggiunta anche l'Italia, che però si è ritirata per mancanza di finanziamenti. Con il lancio di questo ambizioso progetto si passa dalla genetica moderna alla genomica.
e tutte le omiche derivate. Il progetto fu coordinato dal U.S Department of Energye dal National Institutes of Health.Il progetto fu ultimato nel 2003.L'obiettivo principale era di completare il sequenziamento del genoma umano e per fare questo si è dovuto:- costruire una mappa completa del genoma umano, ovvero identificare la posizione di geni anche molto distanti fra loro, così da partire da punti specifici, noti del DNA. Una mappa genetica viene fatta infatti utilizzando le frequenze di ricombinazione, per cui da punti già noti nella mappa genetica si calcola la distanza genetica, ovvero la sequenza di basi che si interpone fra i punti noti
- creazione di una banca dati: fino ad allora non si era mai lavorato in un consorzio che comprendeva nazioni così distanti fra loro. Solitamente, quando un ricercatore effettuava uno studio, per avere i risultati in un altro Stato, bisognava avere o contatti e amicizie o aspettare i tempi burocratici di pubblicazione,
stampa e divulgazione. Volendo bypassare queste lungaggini furono sviluppate enormi banche dati, in cui ciascun laboratorio, procedendo con il sequenziamento del genoma, caricava immediatamente i dati sui server. Immagazzinare per velocizzare. In questo modo, tuttavia, queste banche dati avrebbero ricevuto un quantitativo enorme di dati in breve tempo, e c'era quindi necessità di aggiornare gli strumenti di analisi.
3. sequenziamento del genoma di specie inferiori: per comprendere il genoma umano però non era sufficiente solo il suo sequenziamento. Si è capito che era di fondamentale importanza compararlo con quello di altre specie, anche perché talvolta per capire la funzione di un tratto di sequenza bisogna ricorrere a tecniche di mutazione genetica non eticamente accettabili sull'uomo. Per il progetto genoma umano era quindi indispensabile un progetto di sequenziamento parallelo che coinvolgeva diversi organismi di complessità sempre crescente.
quali:● batterio (Escherichia Coli, 4,6 milioni di basi): il procariote più utilizzato in laboratorio, di cui erano già stati tradotti i geni
● lievito (Saccharomyces Cerevisiae, 12,1 milioni di basi): la cellula eucariote più semplice, poiché unicellulare, per confrontare il passaggio procariote-eucariote, di cui si conosceva già il codice genetico
● nematode (Caenorhabditis Elegans, 97 milioni di basi)
● insetto (Drosophila Melanogaster, 180 milioni di basi): l'organismo modello più usato negli studi di genetica
● pianta, aggiunta in seguito, (Arabidopsis Thaliana, 120 milioni di basi): la pianta di senape, molto piccola
● mammifero (Mus Musculus, 2,6 miliardi di basi): si credeva che il topo domestico avesse un genoma molto simile a quello umano ed era considerato un genoma molto "manipolabile"
4. collaborazione con privati: il consorzio aveva speso ingenti somme per questo progetto, e ovviamente c'era anche un
interesse di ritorno economico. Infatti, la conoscenza del genoma umano era finalizzata allo sviluppo di medicinali e cure sperimentali, quindi con risvolti etici, sociali. I dati dovevano quindi essere venduti al settore privato per poter sviluppare nuove tecnologie.
5. stabilire una severa legislazione etica: rendere pubblico il genoma umano esponeva a rischi eticamente incalcolabili l'intera umanità. Si arrivò alla comprensione che sarebbe bastato un semplice test del DNA per scoprire se si è portatori sani di malattie legate al genoma. Inoltre, è da ricordare come questi dati sarebbero poi stati trasferiti nelle mani di companies private, che avrebbero potuto utilizzarli in modi variopinti. In una dichiarazione ufficiale, il genoma umano viene dichiarato proprietà dell'umanità intera, quindi non brevettabile.
Le tecniche di sequenziamento iniziali, quelle con cui sono stati effettuati molti passaggi dello HGP, prima manuali e poi automatizzate,
permettevano di arrivare a 300/400 paia di basi lette per volta.
● metodo shotgun: è il più utilizzato in caso un genoma sia molto piccolo e semplice, come quello di un procariote, con sequenze ripetute presenti poche volte e con poche spaziature. I frammenti vengono tagliati in modo da avere una sovrapposizione parziale e sono così definiti overlappanti. Per ottenere dei frammenti le cui sequenze combaciano parzialmente vengono inseriti in provetta una grande quantità di genoma e pochi enzimi di restrizione, lasciati agire per poco tempo. In questo modo i tagli effettuati sono casuali e i frammenti si possono sovrapporre. Grazie all'omologia di sequenza si riesce a ricostruire la mappa intera.
● metodo shotgun gerarchici: si utilizza con genomi più complessi, più grandi, che presentano molte frequenze ripetute anche centinaia o migliaia di volte. Questo comporta che in un genoma in cui si ha che A = A' = A'' al momento del
sequenziamento non si riesce a risalire alla posizione del frammento all'interno del genoma. Per questo motivo si procede con una rottura del genoma in pezzi overlappanti di grandi dimensioni, poi con una frammentazione parziale. Nello specifico, ogni uno dei grandi pezzi, grazie alle mappe già presenti, è riallineato e ritrattato come se fosse un piccolo genoma semplice. I frammentini di genoma vengono inclusi in un vettore che sarà reinserito in una cellula in cui si replicherà autonomamente per creare cloni. Del consorzio facevano parte centinaia di ricercatori. La maggior parte dei finanziamenti erano pubblici. A capo del dipartimento salì poi Francis Collins, pupillo di Watson. Oltre a Collins, anche Farston, un altro giovane ricercatore, viene reclutato da Watson per dirigere la parte pubblica del progetto. Qualche anno dopo l'inizio dello HGP, la compagnia di Venter inizia a sperimentare individualmente sulla mappatura del genoma umano.
L'ingresso in scena di una compagnia privata ebbe un effetto propulsivo sui lavori del consorzio pubblico. Venter faceva sequenziamento parallelo sfruttando i dati resi pubblici dal consorzio, tenendo però nascosti i suoi risultati.
Il genoma aploide dell'uomo risulta essere di oltre tre miliardi di basi, di cui circa due miliardi e 800 milioni circa eucromatiche. Questi dati di sequenziamento hanno subito permesso di affermare con sicurezza che il cromosoma 22 è più grande del 21. I cromosomi erano stati numerati in base alla loro grandezza, ma per non creare confusione è stata mantenuta la nomenclatura classica.
Il conteggio dei geni umani si assestò sui 25 mila geni (come il topo e lo scimpanzé). Detto questo, rimane il problema, piuttosto complesso, del dare un senso alla sequenza di basi trovata. Si pensò di andare a cercare geni che codificavano per proteine la cui struttura era nota e già oggetto di studi approfonditi, come l'emoglobina.
e porzioni di genoma note per il loro contributo nei processi biologici, come la tata box, startcodon, geni per RNA ribosomiali, promotori, siti di legame per i fattori di trascrizione e siti di legame per fattori di packaging e riparo del DNA. Per cercare nel tratto di DNA le sequenze che possono codificare per le proteine si va a cercare l'openreading frame (ORF), quindi tre basi alla volta, si osserva se è presente uno stop codon e quante triplette include. Dagli ORF poi si iniziarono a cercare a monte i promotori e le strutture per la regolazione. Una volta individuato un ORF, è possibile paragonare quella sequenza alla banca dati generale e confrontarne il grado di conservazione. Più è stipata nei diversi organi, maggiore è l'importanza. BLAST è la tecnica di allineamento che permette di confrontare sequenze amminoacidiche e nucleotidiche. Data una sequenza amminoacidica, diverse saranno le sequenze nucleotidiche possibili.Studiare la funzione di un gene si può osservare la relazione genotipo – fenotipo attraverso due vie identificative:
- Genetica Diretta (Forward Genetics): inducendo mutazioni nella piastra di coltura dell’individuo da studiare, se, osservando la colonia di batteri, si è instaurato un fenotipo diverso, allora la sequenza è mutata.
- Genetica Inversa (Reverse Genetics): permette di sequenziare un genoma e poi di inserire nelle cellule una sequenza mutata (o aggiuntiva che sia). Se quella sequenza fa variare il fenotipo, allora è mutato il genotipo.
Con la Genetica Comparativa si è scoperto che il numero di cromosomi non dipende dalla grandezza genica o alla maggiore o minore complessità dell’organismo. In Drosophila, per esempio, c’è un gene ogni 9000 basi. In S. Cerevisiae, un gene ogni 2000 basi. In Escherichia Coli, un gene ogni 1400 basi. Non è detto, perciò, che l’aumento dei geni sia correlato.
ù semplici, mentre sono più concentrati negli organismi più complessi. Questo significa che gli organismi più complessi hanno una maggiore varietà di geni e quindi una maggiore capacità di adattarsi all'ambiente. La complessità degli organismi è anche influenzata dalla presenza di organi specializzati. Gli organismi più semplici hanno pochi organi specializzati, mentre gli organismi più complessi hanno una maggiore varietà di organi specializzati che svolgono funzioni specifiche. Inoltre, la complessità degli organismi è anche determinata dalla presenza di sistemi di comunicazione e di coordinamento. Gli organismi più semplici hanno sistemi di comunicazione e coordinamento molto semplici, mentre gli organismi più complessi hanno sistemi più sviluppati che permettono una migliore interazione tra le varie parti dell'organismo. Infine, la complessità degli organismi è anche influenzata dalla capacità di apprendimento e di memoria. Gli organismi più semplici hanno una capacità di apprendimento e di memoria limitata, mentre gli organismi più complessi hanno una maggiore capacità di apprendimento e di memoria che permette loro di adattarsi e di migliorare le proprie prestazioni nel tempo. In conclusione, la complessità degli organismi è determinata da una combinazione di fattori genetici, strutturali, funzionali e comportamentali. La complessità degli organismi è un fenomeno che si è evoluto nel corso del tempo e che continua a evolversi, permettendo agli organismi di adattarsi all'ambiente e di sopravvivere.