Un libro, immagini ed un programma codificato in una sequenza di DNA

Un libro, immagini ed un programma codificato in una sequenza di DNA

Un gruppo di scienziati è riuscito a stoccare 5,27 megabit di informazione in un grammo di DNA, superando il precedente record di 1000 volte

di pubblicata il , alle 12:23 nel canale Scienza e tecnologia
 
47 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
robertogl23 Agosto 2012, 15:38 #21
Originariamente inviato da: corgiov
Questa news ha appena messo in dubbio le teorie dello scanner genetico descritto nel libro The Genetic Scanner (di cui sono l’autore), dove si afferma che l’intero DNA di una persona sarebbe normalmente memorizzabile in una memoria di esigue dimensioni.


in realtà hai ragione te, è la news che è sbagliata
JuniorG23 Agosto 2012, 15:40 #22
Originariamente inviato da: vallice
In genere hwupgrade non mi dispiace per una lettura occasionale, per rilassarsi...quindi colgo l'occasione anche per fare un piccolo plauso a questo sito.

Ma una castroneria del genere nelle unità di misura per eccellenza in cui dovreste essere specializzati, non s'è mai vista. Capirei su repubblica o ilgiornale...

700terabyte che diventano 5.27 terabit che sarebbero 5.27 megabit che poi si ritrasformano di nuovo 5.27 terabit

In conclusione se sono realmente 5.27megabit, a questo punto si spiegano i "quasi 700" nel titolo, che non sono terabyte ma bensì Kbyte

700Kbyte in un grammo fa tutto un'altro effetto...


Infatti! :-)

Cioè, per stoccare 700 terabyte servono "solo" 1000 tonnellate di DNA... che a beneficio della Redazione, sarebbero [B][U]1 milione di kilogrammi[/U][/B]. Altro che un grammo!!!

Propendo decisamente per gli hard disk!
tiMo23 Agosto 2012, 15:41 #23
Originariamente inviato da: pabloski
frenate i facili entusiasmi

[...]
ma non è nulla che non si possa fare usando, che so, i nanotubi di carbonio

ovviamente bisognerà affinare i processi di assemblaggio per ottenere la stessa efficienza del dna



hai un'idea dell'efficienza dei meccanismi di gestione dell'informazione genetica?

Ad esempio il ribosoma è una macchina molecolare che sintetizza anche fino a 20 aminoacidi al secondo e lo fa essendo soggetto a perturbazioni di ogni tipo. I suoi meccanismi di correzione dell'errore sono sconosciuti come sono sono sconosciuti i meccanismi di correzione dell'errore interni al DNA.

Di fatto, i ricercatori autori dello studio (come tutti gli altri del resto) hanno sfruttato questi meccanismi ma non li conoscono. Non conosco l'efficienza dei nanotubi ma tieni presente che il "DNA" è stato in grado di mantenere l'informazione senza errori per quasi 4 miliardi di anni, mi pare un buon risultato, non credi?

Ciao tiMo
Andrea Bai23 Agosto 2012, 15:53 #24
Purtroppo il caldo gioca brutti scherzi anche qui. Ho corretto la notizia, frutto di una stesura troppo frettolosa.
Le mie scuse ai lettori, che ringrazio per le numerose segnalazioni.

Buona giornata,
Andrea Bai
maurilio96823 Agosto 2012, 16:00 #25
su tom hanno dato questa notizia il 20 agosto, ovviamente SBAGLIATA anche loro, leggete qua:

http://www.tomshw.it/cont/news/700-terabyte-di-dati-in-un-grammo-di-dna-si-puo-fare/39212/1.html

dieci pagine di commenti pieni di altre valanghe di castronerie: infatti nessuno fino ad oggi aveva commentato segnalando l'errore.
Ma si sa.... tom's è sempre un passo "avanti"... tutto sta a non seguirlo cara redazione.
LMCH23 Agosto 2012, 16:01 #26
Dando un occhiata alla fonte originale della notizia, si capisce che hanno fatto una dimostrazione pratica del funzionamento del processo, codificando un libro che corrispondeva a a 5.27 megabit con un errore di lettura di "solo" 10 bit.

E' la densità massima teorica ad essere un tot. di godzillabyte per grammo di DNA, solo che ovviamente si è ben lontani da prestazioni simili, senza contare che va migliorato il processo di codifica e decodifica visto che 10 bit di errore su 5.25 megabit sono una percentuale al limite del disastroso visto che quelli sono gli errori "ineliminabili" dopo aver utilizzato la correzione d'errore.
pabloski23 Agosto 2012, 16:05 #27
Originariamente inviato da: tiMo
hai un'idea dell'efficienza dei meccanismi di gestione dell'informazione genetica?

Ad esempio il ribosoma è una macchina molecolare che sintetizza anche fino a 20 aminoacidi al secondo e lo fa essendo soggetto a perturbazioni di ogni tipo. I suoi meccanismi di correzione dell'errore sono sconosciuti come sono sono sconosciuti i meccanismi di correzione dell'errore interni al DNA.

Di fatto, i ricercatori autori dello studio (come tutti gli altri del resto) hanno sfruttato questi meccanismi ma non li conoscono. Non conosco l'efficienza dei nanotubi ma tieni presente che il "DNA" è stato in grado di mantenere l'informazione senza errori per quasi 4 miliardi di anni, mi pare un buon risultato, non credi?

Ciao tiMo


Gli errori ci sono nella duplicazione del dna, solo che la cellula possiede meccanismi in grado di eliminare le sequenze errate.

Ma comunque il problema di fondo rimane e cioè codifico le informazioni in migliaia, milioni di blocchi di dna e poi come trovo i blocchi giusti?
vallice23 Agosto 2012, 16:07 #28
Originariamente inviato da: Andrea Bai
Purtroppo il caldo gioca brutti scherzi anche qui. Ho corretto la notizia, frutto di una stesura troppo frettolosa.
Le mie scuse ai lettori, che ringrazio per le numerose segnalazioni.

Buona giornata,
Andrea Bai


Grazie a te! So bene che la critica (usualmente negativa) è sempre pronta dietro l'angolo quando si scrive in un blog.

Però ammetto che non ho resistito. Il tuo titolo era davvero troppo sensazionale per essete vero ;-)
Ti rifaccio di nuovo i complimenti per gli articoli!
vallice23 Agosto 2012, 16:50 #29
Originariamente inviato da: LMCH
Dando un occhiata alla fonte originale della notizia, si capisce che hanno fatto una dimostrazione pratica del funzionamento del processo, codificando un libro che corrispondeva a a 5.27 megabit con un errore di lettura di "solo" 10 bit.

E' la densità massima teorica ad essere un tot. di godzillabyte per grammo di DNA, solo che ovviamente si è ben lontani da prestazioni simili, senza contare che va migliorato il processo di codifica e decodifica visto che 10 bit di errore su 5.25 megabit sono una percentuale al limite del disastroso visto che quelli sono gli errori "ineliminabili" dopo aver utilizzato la correzione d'errore.


Allora se è come dici tu era corretto il titolo della notizia! Incredibile....
C'è stata solo una gran confusione tra la dimostrazione pratica fatta su un campione di 700Kbyte e la capacità teorica riportata al grammo,oltre che su terabit e megabit e terabyte! Ok nessuno non aveva capito nulla. Io eliminerei l'articolo :-D
zulutown23 Agosto 2012, 17:02 #30
Per quanto mi riguarda l'articolo è ancora clamoramente sbagliato.

Dove cavolo c'è scritto che in un grammo di DNA ci sono solo 700 kilobyte?

Sapete che in ogni cellula umana c'è il DNA e che le cellule sono "tantine"?
Sapete che per mettere in digitale un DNA umano ci vogliono molti più di 700 kilobyte?!?!!

L'articolo originale dice: ".... and only four grams of DNA could theoretically store all the digital data created annually.... "

Chiudete la redazione che fate prima.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^