Kosár

A kosár jelenleg üres

Bejelentkezés &
Regisztráció

Jelenleg nincs belépve.

Válassza ki az oldal nyelvét

TERMÉKEINK

iPon FÓRUM

iPon Cikkek

Egy évtizeden belül jöhetnek a DNS-adattárolók

  • Dátum | 2013.01.27 08:01
  • Szerző | Jools
  • Csoport | EGYÉB

Napjaink paleontológusai rendszeresen vizsgálják a kihalt állatfajok DNS-ét, hogy információkat tudjanak meg a régmúlt idők élőlényeiről. Elképzelhető, hogy a nem túl távoli jövőben már nemcsak az őslénykutatók, hanem a könyvtárosok és levéltárosok mindennapi eszközei közt is megtaláljuk a mainál jóval kisebb és gyorsabb DNS-szekvenálókat. Tavaly nyáron a Harvard biomérnökei DNS-ben kódoltak egy genetika tankönyvet, elképesztő, 700 terabájtos grammonkénti adatsűrűséget demonstrálva, fél évvel később pedig a módszer továbbfejlesztése révén már ennek is több mint háromszorosánál, 2,2 petabájt/grammnál tartunk.

Mint a legtöbb jó ötlet, ez is egy kocsmai beszélgetés során született: Nick Goldman és Ewan Birney, az Európai Bioinformatikai Intézet (EBI) tudósai azon törték a fejüket, hogy mihez kezdjenek azzal az irgalmatlan mennyiségű archiválandó adattal, amelyet genetikai kutatócsoportjuk generál. Ez a probléma napjainkban általánosnak tekinthető: az adatmennyiség gyorsabban nő, mint a merevlemezek és egyéb adattárolók kapacitása. Ebből persze az következik, hogy egyre drágább lesz az adattárolás, a kutatóintézeti büdzsék viszont nem nagyon növekednek. Goldman és Birney így azon kezdtek elmélkedni, hogyan lehetne mesterségesen szintetizált DNS-ek révén megoldani az adattárolást. Rövidesen készen is álltak a tervvel, amelynek első kísérleti eredményeit a héten hozták nyilvánosságra.

Az ötlet persze nem új, hiszen a DNS alapvető rendeltetése szerint is információ tárolására szolgál: genomok formájában az élőlények biológiai adatait raktározza. A kutatók pár évtizede már kísérleteznek azzal, hogyan lehetne másfajta információk tárolására is alkalmassá tenni ezt a természetben évmilliárdok óta jól működő rendszert, azonban ennek megvalósítása nem bizonyult problémamentesnek.


A kezdeti próbálkozások során még élő sejtek genomjába próbáltak adatokat beleírni, ezzel azonban több gond is akad. A legszembeötlőbb közülük talán az, hogy a sejt előbb-utóbb elpusztul, így pedig képtelenség véghez vinni az új módszer fő célját: az adatok hosszú távú tárolását. A másik probléma, hogy az élő sejt DNS-e változik, replikálódik, javító mechanizmusok indulnak be rajta, mutációk történnek a kódban, így a tárolt adatok minősége folyamatosan romlik.

Mint már említettük, tavaly egy minden korábbinál sikeresebb kísérletet vittek véghez a Harvardon a DNS-alapú adattárolással kapcsolatban. George Church és kollégái kiiktatták a sejteket a képből, és a kémiai úton szintetizált DNS-fragmentumokat egy tintasugaras nyomtatóval egyszerűen egy üvegchipre nyomtatták. A kódolás során az egyeseket és nullákat egyszerűen a DNS bázisaira cserélték, nulla helyett adenin vagy citozin, egyes helyett pedig guanin vagy timin került a bázissorba. Az adathalmazt darabokra szabdalták, így csak rövidebb szakaszokat kellett egyszerre szintetizálni. A fragmentumok egyúttal egy-egy digitális „vonalkódot” is hordoztak, amely azt az információt tartalmazta, hogy az adatblokk hol helyezkedett el az eredeti fájlban. Az információ leolvasásához egy DNS-szekvenálóra és egy számítógépre volt szükség, amely sorba rendezte a töredékeket, és először bináris kóddá, majd eredeti formátumába fordította vissza a fájlt. A hibákat úgy igyekeztek kiküszöbölni, hogy minden adatblokkot több ezer kópiában tároltak, és a leolvasás során ezeket összevetették egymással.

Az EBI kutatói tulajdonképpen ezt a metódust dolgozták át és fejlesztették tovább, minden korábbinál kisebb hibaszázalékkal működő rendszert dolgozva ki. A hasonló kísérleteknél, köztük Church projektje során is, komoly problémát okozott, hogy szekvenálást végző műszerek nehezen boldogulnak az egymást követő egyforma bázisokkal. A leolvasás során ilyenkor egyszerűen elvesztik a fonalat, és nem képesek pontosan rögzíteni, hogy mondjuk hány egyforma bázis is szerepel a TTTTT sorban. Ilyen sorozatok pedig egy alapvetően bináris kódolási rendszernél gyakran előfordulnak. Goldman és Birney ezért úgy döntöttek, hogy egyrészt trináris rendszerre térnek át, másrészt ebben sem használnak állandó megfeleltetéseket a kódolás során, hanem az adott bázis jelentését attól teszik függővé, hogy milyen bázis előzi meg azt.

A mellékelt táblázatot segítségül hívva látszik, hogy a módszerrel például a 000002221111 sorozat bázisokra való átfordításaként adeninnel kezdve az ACGTATGCTCTC szekvenciát kapjuk. A kódolási rendszer biztosítja, hogy sosem kerülhet egymás mellé két egyforma bázis, mivel amikor eldől, hogy egy adott számot milyen bázis kódol, a vele szomszédos bázis kimarad a szóba jöhető lehetőségek közül. Az ismétlődő bázisok hiánya pedig nagyban elősegíti a szekvenálási folyamat zökkenőmentességét.



Hozzászólások

Nem vagy bejelentkezve, a hozzászóláshoz regisztrálj vagy lépj be!

Eddigi hozzászólások:

  • 4.
    2013. 01. 29. 15:36
    Azért ez szerintem sem egyszerű, ezek az elképzelések a "rózsaszín álom" kategóriái még, és kicsit elszakadtak a valóságtól.
    Ilyen alapon a mágneses adattárolás is idejét múlta volna, pedig a valóságban ugyanaz alapvető elv van érvényben a szalagos magnótól kezdve a 4TB-os HDD-ig. Szóval nem a DNS fog elavulni, hanem az olvasó-író eszközök.
    Amúgy meg szerintem a technikai érdekességen felül tökmind1, min tároljuk az adatot, a lényeget a gyakorlati felhasználhatóság jelenti (sebesség, megbízhatóság, élettartam, sérülékenység,stb.)
    Szerintem ahoz, hogy annyira stabilan kezeljünk ipari méretekben DNS-t, mint most a mágneses rögzítést, kell még 50-100 év! És azt is vegyük figyelembe, hogy van alternatív lehetőség, és a régi megoldások is fejlődnek...


    Vajzy: syerintem ez csak részben igaz. A problémát az jelenti inkább, hogy az adatokat feleslegesen sok példányban tároljuk - némely esetben akár több milliószor is... Arról már nem is beszélve, hogy ennek az adatnak mekkora része érdekes/értelmes, vagy egyáltalán méltó a megőrzésre... Szóval józan ésszel gyorsan meg lehetne oldani ezt a problémát!
  • 3.
    2013. 01. 29. 06:23
    Nos mostanság nem fogunk ilyet használni, úgy vélem. Ez is csak egy röpke ötlet a sok közül.

  • 2.
    2013. 01. 28. 20:31
    "... az adatmennyiség gyorsabban nő, mint a merevlemezek és egyéb adattárolók kapacitása" Elég durva. Gyorsabban jön a tudás (az információ), mint azt tárolni tudnánk.
  • 1.
    2013. 01. 28. 08:21
    Nagyon jó a cikk! Jools +1