Informácie

Aké sú požiadavky na spektrometer, ktorý sa má použiť v biologickom výskume?

Aké sú požiadavky na spektrometer, ktorý sa má použiť v biologickom výskume?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Predpokladajme, že by sme urobili spektrofotometriu na biologických materiáloch. Aké by boli minimálne požiadavky na meracie zariadenie, aby mohli byť výsledky publikované v renomovanom časopise? Predpokladám, že sú to dve dôležité vlastnosti

  • rozlíšenie spektra (stačilo by napríklad 25 nm - 15 nm - 5 nm?)
  • chyba merania (10%, 5%, 1%, ...?)

Čo iné (ak niečo) by sa malo vziať do úvahy?


Pre všetky bežné použitia spektrofotometra v biológii by mal postačovať akýkoľvek komerčný. Pri všetkých bežných činnostiach má kvalita spektrofotometra spravidla zanedbateľný význam.

Neexistujú žiadne všeobecné pravidlá o tom, aké chyby a rozlíšenie sú prijateľné, vždy to závisí od toho, čo meriate. Chyba by mala byť výrazne menšia ako veľkosť efektu, na ktorý sa pozeráte, inak nedostanete žiadne použiteľné údaje.

Existuje mnoho zdrojov chýb v biologických systémoch, spektrofotometer je skutočne jedným z posledných, o ktorých by ste si mysleli. Jednoducho, chyba pipetovania je pravdepodobne oveľa väčšia ako chyba spektrofotometra a rozdiely v príprave vašich biologických vzoriek môžu spôsobiť ešte väčšiu chybu. Pokiaľ nerobíte niečo, čo presahuje rutinné používanie spektrometrie UV/Vis, pravdepodobne si s tým nemusíte robiť starosti.


Aké sú požiadavky na spektrometer, ktorý sa má používať v biologickom výskume? - Biológia

Kľúčové dátumy
Dátum vydania: 31. mája 2017

Vydal
Národné ústavy zdravia (NIH)
Agentúra pre výskum a kvalitu zdravotnej starostlivosti (AHRQ)

Toto oznámenie poskytuje pripomienky žiadateľom o grant na výskum a žiadateľom o ocenenie za mentorský rozvoj, ktorí navrhujú využitie kľúčových biologických a/alebo chemických zdrojov. Ako je popísané v NOT-OD-16-011 a NOT-OD-16-012, od žiadateľov navrhujúcich využitie zavedených kľúčových biologických a/alebo chemických zdrojov sa očakáva, že zahrnú plán autentifikácie týchto zdrojov do „Autentifikácie kľúčových biologických a/alebo alebo príloha Chemical Resources".

"Kľúčové biologické a/alebo chemické zdroje" znamenajú zavedené činidlá alebo zdroje, ktoré sa použijú v navrhovanom výskume. To zahŕňa, ale nie je obmedzené na bunkové línie, špeciálne chemikálie, protilátky alebo iné biologické látky. Kľúčové biologické a/alebo chemické zdroje sú neoddeliteľnou súčasťou navrhovaného výskumu a môžu, ale nemusia byť získané z fondov NIH.

Kľúčové zdroje, ktoré vyžadujú overenie, pravdepodobne:

  • Líši sa od laboratória k laboratóriu alebo v čase
  • Líšia sa v kvalitách alebo kvalifikáciách, ktoré by mohli ovplyvniť údaje z výskumu

Od žiadateľov, ktorí navrhujú využiť zavedené kľúčové biologické a/alebo chemické zdroje, sa očakáva, že zahrnú autentifikačný plán do prílohy „Overenie kľúčových biologických a/alebo chemických zdrojov“, aj keď boli kľúčové zdroje zakúpené alebo získané z externého zdroja, ktorý poskytol údaje o predchádzajúcom Overenie. Autentifikačný plán musí obsahovať iba popis metód navrhnutých na autentifikáciu zdrojov kľúčov pred použitím a v pravidelných intervaloch, ak je to vhodné. Plán by nemal mať viac ako jednu stranu.

  • Žiadatelia, ktorí navrhujú používať bunkové línie, by mohli opísať metódu, ktorú plánujú použiť na overenie identity a čistoty línií, čo môže zahŕňať profilovanie krátkym tandemovým opakovaním (STR) a testovanie mykoplazmy.
  • Žiadatelia, ktorí navrhujú použiť chemikálie, ktoré sú kľúčové pre výskum, by mohli opísať metódu použitú na validáciu chemikálie, ktorá môže zahŕňať kvapalinovú alebo plynovú chromatografiu alebo hmotnostnú spektrometriu.
  • Žiadatelia, ktorí navrhujú používať geneticky modifikované zvieratá alebo bunky, by mohli opísať metódu použitú na potvrdenie modifikácie genómu, ktorá môže zahŕňať PCR amplifikáciu alebo Southern blot.

Ak existujú publikované konsenzuálne normy, môžu byť v tejto časti citované ako postupy, ktoré budú použité na validáciu.

Príloha „Overenie kľúčových biologických a/alebo chemických zdrojov“ je len pre zavedené kľúčové biologické a/alebo chemické zdroje.

  • Nezahŕňať plány na autentifikáciu súborov údajov, databáz, strojov alebo elektroniky v prílohe „Overenie kľúčových biologických a/alebo chemických zdrojov“.
  • Nezahrnúť plány na vývoj a overovanie nových kľúčových biologických a/alebo chemických zdrojov (ako je nová ľudská rakovinová bunková línia alebo nová protilátka). Žiadatelia, ktorí navrhujú generovanie nového kľúčového biologického a/alebo chemického zdroja, musia opísať vývoj a autentifikáciu zdroja v časti Prístup v stratégii výskumu.
  • Nezahrnúť plány na autentifikáciu štandardných laboratórnych reagencií, u ktorých sa neočakáva, že sa budú líšiť. Príkladmi sú pufre a iné bežné biologické alebo chemické látky.
  • Nezahŕňať autentifikácia alebo iné údaje v prílohe „Overenie kľúčových biologických a/alebo chemických zdrojov“. Zahrňte iba popis metód navrhnutých na autentifikáciu kľúčových zdrojov.

Po vyhodnotení žiadosti budú recenzenti diskutovať o informáciách uvedených v tejto časti. Akékoľvek otázky recenzenta súvisiace s autentifikáciou kľúčových biologických a/alebo chemických zdrojov bude potrebné vyriešiť pred udelením ceny.

Informácie v tejto časti sa musí iba sústrediť o autentifikácii a/alebo validácii kľúčových zdrojov, ktoré sa majú použiť v štúdii, ako je popísané vyššie. Všetky ostatné metódy a akékoľvek údaje musia byť zahrnuté do limitov stránok stratégie výskumu. Aplikácie označené ako nevyhovujúce tomuto obmedzeniu budú stiahnuté z procesu kontroly (pozri NOT-OD-15-095).


Obsah

Koncept, že jednotlivci môžu mať „metabolický profil“, ktorý by sa mohol odraziť v zložení ich biologických tekutín, predstavil Roger Williams na konci štyridsiatych rokov minulého storočia [5], ktorý pomocou papierovej chromatografie naznačil charakteristické metabolické vzorce v moči a slinách. s chorobami, ako je schizofrénia. Avšak len vďaka technologickému pokroku v 60. a 70. rokoch bolo možné kvantitatívne (na rozdiel od kvalitatívneho) merať metabolické profily. [6] Pojem „metabolický profil“ zaviedol Horning, a kol. v roku 1971 potom, čo ukázali, že na meranie zlúčenín prítomných v ľudskom moči a tkanivových extraktoch je možné použiť hmotnostnú spektrometriu plynovou chromatografiou (GC-MS). [7] [8] Horningova skupina spolu so skupinou Linusa Paulinga a Arthura B. Robinsona viedli v 70. rokoch 20. storočia vývoj metód GC-MS na monitorovanie metabolitov prítomných v moči. [9]

Súčasne NMR spektroskopia, ktorá bola objavená v 40. rokoch minulého storočia, tiež prechádzala rýchlym pokrokom. V roku 1974 Seeley a kol. preukázali užitočnosť použitia NMR na detekciu metabolitov v nemodifikovaných biologických vzorkách. [10] Táto prvá štúdia o svaloch zdôraznila hodnotu NMR v tom, že sa zistilo, že 90 % bunkového ATP je v komplexe s horčíkom. Keďže sa citlivosť zlepšila s vývojom vyšších intenzít magnetického poľa a rotácie magického uhla, NMR je naďalej popredným analytickým nástrojom na skúmanie metabolizmu. [7] [11] Nedávne [ kedy? ] úsilie o využitie NMR v metabolomike bolo do značnej miery poháňané laboratóriom Jeremyho K. Nicholsona na Birkbeck College, University of London a neskôr na Imperial College London. V roku 1984 Nicholson ukázal, že 'H NMR spektroskopiu je potenciálne možné použiť na diagnostiku diabetes mellitus, a neskôr propagoval aplikáciu metód rozpoznávania vzorov na NMR spektroskopické údaje. [12] [13]

V roku 1995 uskutočnil Gary Siuzdak experimenty s metabolomikou hmotnostnej spektrometrie kvapalinovej chromatografie [14], pričom v spolupráci s Richardom Lernerom (vtedajším prezidentom Výskumného ústavu Scripps) a Benjaminom Cravattom analyzoval mozgovomiechovú tekutinu zo zvierat zbavených spánku. Pozorovala sa jedna zvlášť zaujímavá molekula, oleamid, a neskôr sa ukázalo, že má vlastnosti navodzujúce spánok. Táto práca je jedným z prvých experimentov kombinujúcich kvapalinovú chromatografiu a hmotnostnú spektrometriu v metabolomike.

V roku 2005 bola v laboratóriu Siuzdak vo Výskumnom ústave Scripps vyvinutá prvá databáza metabolomickej tandemovej hmotnostnej spektrometrie METLIN [15] [16] na charakterizáciu ľudských metabolitov. METLIN sa odvtedy rozrástol a od 1. júla 2019 METLIN obsahuje viac ako 450 000 metabolitov a iných chemických entít, pričom každá zlúčenina má údaje experimentálnej tandemovej hmotnostnej spektrometrie generované z molekulárnych štandardov pri viacerých kolíziových energiách a v pozitívnych a negatívnych ionizačných režimoch. METLIN je najväčším úložiskom údajov tandemovej hmotnostnej spektrometrie svojho druhu. Rok 2005 bol tiež rokom, v ktorom sa prvýkrát objavil špecializovaný akademický časopis Metabolomics, ktorý založil jeho súčasný šéfredaktor profesor Roy Goodacre.


V roku 2005 sa laboratórium Siuzdaku zaoberalo identifikáciou metabolitov spojených so sepsou a v snahe riešiť problém štatistickej identifikácie najrelevantnejších dysregulovaných metabolitov naprieč stovkami súborov údajov LC/MS bol vyvinutý prvý algoritmus, ktorý umožňuje nelineárne zarovnanie údaje o hmotnostnej spektrometrii, metabolomike. Pod názvom XCMS [17], kde „X“ predstavuje akúkoľvek chromatografickú technológiu, sa od roku (2012) [18] vyvinul ako online nástroj a od roku 2019 (s METLINom) má viac ako 30 000 registrovaných používateľov.


Dňa 23. januára 2007 projekt Human Metabolome Project pod vedením Davida Wisharta z University of Alberta v Kanade dokončil prvý návrh ľudského metabolómu, ktorý pozostával z databázy približne 2500 metabolitov, 1200 liekov a 3500 zložiek potravín. [19] [20] Podobné projekty prebiehajú vo viacerých rastlinných druhoch, predovšetkým Medicago truncatula [21] a Arabidopsis thaliana [22] už niekoľko rokov.

Ešte v polovici roku 2010 bola metabolomika stále považovaná za „rozvíjajúce sa pole“. [23] Ďalej bolo poznamenané, že ďalší pokrok v tejto oblasti závisí vo veľkej miere od riešenia inak „neriešiteľných technických problémov“ technickým vývojom prístrojov hmotnostnej spektrometrie. [23]

V roku 2015 bolo po prvýkrát preukázané profilovanie metabolómu v reálnom čase. [24]

Metabolom sa týka kompletného súboru metabolitov s malou molekulou (<1,5 kDa) [19] (ako sú metabolické medziprodukty, hormóny a ďalšie signálne molekuly a sekundárne metabolity), ktoré sa nachádzajú v biologickej vzorke, napríklad v jednom organizme. . [25] [26] Slovo bolo vytvorené analogicky s transkriptomikou a proteomikou, ako sú transkriptóm a proteóm, metabolom je dynamický a mení sa z sekundy na sekundu. Napriek tomu, že metabolom je možné dostatočne ľahko definovať, v súčasnosti nie je možné analyzovať celý rad metabolitov jedinou analytickou metódou.

Prvú databázu metabolitov (nazývanú METLIN) na vyhľadávanie údajov o fragmentácii z experimentov tandemovej hmotnostnej spektrometrie vyvinulo laboratórium Siuzdak v The Scripps Research Institute v roku 2005. [15] [16] METLIN obsahuje viac ako 450 000 metabolitov a ďalších chemických entít, z ktorých každá má experimentálne údaje o tandemovej hmotnostnej spektrometrii. V roku 2006 [17] laboratórium Siuzdak vyvinulo prvý algoritmus, ktorý umožňuje nelineárne zarovnanie údajov metabolomiky hmotnostnej spektrometrie. Pod názvom XCMS, kde „X“ predstavuje akúkoľvek chromatografickú technológiu, sa od roku (2012) [18] vyvinul ako online nástroj a od roku 2019 (s METLINom) má viac ako 30 000 registrovaných používateľov.

V januári 2007 vedci z University of Alberta a University of Calgary dokončili prvý návrh ľudského metabolómu. Human Metabolome Database (HMDB) je dosiaľ možno najrozsiahlejšia verejná metabolomická spektrálna databáza. [27] HMDB uchováva viac ako 110 000 rôznych položiek metabolitov. Ako sa uvádza v literatúre, katalogizovali približne 1200 liekov a 3500 zložiek potravín, ktoré sa môžu nachádzať v ľudskom tele. [19] Tieto informácie, dostupné na Human Metabolome Database (www.hmdb.ca) a založené na analýze informácií dostupných v súčasnej vedeckej literatúre, nie sú ani zďaleka úplné. [28] Naproti tomu je oveľa viac známych o metaboloómoch iných organizmov. Napríklad bolo charakterizovaných viac ako 50 000 metabolitov z rastlinnej ríše a mnoho tisíc metabolitov bolo identifikovaných a/alebo charakterizovaných z jednotlivých rastlín. [29] [30]

Každý typ bunky a tkaniva má jedinečný metabolický „odtlačok prsta“, ktorý dokáže objasniť informácie špecifické pre orgán alebo tkanivo. Bio-vzorky používané na metabolomickú analýzu zahŕňajú, ale neobmedzujú sa na plazmu, sérum, moč, sliny, výkaly, svaly, pot, vydychovaný dych a gastrointestinálnu tekutinu. [31] Jednoduchosť zberu uľahčuje vysoké časové rozlíšenie, a pretože sú vždy v dynamickej rovnováhe s telom, môžu opísať hostiteľa ako celok. [32] Genóm môže povedať, čo sa môže stať, transkriptóm môže povedať, čo sa zdá, že sa deje, proteóm môže povedať, čo sa to deje a metabolome môže povedať, čo sa stalo a čo sa deje. [33]

Metabolity sú substráty, medziprodukty a produkty metabolizmu. V kontexte metabolomiky je metabolit obvykle definovaný ako akákoľvek molekula menšia ako 1,5 kDa. [19] Existujú však výnimky v závislosti od vzorky a metódy detekcie. Napríklad makromolekuly, ako sú lipoproteíny a albumín, sú spoľahlivo detegované v metabolomických štúdiách krvnej plazmy na základe NMR. [34] V metabolomike na rastlinnom základe sa bežne hovorí o „primárnych“ a „sekundárnych“ metabolitoch. [3] Primárny metabolit sa priamo podieľa na normálnom raste, vývoji a reprodukcii. Sekundárny metabolit nie je priamo zapojený do týchto procesov, ale zvyčajne má dôležitú ekologickú funkciu. Medzi príklady patria antibiotiká a pigmenty. [35] Naopak, v metabolomike na báze ľudí je bežnejšie popisovať metabolity buď endogénne (produkované hostiteľským organizmom) alebo exogénne. [36] [37] Metabolity cudzích látok, ako sú lieky, sa nazývajú xenometabolity. [38]

Metabolom tvorí veľkú sieť metabolických reakcií, kde výstupy z jednej enzymatickej chemickej reakcie sú vstupmi do ďalších chemických reakcií. Také systémy boli popísané ako hypercykly. [ potrebná citácia ]

Metabonómia je definovaná ako „kvantitatívne meranie dynamickej multiparametrickej metabolickej reakcie živých systémov na patofyziologické podnety alebo genetickú modifikáciu“. Slovo pôvod pochádza z gréčtiny μεταβολή význam zmeny a nomos čo znamená súbor pravidiel alebo súbor zákonov. [39] Tento prístup propagoval Jeremy Nicholson z Murdoch University a bol použitý v toxikológii, diagnostike chorôb a v mnohých ďalších oblastiach. Metabonomický prístup bol historicky jednou z prvých metód, ktoré použili rozsah systémovej biológie na štúdie metabolizmu. [40] [41] [42]

Existuje určitá nezhoda ohľadom presných rozdielov medzi „metabolomikou“ a „metabonomikou“. Rozdiel medzi týmito dvoma pojmami nesúvisí s výberom analytickej platformy: aj keď je metabonómia viac spojená s NMR spektroskopiou a metabolomikou s technikami založenými na hmotnostnej spektrometrii, je to jednoducho kvôli použitiu medzi rôznymi skupinami, ktoré popularizovali rôzne termíny. Aj keď stále neexistuje absolútna zhoda, rastie konsenzus, že „metabolomika“ kladie väčší dôraz na metabolické profilovanie na bunkovej alebo orgánovej úrovni a týka sa predovšetkým normálneho endogénneho metabolizmu. „Metabonomika“ rozširuje metabolické profilovanie o informácie o poruchách metabolizmu spôsobených environmentálnymi faktormi (vrátane stravy a toxínov), chorobných procesoch a účasti extragenomických vplyvov, ako je črevná mikroflóra. Nejde o triviálny rozdiel. Metabolomické štúdie by podľa definície mali vylúčiť metabolické príspevky z extragenomických zdrojov, pretože tieto sú mimo študovaného systému. V praxi však v oblasti výskumu chorôb ľudí stále existuje veľký stupeň prekrývania spôsobu, akým sa obidva výrazy používajú, a často sú v skutočnosti synonymá. [43]

Exometabolomika alebo "metabolická stopa" je štúdium extracelulárnych metabolitov. Využíva mnoho techník z iných oblastí metabolomiky a má uplatnenie vo vývoji biopalív, bioprocese, určovaní mechanizmu účinku liekov a štúdiu medzibunkových interakcií. [44]

Typický pracovný tok štúdií metabolomiky je znázornený na obrázku. Najprv sa odoberú vzorky z tkaniva, plazmy, moču, slín, buniek atď. Ďalej sa metabolity extrahujú často pridaním vnútorných štandardov a derivatizáciou. [45] Počas analýzy vzorky sú metabolity kvantifikované (kvapalinová chromatografia alebo plynová chromatografia spojená s MS a/alebo NMR spektroskopiou). Nespracované výstupné údaje možno použiť na extrakciu vlastností metabolitov a ďalej spracovať pred štatistickou analýzou (ako je PCA). K dispozícii je veľa bioinformatických nástrojov a softvéru na identifikáciu asociácií s chorobnými stavmi a výsledkami, určenie významných korelácií a charakterizáciu metabolických podpisov s existujúcimi biologickými poznatkami. [46]

Separačné metódy Upraviť

Analytiky v metabolomickej vzorke spočiatku pozostávajú z veľmi komplexnej zmesi. Túto komplexnú zmes je možné pred detekciou zjednodušiť oddelením niektorých analytov od ostatných. Separáciou sa dosahujú rôzne ciele: analyty, ktoré sa nedajú rozlíšiť detektorom, môžu byť v tomto kroku MS analýzy oddelené potlačenie iónov sa zníži retenčný čas analytu slúži ako informácia o jeho identite. Tento separačný krok nie je povinný a často sa vynecháva v prístupoch založených na NMR a „brokovnici“, ako je lipidomika brokovnice.

Plynová chromatografia (GC), najmä keď je prepojená s hmotnostnou spektrometriou (GC-MS), je široko používanou separačnou technikou pre metabolomickú analýzu. [47] GC ponúka veľmi vysoké chromatografické rozlíšenie a môže byť použitý v spojení s plameňovým ionizačným detektorom (GC/FID) alebo hmotnostným spektrometrom (GC-MS). Metóda je obzvlášť užitočná na identifikáciu a kvantifikáciu malých a prchavých molekúl. [48] ​​Praktickým obmedzením GC je však požiadavka chemickej derivatizácie mnohých biomolekúl, keďže bez derivatizácie možno analyzovať iba prchavé chemikálie. V prípadoch, kde je potrebná väčšia rozlišovacia schopnosť, je možné použiť dvojrozmernú chromatografiu (GCxGC).

Vysokoúčinná kvapalinová chromatografia (HPLC) sa ukázala ako najbežnejšia separačná technika pre metabolomickú analýzu. S príchodom elektrosprejovej ionizácie bola HPLC spojená s MS. Na rozdiel od GC má HPLC nižšie chromatografické rozlíšenie, ale nevyžaduje žiadnu derivatizáciu pre polárne molekuly a oddeľuje molekuly v kvapalnej fáze. HPLC má navyše tú výhodu, že je možné merať oveľa širší rozsah analytov s vyššou citlivosťou ako metódy GC. [49]

Kapilárna elektroforéza (CE) má vyššiu teoretickú separačnú účinnosť ako HPLC (hoci vyžaduje oveľa viac času na separáciu) a je vhodná na použitie so širším rozsahom tried metabolitov ako GC. Ako všetky elektroforetické techniky je najvhodnejšie pre nabité analyty. [50]

Spôsoby detekcie Upraviť

Hmotnostná spektrometria (MS) sa používa na identifikáciu a kvantifikáciu metabolitov po voliteľnej separácii pomocou GC, HPLC alebo CE. GC-MS bola prvou technikou spojovníkov, ktorá bola vyvinutá. Identifikácia využíva odlišné vzorce, v ktorých existujú fragmenty analytov, ktoré je možné považovať za hmotnostne spektrálne knižnice odtlačkov prstov, ktoré umožňujú identifikáciu metabolitu podľa tohto fragmentačného vzoru [ potrebný príklad ]. MS je citlivá a môže byť veľmi špecifická. Existuje tiež niekoľko techník, ktoré používajú MS ako samostatnú technológiu: vzorka sa infúzi priamo do hmotnostného spektrometra bez predchádzajúceho oddelenia a MS poskytuje dostatočnú selektivitu na separáciu aj na detekciu metabolitov.

Na analýzu hmotnostnou spektrometriou sa analytom musí dodať dávka a preniesť do plynnej fázy. Elektrónová ionizácia (EI) je najbežnejšou ionizačnou technikou používanou na separácie GC, pretože je prístupná nízkym tlakom. EI tiež spôsobuje fragmentáciu analytu, pričom poskytuje štruktúrne informácie a súčasne zvyšuje zložitosť údajov a prípadne zakrýva molekulárny ión. Chemická ionizácia za atmosferického tlaku (APCI) je technika atmosferického tlaku, ktorú možno použiť na všetky vyššie uvedené separačné techniky. APCI je metóda ionizácie v plynnej fáze o niečo agresívnejšia ako ESI, ktorá je vhodná pre menej polárne zlúčeniny. Elektrosprejová ionizácia (ESI) je najbežnejšou ionizačnou technikou používanou v LC/MS. Táto mäkká ionizácia je najúspešnejšia pre polárne molekuly s ionizovateľnými funkčnými skupinami. Ďalšou bežne používanou technikou mäkkej ionizácie je sekundárna elektrosprejová ionizácia (SESI).

V posledných desaťročiach došlo k oživeniu povrchovej hmotnostnej analýzy, pričom nové technológie MS sa zamerali na zvýšenie citlivosti, minimalizáciu pozadia a obmedzenie prípravy vzorky. Schopnosť analyzovať metabolity priamo z biofluidov a tkanív naďalej spochybňuje súčasnú technológiu MS, a to predovšetkým kvôli limitom uloženým v zložitosti týchto vzoriek, ktoré obsahujú tisíce až desaťtisíce metabolitov. Medzi technológie, ktoré sa vyvíjajú na riešenie tejto výzvy, patrí nanoštruktúra-iniciátor MS (NIMS), [51] [52] desorpčný/ionizačný prístup, ktorý nevyžaduje aplikáciu matrice, a tým uľahčuje identifikáciu malých molekúl (t. j. metabolitov). Používa sa tiež MALDI, aplikácia matice MALDI však môže pridať významné pozadie pri <1000 Da, čo komplikuje analýzu rozsahu nízkej hmotnosti (tj. Metabolity). Okrem toho veľkosť výsledných kryštálov matrice obmedzuje priestorové rozlíšenie, ktoré je možné dosiahnuť pri zobrazovaní tkaniva. Kvôli týmto obmedzeniam sa na analýzu biokvapalín a tkanív použilo niekoľko ďalších desorpčných/ionizačných prístupov bez matrice.

Hmotnostná spektrometria sekundárnych iónov (SIMS) bola jedným z prvých desorpčných/ionizačných prístupov bez matrice používaných na analýzu metabolitov z biologických vzoriek. [ potrebná citácia ] SIMS používa vysokoenergetický zväzok primárnych iónov na desorpciu a generovanie sekundárnych iónov z povrchu. Hlavnou výhodou SIMS je vysoké priestorové rozlíšenie (až 50 nm), čo je charakteristická vlastnosť zobrazovania tkaniva s MS. SIMS sa však ešte musí ľahko aplikovať na analýzu biokvapalín a tkanív z dôvodu jeho obmedzenej citlivosti pri > 500 Da a fragmentácie analytu generovanej vysokoenergetickým lúčom primárnych iónov. Desorpčná elektrosprejová ionizácia (DESI) je technika bez matrice na analýzu biologických vzoriek, ktorá využíva rozprašovanie nabitého rozpúšťadla na desorbovanie iónov z povrchu. Výhody DESI spočívajú v tom, že nie je potrebný žiadny špeciálny povrch a analýza sa vykonáva pri okolitom tlaku s plným prístupom k vzorke počas snímania. Obmedzením DESI je priestorové rozlíšenie, pretože „zaostrenie“ spreja nabitého rozpúšťadla je ťažké. Nedávny vývoj nazývaný laserová ablácia ESI (LAESI) je však sľubným prístupom na obídenie tohto obmedzenia. [ potrebná citácia ] Najnovšie sa techniky iónovej pasce, ako je hmotnostná spektrometria orbitrap, aplikujú aj na výskum metabolomiky. [53]

Spektroskopia nukleárnej magnetickej rezonancie (NMR) je jedinou detekčnou technikou, ktorá sa nespolieha na separáciu analytov, a preto je možné vzorku získať na ďalšie analýzy. Súčasne je možné merať všetky druhy metabolitov s malou molekulou - v tomto zmysle je NMR takmer univerzálnym detektorom. Hlavnými výhodami NMR sú vysoká analytická reprodukovateľnosť a jednoduchosť prípravy vzorky. Prakticky je však v porovnaní s technikami založenými na hmotnostnej spektrometrii relatívne necitlivý. [54] [55] Porovnanie najčastejšie používaných metabolomických metód je uvedené v tabuľke.

Aj keď sú NMR a MS najpoužívanejšie, v moderných technológiách sa používajú aj iné metódy detekcie. Patria sem Fourierova transformácia iónovo cyklotronovej rezonancie, [56] spektrometria iónovej mobility, [57] elektrochemická detekcia (spojená s HPLC), Ramanova spektroskopia a rádioaktívna značka (v kombinácii s tenkovrstvovou chromatografiou). [ potrebná citácia ]

Údaje generované v metabolomike zvyčajne pozostávajú z meraní vykonaných na subjektoch za rôznych podmienok. Tieto merania môžu byť digitalizované spektrá alebo zoznam znakov metabolitov. Vo svojej najjednoduchšej forme to vytvára maticu s riadkami zodpovedajúcimi subjektom a stĺpcami zodpovedajúcimi znakom metabolitu (alebo naopak). [7] V súčasnosti je k dispozícii niekoľko štatistických programov na analýzu údajov NMR aj hmotnostnej spektrometrie. Na analýzu metabolomických údajov uvedených v tabuľke je už k dispozícii veľké množstvo bezplatného softvéru. Niektoré štatistické nástroje uvedené v tabuľke boli navrhnuté pre analýzy údajov NMR, boli tiež užitočné pre údaje MS. [58] Pre údaje o hmotnostnej spektrometrii je k dispozícii softvér, ktorý identifikuje molekuly, ktoré sa líšia v skupinách subjektov na základe hodnoty hmotnostného prebíjania a niekedy aj retenčného času v závislosti od experimentálneho návrhu. [59]

Akonáhle je stanovená matica údajov metabolitu, na objasnenie vzorcov a spojení je možné použiť techniky bez dohľadu nad údajmi (napr. PCA). V mnohých štúdiách, vrátane tých, ktoré hodnotia toxicitu lieku a niektoré modely chorôb, nie sú známe metabolity, ktoré sú predmetom záujmu a priori. Vďaka tomu sú metódy bez dozoru, metódy bez predchádzajúcich predpokladov členstva v triede, obľúbenou prvou voľbou. Najbežnejšia z týchto metód zahŕňa analýzu hlavných komponentov (PCA), ktorá dokáže efektívne zmenšiť rozmery súboru údajov na niekoľko, ktoré vysvetľujú najväčšiu variáciu. [32] Pri analýze v priestorovom PCA nižšej dimenzie je možné detegovať zhlukovanie vzoriek s podobnými metabolickými odtlačkami prstov. Cieľom algoritmov PCA je nahradiť všetky korelované premenné oveľa menším počtom nekorelovaných premenných (označovaných ako hlavné komponenty (PC)) a zachovať väčšinu informácií v pôvodnom súbore údajov. [60] Toto zoskupenie môže objasniť vzorce a pomôcť pri určovaní biomarkerov choroby - metabolitov, ktoré najviac korelujú s členstvom v triede.

Lineárne modely sa bežne používajú pre metabolomické údaje, ale sú ovplyvnené multikolinearitou. Na druhej strane sú viacrozmerné štatistiky prosperujúcimi metódami pre vysokorozmerné korelované metabolomické údaje, z ktorých najobľúbenejšou je regresia Projection to Latent Structures (PLS) a jej klasifikačná verzia PLS-DA. Ostatné metódy dolovania údajov, ako napríklad náhodný les, stroje s podpornými vektormi atď., Dostávajú čoraz väčšiu pozornosť kvôli necieľovej analýze metabolomických údajov. [61] V prípade univariačných metód sú premenné analyzované jednu po druhej pomocou klasických štatistických nástrojov (ako je Studentov t-test, ANOVA alebo zmiešané modely) a za relevantné sa považujú iba tie, ktoré majú dostatočne malé hodnoty p. [31] Na zníženie falošných objavov by sa však mali použiť korekčné stratégie, keď sa vykonávajú viacnásobné porovnania. V prípade viacrozmernej analýzy by sa modely mali vždy validovať, aby sa zabezpečilo, že výsledky možno zovšeobecniť.

Strojové učenie je tiež účinný nástroj, ktorý možno použiť v metabolomickej analýze. Autori článku publikovaného v časopise Analytical Chemistry vyvinuli softvér na predikciu retenčného času s názvom Retip. Tento nástroj, vyvinutý v spolupráci s NGALAB, West Coast Metabolomics Center a Riken, umožňuje všetkým laboratóriám aplikovať umelú inteligenciu na predikciu retenčného času malých molekúl v komplexnej matrici, ako je ľudská plazma, rastliny, potraviny alebo mikrobiálne látky. Predikcia retenčného času zvyšuje rýchlosť identifikácie v kvapalinovej chromatografii a následne vedie k zlepšenej biologickej interpretácii metabolomických údajov. [62]

Hodnotenie toxicity/toxikológia metabolickým profilovaním (najmä vzoriek moču alebo krvnej plazmy) zisťuje fyziologické zmeny spôsobené toxickým poškodením chemikálie (alebo zmesi chemikálií). V mnohých prípadoch môžu pozorované zmeny súvisieť so špecifickými syndrómami, napr. špecifická lézia v pečeni alebo obličkách. Toto je obzvlášť dôležité pre farmaceutické spoločnosti, ktoré chcú testovať toxicitu potenciálnych kandidátov na liečivá: ak je možné zlúčeninu eliminovať pred dosiahnutím klinických skúšok z dôvodu nepriaznivej toxicity, ušetrí to obrovské náklady na skúšky. [43]

Pre funkčnú genomiku môže byť metabolomika vynikajúcim nástrojom na určenie fenotypu spôsobeného genetickou manipuláciou, ako je napríklad delécia génu alebo inzercia. Niekedy to môže byť samo osebe dostatočným cieľom – napríklad odhaliť akékoľvek fenotypové zmeny v geneticky modifikovanej rastline určenej na ľudskú alebo zvieraciu spotrebu. Zaujímavejšia je perspektíva predpovedania funkcie neznámych génov porovnaním s metabolickými poruchami spôsobenými deléciou/inzerciou známych génov. Takéto pokroky s najväčšou pravdepodobnosťou pochádzajú od modelových organizmov, ako sú napr Saccharomyces cerevisiae a Arabidopsis thaliana. Laboratórium Cravatt vo Výskumnom ústave Scripps nedávno aplikovalo túto technológiu na systémy cicavcov, pričom identifikovalo N.-acyltauríny ako predtým necharakterizované endogénne substráty pre enzým hydrolázu amidu mastných kyselín (FAAH) a monoalkylglycerolétery (MAGE) ako endogénne substráty pre necharakterizovanú hydrolázu KIAA1363. [63] [64]

Metabologenomika je nový prístup k integrácii metabolomických a genomických údajov koreláciou mikrobiálne exportovaných metabolitov s predpokladanými biosyntetickými génmi. [65] Táto metóda párovania založená na bioinformatike umožňuje objavovanie prírodných produktov vo väčšom meradle spresnením necielených metabolomických analýz na identifikáciu malých molekúl so súvisiacou biosyntézou a zameranie sa na tie, ktoré nemusia mať predtým dobre známe štruktúry.

Fluxomika je ďalší vývoj metabolomiky. Nevýhodou metabolomiky je, že poskytuje používateľovi iba informácie o úrovni ustáleného stavu, zatiaľ čo fluxomika určuje reakčné rýchlosti metabolických reakcií a môže v priebehu času stopovať metabolity v biologickom systéme.

Nutrigenomika je zovšeobecnený termín, ktorý spája genomiku, transkriptomiku, proteomiku a metabolomiku s ľudskou výživou. Metabolom v danej telesnej tekutine je vo všeobecnosti ovplyvňovaný endogénnymi faktormi, ako je vek, pohlavie, telesné zloženie a genetika, ako aj základnými patológiami. Mikroflóra hrubého čreva je tiež veľmi významným potenciálnym zmätkom metabolických profilov a môže byť klasifikovaná ako endogénny alebo exogénny faktor. Hlavnými exogénnymi faktormi sú strava a lieky. Stravu potom možno rozdeliť na živiny a neživiny. Metabolomika je jedným z prostriedkov na určenie biologického koncového bodu alebo metabolického odtlačku prsta, ktorý odráža rovnováhu všetkých týchto síl na metabolizmus jednotlivca. [66]


Termín spektrofotometer môže vzťahovať sa na rôzne nástroje, ktoré merajú svetlo, pričom presná definícia závisí od oblasti vedy alebo priemyslu. In all cases the term ‘photo’ is used to indicate that the spectrometer is for the quantitative measurement of light intensity with wavelength. Within academic research (particularly chemistry and biology laboratories) the term spectrophotometer is used specifically to refer to a spectrometer which measures the absorption of light by a sample and that definition will be used here.

Figure 4: Simplified diagram of a single beam spectrophotometer.

A stylised layout of a basic single beam spectrophotometer is shown in Figure 4. It comprises a white light source which is usually either a combination of a deuterium arc lamp to cover the UV range and a tungsten halogen lamp to cover the visible or a single Xenon arc lamp to cover the entire range. This is followed by an excitation monochromator which selects the wavelength of light that reaches the sample. This light is then either transmitted through the sample (as shown in Figure 4) for transparent samples such as solutions or reflected off the surface for opaque samples. The intensity of the transmitted or reflected light is then monitored using a detector which is typically a photomultiplier tube or silicon photodiode.

In addition to stand alone spectrophotometers, the functionality of a spectrophotometer can also be incorporated as a secondary feature into other spectrometers. An example of this is the FS5 Spectrofluorometer which comes with a transmission detector as standard and has all the functionality of a single beam spectrophotometer in addition to being a spectrofluorometer.

The most common measurement undertaken in a spectrophotometer is measuring the absorption spectrum of a sample. The excitation monochromator is scanned and the change in light intensity transmitted through the sample recorded on the detector. This is then repeated with a reference sample and the absorption spectrum calculated as shown in Figure 5 for a solution of fluorescein in phosphate buffered saline.

Figure 5: Absorption spectrum of fluorescein measured using the FS5 Spectrofluorometer.

A much more advanced version of a spectrophotometer is a transient absorption spectrometer, which can measure the evolution of the absorption spectrum with time and is essential for looking at temporary species generated through chemical reactions or short lived photoexcited states. The operation and design of transient absorption spectrometers are beyond the scope of this article but you can learn more in our introduction to transient absorption using the Edinburgh Instruments LP980 Transient Absorption Spectrometer.

Figure 6: Edinburgh Instruments LP980 Transient Absorption Spectrometer.


Protein mass spectrometry applications

Mass spectrometry measures the m/z ratio of ions to identify and quantify molecules in simple and complex mixtures. MS has become invaluable across a broad range of fields and applications, including proteomics. The development of high-throughput and quantitative MS proteomics workflows within the last two decades has expanded the scope of what we know about protein structure, function and modification, as well as global protein dynamics.

This overview outlines the role of mass spectrometry in the field of proteomics and reviews MS methodology and instrumentation. It also touches on sample preparation and liquid chromatography–based separation prior to MS analysis.

  • Determine protein structure, function, folding and interactions. from the mass of its peptide fragments.
  • Detect specific post-translational modifications throughout complex biological mixtures using workflows for phosphoproteomics and protein glycosylation. (relative or absolute) in a given sample.
  • Monitor enzyme reactions, chemical modifications and protein digestion.
  • Perform forensic analyses such as confirmation of drug abuse.
  • Detect disease biomarkers (e.g., newborns screened for metabolic diseases).

All mass spectrometers have an ion source, a mass analyzer and an ion detector. The nature of these components varies based on the purpose of the mass spectrometer, the type of data required, and the physical properties of the sample. Samples are loaded into the mass spectrometer in liquid, gas or dried form and then vaporized and ionized by the ion source (e.g., APCI, DART, ESI).

Schematic of the basic components of a mass spectrometer.

The charge that these molecules receive allows the mass spectrometer to accelerate the ions throughout the remainder of the system. The ions encounter electric and/or magnetic fields from mass analyzers, which deflect the paths of individual ions based on their m/z. Commonly used mass analyzers include time-of-flight [TOF], orbitraps, quadrupoles and ion traps, and each type has specific characteristics. Mass analyzers can be used to separate all analytes in a sample for global analysis, or they can be used like a filter to deflect only specific ions towards the detector.

Ions that have successfully been deflected by the mass analyzers then hit the ion detector. Most often, these detectors are electron multipliers or microchannel plates that emit a cascade of electrons when each ion hits the detector plate. This cascade results in amplification of each ion hit for improved sensitivity. This entire process is performed under an extreme vacuum (10 -6 to 10 -8 torr) to remove gas molecules and neutral and contaminating non-sample ions, which can collide with sample ions and alter their paths or produce non-specific reaction products.

Newer Thermo Scientific Orbitrap technology captures ions around a central spindle electrode and then analyzes their m/z values as they move across the spindle with different harmonic oscillation frequencies.

Mass spectrometers are connected to computer-based software platforms that measure ion oscillation frequencies and acquire mass spectra using image current detection. Data analysis programs detect ions and organize them by their individual m/z values and relative abundance. These ions can then be identified via established databases that predict the identity of the molecule based on its m/z hodnotu.

Watch this video to learn more about the Orbitrap Fusion Mass Spectrometer

Diagram of a sector† mass spectrometer. A sample is injected into the mass spectrometer, and the molecules are ionized and accelerated. The ions are then separated by mass and charge by the mass analyzer via electromagnetic deflection, and the ions that are properly aligned are detected and amplified. The entire system is under intense vacuum during the entire process. After signal amplification, the data that is generated reports on the relative abundance of each ion based on its mass-to-charge (m/z) ratio. †Although sector instruments have decreased in use due to improvements in mass analyzers (e.g., quadrupole, orbitrap), this simplified diagram conveys a key principle of mass spectrometry, which is its ability to select and analyze specific ions in a complex sample.

Tandem mass spectrometry (MS/MS)

Tandem mass spectrometry (MS/MS) offers additional information about specific ions. In this approach, distinct ions of interest are in a quadrupole filter based on their m/z during the first round of MS and are fragmented by a number of different dissociation methods. One such method involves colliding the ions with a stream of inert gas, which is known as collision-induced dissociation (CID) or higher energy collision dissociation (HCD). Other methods of ion fragmentation include electron-transfer dissociation (ETD) and electron-capture dissociation (ECD).

These fragments are then separated based on their individual m/z ratios in a second round of MS. MS/MS is commonly used to sequence proteins and oligonucleotides because the fragments can be used to match predicted peptide or nucleic acid sequences, respectively, that are found in databases such as IPI, RefSeq and UniProtKB/Swiss-Prot. These sequence fragments can then be organized v silikóne into full-length sequence predictions.

Diagram of tandem mass spectrometry (MS/MS). A sample is injected into the mass spectrometer, ionized, accelerated and analyzed by mass spectrometry (MS1). Ions from the MS1 spectra are then selectively fragmented and analyzed by a second stage of mass spectrometry (MS2) to generate the spectra for the ion fragments. While the diagram indicates separate mass analyzers (MS1 and MS2), some instruments utilize a single mass analyzer for both rounds of MS.

Biological samples are often quite complex and contain molecules that can mask the detection of the target molecule, such as when the sample exhibits a large dynamic concentration range between the target analyte(s) and other molecules in the sample. Two methods of separation are commonly used to partition the target analyte(s) from the other molecules in a sample.

Gas chromatography (GC) and liquid chromatography (LC)

Gas chromatography (GC) and liquid chromatography (LC) are common methods of pre-MS separation that are used when analyzing complex gas or liquid samples by MS, respectively. Liquid chromatography–mass spectrometry (LC-MS) is typically applied to the analysis of thermally unstable and nonvolatile molecules (e.g., sensitive biological fluids), while gas chromatography–mass spectrometry (GC-MS) is used for the analysis of volatile compounds such as petrochemicals. LC-MS and GC-MS also use different methods for ionization of the compound as it is introduced into the mass spectrometer. With LC-MS, electrospray ionization (ESI) is commonly applied, resulting in the production of aerosolized ions. With GC-MS, the sample may be ionized directly or indirectly via ESI.

High performance liquid chromatography (HPLC)

High performance liquid chromatography (HPLC) is the most common separation method to study biological samples by MS or MS/MS (termed LC-MS alebo LC-MS/MS, respectively), because the majority of biological samples are liquid and nonvolatile. LC columns have small diameters (e.g., 75 μm nanoHPLC) and low flow rates (e.g., 200 nL/min), which are ideal for minute samples. Additionally, "in-line" liquid chromatography (LC linked directly to MS) provides a high-throughput approach to sample analysis, enabling the elution of multiple analytes through the column at different rates to be immediately analyzed by MS. For example, 1 to 5 peptides in a complex biological mixture can be sequenced per second by in-line LC-MS/MS.

Example of in-line LC-MS/MS system. Thermo Scientific Q Exactive Plus with Dionex UltiMate 3000 UHPLC.


Systems Biology as Defined by NIH

It used to be as simple as “the knee bone connected to the thigh bone.” Now scientists use systems biology approaches to understand the big picture of how all the pieces interact in an organism. The above illustration depicts an interactome, the whole set of molecular interactions in cells. The interactome is considered an essential systems biology resource.

Ask five different astrophysicists to define a black hole, the saying goes, and you’ll get five different answers. But ask five biomedical researchers to define systems biology, and you’ll get 10 different answers . . . or maybe more.

Systems biology is an approach in biomedical research to understanding the larger picture—be it at the level of the organism, tissue, or cell—by putting its pieces together. It’s in stark contrast to decades of reductionist biology, which involves taking the pieces apart.

Yet with its complicated flow charts that can (in the words of T.S. Eliot) “follow like a tedious argument of insidious intent,” systems biology has scared away more than a few researchers. Still others fail to fully appreciate its usefulness because it lacks a concise, unified definition.

“There [are] an endless number of definitions,” said Ron Germain, chief of NIAID’s new Laboratory of Systems Biology, NIH’s first organized foray into systems biology, which has been nearly a decade in the making. “It’s even worse than the elephant,” that infamous elephant that stymies the attempts of blind men to describe it because each feels just one part.

“Some people think of it as bioinformatics, taking an enormous amount of information and processing it,” Germain said. “The other school of thought thinks of it as computational biology, computing on how the systems work. You need both of these parts.”

The new NIAID lab reflects an intellectual journey that Germain and some of his NIH colleagues embarked upon as the Human Genome Project was nearing completion.

If the NIAID Systems Biology Laboratory were a symphony orchestra, lab chief Ron Germain would be its conductor-musician. As conductor, Germain provides the necessary structure for tempo and harmony. As musician, he provides the immunology base, essentially the study of macrophages. He has recruited "orchestra" members for the lab who have the skills to work on their own but are also able to work together in the name of systems biology.

At that time, circa 2001, biology was rich in genomic data proteomics had come of age and immunologists had identified many cellular and even molecular components of the immune system. Yet predicting immune system behavior remained as elusive as ever.

Whether a systems biology lab could tease out answers was far from clear. But despite the risk, NIAID Director Anthony Fauci and Scientific Director Kathy Zoon committed a steady stream of resources. Together with Germain, they hoped for, and threw their energy into, a new approach to understanding the immune system that would better embrace experimental and computational techniques to explore connections in all their intricate glory.

The new lab, formed in early 2011 from the Program in Systems Immunology and Infectious Disease Modeling (PSIIM), comprises Martin Meier-Schellersheim, head of the Computational Biology Unit Iain Fraser, head of the Signaling Systems Unit Aleksandra Nita-Lazar, head of the Cellular Networks Proteomics Unit John Tsang, head of the Systems Genomics and Bioinformatics Unit and Germain, chief of NIAID’s Lymphocyte Biology Section, providing the immunology base to this operation.

Independently, the unit heads interact with labs at NIH and beyond to establish and incorporate systems biology methods. In true team spirit, they work together to attack the most basic elements of immunology such as a response to an infection or vaccination.

Ironically, to best understand this new lab, we should take a reductionist approach to defining its parts. The system, it seems, is more than the sum of its parts.

Start with Computational Modeling

Sophisticated computational models and simulations represent integral parts of systems biology. In immunology, they are needed to understand the complex biochemical networks that regulate the interactions among the immune system’s cells and between these cells and infectious organisms.

Enter Martin Meier-Schellersheim, a physicist by training. He was the first to join NIAID’s venture in 2001, even before the launch of PSIIM. He has been most successful in empowering non–computational biologists to do computational biology. Indeed, he has helped foster the very team concept that underlies the new lab his software brings advanced computational capacity to a broad range of biologists.

This willing involvement of biologists is paramount because models need solid experimental data as input and as a reference to ensure reality checks. Otherwise the biological models are likely to be oversimplified either for lack of data or because their development suffers from poor communication between experimentalists and theorists.

Meier-Schellersheim’s primary software tool, called Simmune, facilitates the construction and simulation of realistic multiscale biological processes. He is also involved in the ongoing development of a systems biology markup language, SBML3, that can encode advanced models of cellular signaling pathways.

Add Some Cell Biology

Iain Fraser, a biochemist and molecular biologist interested in the mechanisms of cell signaling, arrived at NIH in 2008. As the lead high-throughput member of the lab, he has several powerful tools on hand to generate key data sets. These data sets ultimately feed into Meier-Schellersheim’s software to produce quantitative models.

Fraser’s tools include in-house genome-wide RNAi screens to characterize signaling network relationships in hematopoietic cells. Such screens are beginning to identify key components in innate immune pathogen-sensing networks. He interacts closely with the NIH-wide RNAi screening group at the NIH Chemical Genomics Center and also with the RNAi Global consortium.

Fraser said immune-system signaling networks can be unraveled by using proper systematic approaches to interpret complex data sets. He offers the example of Toll-like receptors (TLRs), which trigger an intricate cellular response that activates multiple intracellular signaling pathways.

Excessive activation can lead to chronic inflammatory disorders insufficient activation can render the host susceptible to infection. Unbiased screening approaches can help identify the components that allow the immune system to maintain a homeostatic balance in the face of microbial challenges.

One of Fraser’s early successes, using a systems biology approach, was demonstrating how a single protein kinase can mediate the anti-inflammatory effects of cyclic adenosine monophosphate in its crosstalk with TLR4.

Fraser sums up his time at NIH as establishing “the screening infrastructure for dissecting the response of the macrophage to a broad range of pathogenic stimuli.”

The “orchestra” members for NIAID’s new Systems Biology Laboratory include (clockwise from top left) Martin Meier-Schellersheim, head of the Computational Biology Unit Iain Fraser, head of the Signaling Systems Unit Aleksandra Nita-Lazar, head of the Cellular Networks Proteomics Unit and John Tsang, head of the Systems Genomics and Bioinformatics Unit.

One Generous Serving of Proteomics

Aleksandra Nita-Lazar is developing new methods to obtain quantitative data that improve our understanding of cell biology and also funnel key information into model building. Her domain is the system-wide analysis of the proteome, which has fallen behind DNA analysis partly for want of the necessary tools.

The difference stems from the accommodating nature of DNA. DNA is easily recognized, replicable, and relatively stable, whereas the folded structure of proteins can’t be amplified. Yet protein studies are essential in developing useful models for many reasons, Nita-Lazar said. Such studies can reveal the molecular constituents of a cell provide information about the biochemical state of the proteins and determine catalytic rates and the association and disassociation rates for molecular pairs.

Nita-Lazar uses mass spectrometry to investigate protein phosphorylation, the process of binding with a phosphate group, one of the most common modes of protein-function regulation. She can use the same protocols that Fraser helped develop, and the same cell types, to determine which proteins are phosphorylated in response to a particular stimulus, when they are phosphorylated, and how those data fit into what is known about the transcriptional response.

Nita-Lazar’s group, with Fraser’s group, has been harvesting from these screens the key components required for the signal to flow through a pathway and also for the induction of the inflammatory cytokine messenger RNAs that arise. “This kind of approach used to be dismissed as a fishing expedition,” said Nita-Lazar. The goal is not to catch that one big tuna, however nice that would be, but rather to see the whole school of fish, the entire ecosystem.

Mix Well with Genomics

The enormous amount of data being collected requires processing and analysis—computational tools plus genetics and genomics “to build things from the top down,” Germain said.

Enter John Tsang, the most recent member of Germain’s lab and the element that transformed the PSIIM into a full-fledged systems biology lab.

On the genomics side, Tsang collects and analyzes data on gene expression, miRNAs, epigenetic modifications, and commensal microbes, and he conducts experiments to connect signaling to gene expression. On the bioinformatics side, he develops and applies statistical tools for large and diverse data sets, such as data from microarrays and high-throughput screenings, with an eye toward network models that involve genes, proteins, miRNAs, and epigenetic states.

Tsang also heads bioinformatics at the trans-NIH Center for Human Immunology (CHI), using similar integrative genomics approaches to study the human immune system, such as immune reactions to the flu vaccine in patients.

A core theme for building network models is capitalizing on systematic perturbations and -omics technologies to measure genome-wide responses. From the TLR stimulations that Fraser studies to vaccinations and natural genetic variations in humans, “all are valuable perturbations to help us figure out the wiring and function of the underlying system,” said Tsang.

Oh, Right, Immunology Too

“So, what am I doing in all of this aside from raising money and pontificating?” Germain joked.

If the NIAID Systems Biology Laboratory could be considered a symphony orchestra, Germain would be its conductor-musician. As conductor, he provides the necessary structure for tempo and harmony. As the musician, he provides the immunology base, essentially the study of macrophages.

Germain has seen systems biology labs in which collaborations are more opportunistic than routine, the shortsighted result of building a building, adding smart people, and hoping it all works out. His strategy instead has been to recruit individuals with the necessary skill sets to work on their own but also to work together in the name of systems biology.

“We all have slightly different interests, but there is enough overlap between those interests for us to develop those core projects and for us to be invested in them,” said Fraser.

Don W. Fawcett, Emma Shelton

Macrophages and lymphocytes, the two types of immune cells pictured above, interact with their surroundings in complicated ways. NIH researchers are using systems biology approaches to understand the totality of such interactions.

Teraz všetci spolu

To understand the response to infection or vaccination at an integrated level, the lab is studying the intersection of innate and adaptive receptor-dependent pathways and their control of gene networks. The researchers have bottom-up projects to understand and model the signaling within specific cell types at a fine-grained level.

And they have a top-down approach that uses inferences from perturbation analyses to probe the large-scale structure of the interactions not only at the cellular level, but also at the tissue and even the organism level.

To accomplish this grand goal, Germain said, the lab works in digestible chunks, focusing on pathogen sensing in key innate cells, such as macrophages, and the intersection of signaling by antigen receptors, cytokines, and TLRs in determining whether B cells become memory cells or long-lived plasma cells.

This process is critical for vaccine development. At the top-down level, the lab uses host genetics and microbiota variation to explore how the immune system’s set point is determined for responses to infections and vaccines.

This early into the chase, the lab has not yet published results on these pursuits, although a paper is pending on the lab’s work with CHI and the flu.

Towards a Trans-NIH Approach

Germain hopes the Laboratory of Systems Biology will serve “as an intellectual resource for people who are thinking in the systems mode and have their hands on these technologies [and want] to see how they could be applied to their work.”

He named the lab the Laboratory of Systems Biology with no mention of immunology or host-pathogen interaction to designate its raison d’être. Inspired by NIAID’s efforts, NCI and NHLBI are actively recruiting researchers to establish systems biology programs. NHLBI has just named Keji Zhao, senior investigator, as director of its new Systems Biology Center.

Meanwhile, the trans-NIH effort for a Center for Systems Biology is not dead. A search for a very senior systems biologist to develop and lead the center came up dry, and now the budgetary stresses have put the search on hold. But most NIH researchers understand that purely reductionist approaches to biology are no longer enough to solve complex biological problems and that integrated approaches are needed. David Levens (NCI), Dan Camerini (NIDDK), and Alan Michelson (NHLBI), along with Germain, continue to lead efforts for this trans-NIH initiative.

NIAID’s Laboratory of Systems Biology is “a smaller model of what the larger enterprise could be,” Germain said. The new lab “is very good for the NIH. We are getting applicants from top universities who want to come to the lab as fellows.”

And the NIH intramural research program is well suited for systems biology, with a long-term perspective and a retrospective review process that doesn’t require grant writing.

Germain helped change the NIH tenure process, too, to be sure that team science, and not necessarily a steady stream of published papers, is recognized and rewarded.

“Nothing happens if you don’t put work into it,” he added.

Reporter’s note:

Ron Germain does have his own definition of systems biology that he’s sticking to: a scientific approach that combines the principles of engineering, mathematics, physics, and computer science with extensive experimental data to develop a quantitative as well as a deep conceptual understanding of biological phenomena, permitting prediction and accurate simulation of complex (emergent) biological behaviors.


Obsah

Extracted from living systems Edit

Some of the oldest forms of biologics are extracted from the bodies of animals, and other humans especially. Important biologics include:

Some biologics that were previously extracted from animals, such as insulin, are now more commonly produced by recombinant DNA.

Produced by recombinant DNA Edit

As indicated the term "biologics" can be used to refer to a wide range of biological products in medicine. However, in most cases, the term "biologics" is used more restrictively for a class of therapeutics (either approved or in development) that are produced by means of biological processes involving recombinant DNA technology. These medications are usually one of three types:

  1. Substances that are (nearly) identical to the body's own key signalling proteins. Examples are the blood-production stimulating protein erythropoetin, or the growth-stimulating hormone named (simply) "growth hormone" or biosynthetic human insulin and its analogues. . These are similar to the antibodies that the human immune system uses to fight off bacteria and viruses, but they are "custom-designed" (using hybridoma technology or other methods) and can therefore be made specifically to counteract or block any given substance in the body, or to target any specific cell type examples of such monoclonal antibodies for use in various diseases are given in the table below.
  2. Receptor constructs (fusion proteins), usually based on a naturally occurring receptor linked to the immunoglobulin frame. In this case, the receptor provides the construct with detailed specificity, whereas the immunoglobulin-structure imparts stability and other useful features in terms of pharmacology. Some examples are listed in the table below.

Biologics as a class of medications in this narrower sense have had a profound impact on many medical fields, primarily rheumatology and oncology, but also cardiology, dermatology, gastroenterology, neurology, and others. In most of these disciplines, biologics have added major therapeutic options for the treatment of many diseases, including some for which no effective therapies were available, and others where previously existing therapies were clearly inadequate. However, the advent of biologic therapeutics has also raised complex regulatory issues (see below), and significant pharmacoeconomic concerns, because the cost for biologic therapies has been dramatically higher than for conventional (pharmacological) medications. This factor has been particularly relevant since many biological medications are used for the treatment of chronic diseases, such as rheumatoid arthritis or inflammatory bowel disease, or for the treatment of otherwise untreatable cancer during the remainder of life. The cost of treatment with a typical monoclonal antibody therapy for relatively common indications is generally in the range of €7,000–14,000 per patient per year.

Older patients who receive biologic therapy for diseases such as rheumatoid arthritis, psoriatic arthritis, or ankylosing spondylitis are at increased risk for life-threatening infection, adverse cardiovascular events, and malignancy. [14]

The first such substance approved for therapeutic use was biosynthetic "human" insulin made via recombinant DNA. Sometimes referred to as rHI, under the trade name Humulin, was developed by Genentech, but licensed to Eli Lilly and Company, who manufactured and marketed it starting in 1982.

Major kinds of biopharmaceuticals include:

  • Blood factors (Factor VIII and Factor IX)
  • Thrombolytic agents (tissue plasminogen activator) (insulin, glucagon, growth hormone, gonadotrophins)
  • Haematopoietic growth factors (Erythropoietin, colony-stimulating factors) (Interferons-α, -β, -γ) -based products (Interleukin-2) (Hepatitis B surface antigen) (Various)
  • Additional products (tumour necrosis factor, therapeutic enzymes)

Research and development investment in new medicines by the biopharmaceutical industry stood at $65.2 billion in 2008. [15] A few examples of biologics made with recombinant DNA technology include:

USAN/INN Obchodné meno Indication Technológie Mechanism of action
abatacept Orencia reumatoidná artritída immunoglobin CTLA-4 fusion protein T-cell deactivation
adalimumab Humira rheumatoid arthritis, ankylosing spondylitis, psoriatic arthritis, psoriasis, ulcerative colitis, Crohn's disease monoclonal antibody TNF antagonist
alefacept Amevive chronic plaque psoriasis immunoglobin G1 fusion protein incompletely characterized
erythropoietin Epogen anemia arising from cancer chemotherapy, chronic renal failure, etc. recombinant protein stimulation of red blood cell production
etanercept Enbrel rheumatoid arthritis, ankylosing spondylitis, psoriatic arthritis, psoriasis recombinant human TNF-receptor fusion protein TNF antagonist
infliximab Remicade rheumatoid arthritis, ankylosing spondylitis, psoriatic arthritis, psoriasis, ulcerative colitis, Crohn's disease monoclonal antibody TNF antagonist
trastuzumab Herceptin breast cancer humanized monoclonal antibody HER2/neu (erbB2) antagonist
ustekinumab Stelara psoriáza humanized monoclonal antibody IL-12 and IL-23 antagonist
denileukin diftitox Ontak cutaneous T-cell lymphoma (CTCL) Diphtheria toxin engineered protein combining Interleukin-2 and Diphtheria toxin Interleukin-2 receptor binder
golimumab Simponi rheumatoid arthritis, psoriatic arthritis, ankylosing spondylitis, ulcerative colitis monoclonal antibody TNF antagonist

Vaccines Edit

Many vaccines are grown in tissue cultures.

Génová terapia Edit

Viral gene therapy involves artificially manipulating a virus to include a desirable piece of genetic material.

With the expiration of numerous patents for blockbuster biologics between 2012 and 2019, the interest in biosimilar production, i.e., follow-on biologics, has increased. [16] Compared to small molecules that consist of chemically identical active ingredients, biologics are vastly more complex and consist of a multitude of subspecies. Due to their heterogeneity and the high process sensitivity, originators and follow-on biosimilars will exhibit variability in specific variants over time, however the safety and clinical performance of both originator and biosimilar biopharmaceuticals must remain equivalent throughout their lifecycle. [17] [18] Process variations are monitored by modern analytical tools (e.g., liquid chromatography, immunoassays, mass spectrometry, etc.) and describe a unique design space for each biologic.

Thus, biosimilars require a different regulatory framework compared to small-molecule generics. Legislation in the 21st century has addressed this by recognizing an intermediate ground of testing for biosimilars. The filing pathway requires more testing than for small-molecule generics, but less testing than for registering completely new therapeutics. [19]

In 2003, the European Medicines Agency introduced an adapted pathway for biosimilars, termed similar biological medicinal products. This pathway is based on a thorough demonstration of "comparability" of the "similar" product to an existing approved product. [20] Within the United States, the Patient Protection and Affordable Care Act of 2010 created an abbreviated approval pathway for biological products shown to be biosimilar to, or interchangeable with, an FDA-licensed reference biological product. [19] [21] A major hope linked to the introduction of biosimilars is a reduction of costs to the patients and the healthcare system. [16]

When a new biopharmaceutical is developed, the company will typically apply for a patent, which is a grant for exclusive manufacturing rights. This is the primary means by which the developer of the drug can recover the investment cost for development of the biopharmaceutical. The patent laws in the United States and Europe differ somewhat on the requirements for a patent, with the European requirements perceived as more difficult to satisfy. The total number of patents granted for biopharmaceuticals has risen significantly since the 1970s. In 1978 the total patents granted was 30. This had climbed to 15,600 in 1995, and by 2001 there were 34,527 patent applications. [22] In 2012 the US had the highest IP (Intellectual Property) generation within the biopharmaceutical industry, generating 37 percent of the total number of granted patents worldwide however, there is still a large margin for growth and innovation within the industry. Revisions to the current IP system to ensure greater reliability for R&D (research and development) investments is a prominent topic of debate in the US as well. [23] Blood products and other human-derived biologics such as breast milk have highly regulated or very hard-to-access markets therefore, customers generally face a supply shortage for these products. Institutions housing these biologics, designated as 'banks', often cannot distribute their product to customers effectively. [24] Conversely, banks for reproductive cells are much more widespread and available due to the ease with which spermatozoa and egg cells can be used for fertility treatment. [25]

Biopharmaceuticals may be produced from microbial cells (e.g., recombinant E. coli or yeast cultures), mammalian cell lines (see Cell culture) and plant cell cultures (see Plant tissue culture) and moss plants in bioreactors of various configurations, including photo-bioreactors. [26] Important issues of concern are cost of production (low-volume, high-purity products are desirable) and microbial contamination (by bacteria, viruses, mycoplasma). Alternative platforms of production which are being tested include whole plants (plant-made pharmaceuticals).

Transgenics Edit

A potentially controversial method of producing biopharmaceuticals involves transgenic organisms, particularly plants and animals that have been genetically modified to produce drugs. This production is a significant risk for the investor, due to production failure or scrutiny from regulatory bodies based on perceived risks and ethical issues. Biopharmaceutical crops also represent a risk of cross-contamination with non-engineered crops, or crops engineered for non-medical purposes.

One potential approach to this technology is the creation of a transgenic mammal that can produce the biopharmaceutical in its milk, blood, or urine. Once an animal is produced, typically using the pronuclear microinjection method, it becomes efficacious to use cloning technology to create additional offspring that carry the favorable modified genome. [27] The first such drug manufactured from the milk of a genetically modified goat was ATryn, but marketing permission was blocked by the European Medicines Agency in February 2006. [28] This decision was reversed in June 2006 and approval was given August 2006. [29]

European Union Edit

In the European Union, a biological medicinal product [30] is one of the active substance(s) produced from or extracted from a biological (living) system, and requires, in addition to physico-chemical testing, biological testing for full characterisation. The characterisation of a biological medicinal product is a combination of testing the active substance and the final medicinal product together with the production process and its control. Napríklad:

  • Production process – it can be derived from biotechnology or from other technologies. It may be prepared using more conventional techniques as is the case for blood or plasma-derived products and a number of vaccines.
  • Active substance – consisting of entire microorganisms, mammalian cells, nucleic acids, proteinaceous, or polysaccharide components originating from a microbial, animal, human, or plant source.
  • Mode of action – therapeutic and immunological medicinal products, gene transfer materials, or cell therapy materials.

United States Edit

In the United States, biologics are licensed through the biologics license application (BLA), then submitted to and regulated by the FDA's Center for Biologics Evaluation and Research (CBER) whereas drugs are regulated by the Center for Drug Evaluation and Research. Approval may require several years of clinical trials, including trials with human volunteers. Even after the drug is released, it will still be monitored for performance and safety risks. The manufacture process must satisfy the FDA's "Good Manufacturing Practices", which are typically manufactured in a cleanroom environment with strict limits on the amount of airborne particles and other microbial contaminants that may alter the efficacy of the drug. [31]

Canada Edit

In Canada, biologics (and radiopharmaceuticals) are reviewed through the Biologics and Genetic Therapies Directorate within Health Canada. [32]


Označovanie

Package labeling is in the form of standardized pictures that must be affixed to the outside. The color and design of each label is prescribed in the IATA regulations. All labels must be at least 4 inches on the smallest side.

For the purposes of infectious substances, five different labels must be considered:

Category A

Category B

Suchý ľad

Cargo Aircraft Only

Must be affixed if shipping volumes greater than 50 ml of a Category A substances can be halved for use on a smaller category A box.

Orientation Arrows

If shipping liquids, two such labels must be affixed to the package, on opposing sides.


Matt Bush

Assistant Professor
Chémia
(206) 543-7835
[email protected]
Faculty Website


Výskumné záujmy

Most proteins, particularly those that accomplish complicated tasks, form assemblies with other proteins and molecules that are critical to their function. Established structural biology tools are most effective for highly purified samples that have limited conformational variability, which makes it challenging to apply those methods to capture a systems-wide understanding of the structures, interactions, and dynamics that are present under different cellular conditions. Mass spectrometry is fast, sensitive, tolerant of heterogeneity, and has great potential for assemblies that are extremely challenging to characterize using established tools and for high-throughput structural genomics.

Gas-Phase Structural Biology. Gas-phase ions of assemblies can retain significant memories of their native structures in solution. Many measurements of stoichiometry, connectivity, and shape have shown that these aspects of assembly structure can be strongly correlated in both environments. Gas-phase techniques, including mass spectrometry, ion mobility, and ion chemistry will be used to probe the structures of biological assemblies. Accurate models of assemblies, including those that are heterogeneous, dynamic, and/or membrane-bound, will be built based on results from both gas-phase and complementary techniques.

Gas-Phase Ion Chemistry. Although many native aspects of biological assembly structure are preserved in the corresponding gas-phase ions, clearly at least some reorganization will occur. Unfortunately, the extents and scales of this reorganization remain poorly understood. A detailed understanding of gas-phase biological assembly ion structure will be developed, with the goal of enabling more accurate and rapid translation of experimental observables into parameters with meaningful uncertainties for building structural models. New gas-phase methods for transforming and fragmenting these ions to gain complementary structural insights will also be developed.

Mass Spectrometry of Large Ions. Existing mass spectrometers for gas-phase structural biology yield spectra with decreased sensitivity and increased spectral congestion with increasing assembly size. We intend to develop an instrument for single-ion, gas-phase structural biology that is ideally suited for very large and heterogeneous assemblies that are beyond the reach of current instrumental platforms.


Zdroje

The Campus Chemical Instrument Center (CCIC) has world-class shared resources in high-field NMR, mass spectrometry, proteomics, and X-ray crystallography. The department's Biophysical Interaction and Characterization Facility (BICF) has analytical ultracentrifugation, CD spectroscopy, fluorescence, and calorimetry. The department also has excellent shared small-molecule NMR and mass spectrometry instrumentation.

Students in the Biochemistry division are eligible for the NIH T32 Molecular Biophysics Training Program (MBTP), and many labs interact with the outstanding nucleic acids community at OSU through the Center for RNA Biology.


Pozri si video: How Does a Spectrometer Work? (November 2022).