Modele na bankiecie

Tegoroczni laureaci Nagrody Nobla z chemii; od lewej: Martin Karplus, Michael Levitt i Arieh Washel

Martin Karplus z Uniwesytetu Harwarda, Michael Levitt z Uniwesytetu Stanforda oraz Arieh Warshel z Uniwersytetu Poludniowej Kaliforni to tegoroczni laureaci Nagrody Nobla z chemii, przyznanej za rozwój wieloskalowych modelów złożonych systemów chemicznych. Czyli językiem laika, za udaną fuzję dwóch głównych metod modelowania opartych na mechanice klasycznej i kwantowej. Mimo iż laureaci od dłuższego czasu regularnie pojawiali wśród potencjalnych kandydatów do nagrody, a ich wkład w rozwój metod obliczeniowych, a zwłaszcza modelowania złożonych procesów jest zaiste pionierski, to nagroda ta jest pewnym zaskoczeniem – jednocześnie jednak doskonale wpisuje się konsekwentne rozszerzanie kategorii ‘chemia’ przez szwedzką kapitułę.

Tegoroczni laureaci Nagrody Nobla z chemii; od lewej: Martin Karplus, Michael Levitt i Arieh Washel
Tegoroczni laureaci Nagrody Nobla z chemii; od lewej: Martin Karplus, Michael Levitt i Arieh Washel

Przez niektórych komentatorów, a nawet przez jednego z laureatów, tegoroczna nagroda jest wprost nazywana nagrodą za ‘computational biology’ (z ang. biologia obliczeniowa). Mimo  iż metody obliczeniowe zostały już dostrzeżone przez Komitet Noblowski w 1998 roku, kiedy to John Pople oraz Walter Kohn zostali uhonorowani za swój wkład w rozwój kwantowych metod obliczeniowych, to właśnie tegoroczna nagroda wydaję się ukłonem w stronę postępującej cyfryzacji nauk ścisłych i docenienie modeli jako takich.

Nie sposób w końcu zaprzeczyć coraz powszechniejszemu widokowi chemików, fizyków i biologów równie mocno i często wpatrujących się w ekrany komputerów, co w zawartość swoich kolb, menzurek i reaktorów. Jednak to, co stanowi dziś podstawowe narzędzie m.in. w optymalizowaniu efektywności ogniw słonecznych, projektowaniu cząsteczek aktywnych zdolnych do reakcji ze specyficznym białkiem czy optymalizacji katalizatorów, powstawało raczej przy dość chłodnej reakcji środowiska naukowego. Arieh Warshel w wywiadzie udzielonym Agencji Reuters stwierdził:

„Mimo że zawsze widziałem, że podążam we właściwym kierunku, ciągle borykałem się z niezliczonymi utrudnieniami i niepowodzeniami. Żadna z moich publikacji nie została przyjęta do druku bez początkowego odrzucenia przez recenzentów.”

Dość orzeźwiająca jest myśl, że nawet przyszli laureci Nagrody Nobla spotykają się z nieżyczliwością recenzentów będącą potworną plagą, zwłaszcza w niektórych dyscyplinach. Martin Karplus, który był ostatnim ze studentów Linusa Paulinga (Pauling powiedział o nim: „był moim najbardziej błyskotliwym studentem”), również kiedyś przekonywał:

„Moi koledzy uważali moją pracę za zwyczajną stratę czasu. Teraz modelowanie stało się centralną częścią chemii i biologii strukturalnej. W pewnym sensie uświęciło ono tę gałąź nauki.”

Postęp często rodzi się w bólach i dlatego należy tym bardziej docenić klasę tegorocznych laureatów, że zdecydowali się płynąć pod prąd, mimo braku przychylności i zrozumienia środowiska chemików. Jak w przypadku każdej nagrody honorującej postęp dziedziny raczej niż indywidualne osiądnięcia konkretnych naukowców, warto też wspomnieć o wielkich nieobecnych będących ofiarą ‘reguły trzech’.

Normal Allinger, pionier metody pól siłowych, na którego pracy częściowo opierali się tegoroczni laureaci, oraz Ken Houk, który z powodzeniem stosuje metody obliczeniowe w praktycznej chemii organicznej i biochemii, to najbardziej oczywiste ‘honorowe wyróżnienia’. Często wspominani są także Andrew McCammon, Roberto Car, Bill Goddard, Michele Parrinello i David Baker.

Modelowanie. Z czym to się je?

Chyba każdemu z nas na dźwięk słowa ‘modelowanie’ przychodzą na myśl goszczące dość często w mediach superkomputery lub klastry obliczeniowe. Nie bez powodu, choć oczywiście ich zastosowanie jest znacznie szersze niż tylko produkowanie atrakcyjnie wyglądających struktur przestrzennych białek i innych cząsteczek.

Oszacowanie struktury przestrzennej dużej cząsteczki znajdującej się w minimum energetycznym jest procesem obliczeniowo bardzo wymagającym. Tak wymagającym, że pomimo prawie pół wieku prawa Moore’a w akcji, nadal jest dostępne tylko nielicznym. Zainteresowani mogą skorzystać z darmowych programów do przestrzennej wizualizacji cząsteczek (np. RasMol), aby przekonać się samemu, na ile stać ich domowe komputery. Okazuje się, że nawet prosta wizualizacja oparta na modelu klasycznym zajmuje nowoczesnej maszynie (i7 920 @ 2.67GHz, 16 GB DDR3 1333MHz RAM) od kilkunastu sekund dla mniejszych cząsteczek do kilku godzin dla białek. Modelowanie reakcji chemicznych z zastosowaniem modelu kwantowego jest jeszcze bardziej obciążajace i stąd ograniczone do prostych systemów.

Czym wiec różnią się te dwa główne nurty w modelowaniu procesów i cząsteczek? Modelowanie w ujęciu klasycznym, Newtonowskim, pozwala na obliczenie struktury dużych cząsteczek, uwzględniając ośrodek i jego oddziaływanie z cząsteczką. W tego rodzaju modelowaniu stosuję się metodę pól siłowych, która – w uproszczeniu – w szeregu prostych równań ujmuje podstawowe oddziaływania wynikające z istnienia wiązań chemicznych między atomami oraz oddziaływania przetrzenne wynikające z istnienia sił van der Waalsa i oddziaływań eletrostatycznych.

Zaletą tego podejścia, nazywanego również mechaniką molekularną, jest jego duża elastyczność. Energię wibracyjną wiązań możemy obliczyć stosując zwykły oscylator harmoniczny, bądź obliczając potencjał Morse’a. Dla małych cząsteczek często stosowany jest model ‘all-atom’, w kórym każdy atom jest traktowany indywidualnie; dla większych cząsteczek właściwszy może być natomiast ‘bead model’, w którym poszczególne aminokwasy są opisywane przez kilka cząstek imitujących je sterycznie, albo ‘united-atom model’, w którym grupy metylowe bądź mostki metylenowe opisywane są przez jedną cząsteczkę. Takie uproszczenia pozwalają skrócić znacząco czas symulacji, oszczędzając badaczom nie tylko czas, ale także pieniądze.

Jest to szczególnie istotne dla bardzo dużych systemów zawierających setki tysięcy atomów, w których pełne obliczenia nawet przy użyciu potężnych komputerów mogłyby się toczyć miesiącami, a nawet latami. W chwili obecnej badacze korzystają z odpowiednio sparametryzowanych pól siłowych pozwalajacych na optymalne modelowanie różnych grup związków, np. AMBER i GROMOS dla białek i kwasów nukleinowych czy EAS dla węglowodorów. Przedstawicielem tego rodzaju algorytmów jest dość znana metoda Monte Carlo.

Głównym zasadniczym ograniczeniem tych modeli jest to, że są one w stanie obliczać cząsteczki wyłącznie w stanie spoczynku, co w zasadzie uniemożliwia symulowanie procesów, w których pojawiają się nowe produkty. Tu z odsieczą przychodzą właśnie modele oparte na mechanice kwantowej, które do opisu układu oprócz geometrii i ładunku wykorzystują kwantowe właściwości jądra atomowego.

Łatwo zrozumieć dlaczego modelowanie oddziaływania każdego elektronu i każdego jądra w badanym układzie będzie wymagało wyjątkowo dużo czasu obliczeniowego. Stąd takie podejście jest praktyczne tylko i wyłącznie dla nieskomplikowanych systemów. Takie symulacje oparte o podstawowe prawa mechaniki kwantowej nazywane są metodami ab-initio. Dla bardziej skomplikowanych systemów stosowane są metody półempiryczne, w których tylko elektrony walencyjne są symulowane jednostkowo, podczas gdy pozostałe powłoki są uśredniane do tzw. pseudopotencjałów i przyjmuje się, że nie biorą one udziału w wiązaniach. Nazwa tych metod wywodzi się stąd, że część danych wejściowych opisujących układ jest wyznaczana eksperymentalnie.

Kompromisem między tymi dwoma podejściami są metody DFT (ang. Density Functional Theory, teoria funkcjonału gęstości), które  również korzystają z danych empirycznych i są mniej obciążające obliczeniowo od metod ab-initio, a obliczana energia całkowita układu jest wyrażana jako tzw. gęstość jednoelektronowa, a nie funkcja falowa, jak w pozostałych metodach.

Podsumowując, metody klasyczne doskonale radzą sobie z dużymi systemami, jednak nie potrafią opisywać przemian zachodzących na poziomie jąder atomowych i elektronów; te zaś są doskonale opisywane przez metody kwantowe, które z kolei są ograniczone skalą. Może się zatem wydawać, że całościowe modelowanie procesów, w których reakcjom chemicznym towarzyszą np. zmiany geometrii cząsteczki czy rozkładu ładunku, jest niezwykle problematyczne, o ile w ogóle możliwe.

Rozwiązaniem optymalnym byłoby stworzenie modelu kwantowego, który jest w stanie opisywać duże systemy przy akceptowalnym obciążeniu obliczeniowym. Jednak jak dotąd nie udało się tego dokonać. Najbardziej udaną próbą jest metoda Car-Parinello; jednak nadal jest ona niezdolna do prowadzenia obliczeń dla systemów rozmiarach zbliżonych do tych o biologicznym znaczeniu i w rozsądnym oknie czasowym.

Pomysł, za który przyznano tegoroczną nagrodę z chemii: takie połączenie metod obliczeniowych, w którym modeluje się interesujący fragment cząsteczki za pomocą metod kwantowych, zaś resztą cząsteczki oraz otoczenie za pomocą metod klasycznych.
Pomysł, za który przyznano tegoroczną nagrodę z chemii: takie połączenie metod obliczeniowych, w którym modeluje się interesujący fragment cząsteczki za pomocą metod kwantowych, zaś resztę cząsteczki oraz jej otoczenie za pomocą metod klasycznych. /źródło: materiały prasowe Komitetu Noblowskiego

Laureaci tegorocznej Nagrody Nobla zaproponowali inne, bardzo eleganckie podejście do tego problemu, wykorzystujące komplementujące się zalety obu metodologii. Mechanika kwantowa zostaje wykorzystana do dokładnego opisu obszaru, w którym zachodzi przemiana, podczas gdy mechanika klasyczyna opisuje pozostałą część cząsteczki wraz z ośrodkiem lub medium dielektrycznym. Najważniejsze pozostaje jednak to, że oba modele są sprzężone i energie potencjalne obliczone metodami kwantowymi są uwzględniane w modelu klasycznym.

Model modelowi nie równy

Na początku lat 70-tych Arieh Warshel i Martin Karplus współpracowali razem nad modelem opisującym 1,6-difenylo-1,3,5-heksatrien, związek strukturalnie zbliżony do retinalu, którym wczesniej z sukcesem zajmował się Karplus, wyjaśniając metodami obliczeniowymi jego przemiany stojące za mechanizmem widzenia u zwierząt. Warshel i Karplus początkowo zastosowali kombinację metody kwantowej do opisania zachowania elektronów π, oraz metody klasycznej do opisania jąder atomowych oraz elektronów σ. Difenyloheksatrien nie został tu wybrany przypadkiem: zastosowane podejście wymagało cząsteczki symetrycznej i płaskiej zarazem aby uzyskać naturalne oddzielenie elektronów π i σ zgodnie z teorią orbitali molekularnych.

Cząsteczka, która rozbiła kwantowo-klasyczny bank: difenyloheksatrien.
Cząsteczka, która rozbiła kwantowo-klasyczny bank: difenyloheksatrien.

Model, który zastosowali, został oparty na wcześniej opracowanym przez Arieha Warshela i Michaela Levitta klasycznym modelu stworzonym przy pomocy superkomputera Golem w izraelskim Instytucie Nauki Weizmanna. W 1972 roku pojawia się pierwsza publikacja autorstwa Warshela i Karplusa nie tyle łącząca z sukcesem modelowanie kwantowe i klasyczne, co prezentująca praktyczne zastosowanie takiego podejścia [1].

Mimo przełomowego charakteru względna prostota pierwszego modelu ograniczała jego zastosowanie wyłącznie do cząsteczek obdarzonych symetrią, które w systemach biologicznych praktycznie nie występują. Tak więc aby na prawdę symulować istotne biologicznie procesy matematyczny opis współpracy miedzy komponentem klasycznym i kwantowym musiał zostać usprawniony oraz rozszerzony o opis oddziaływań zewnętrznych części makrocząsteczek z ośrodkiem oraz resztą cząsteczki. Ponieważ w większości przypadków ‘systemy biologiczne’ w praktyce oznaczają bardzo duże molekuły z tysiącami atomów, ustalenie granic dopuszczalnych uproszczeń w liczeniu cząsteczki staje się krytyczne z praktycznego, obliczeniowego punktu widzenia.

W 1975 roku Levitt i Warshel jako metodę na przyspieszenie obliczeń bez utraty dokładności proponują zastąpienie grup bocznych aminokwasów, czyli tych nie biorących udziału w wiązaniu peptydowym, pseudoatomem o komplementarnych właściwościach sterycznych i elektrostatycznych [2]. Metoda ta z sukcesem sprawdza się w modelowaniu cyklu denaturacji i odtworzenia struktury czwartorzędowej prostej globuliny.

Rok później Warshel i Levitt publikują pracę, w której demonstrują zastosowanie swojego usprawnionego modelu do modelowania stabilności karbokationu, produktu przejściowego powstającego podczas łamania wiązania glikozydowego, w układzie lizosomalnym [3]. Jest to pierwsza w historii praca opisująca funkcjonujący model komputerowy reakcji enzymatycznej. W opisywanym układzie tylko 15 atomów jest rozpatrywanych w ujęciu kwantowym, 10 z nich to atomy centrum aktywnego, a pozostałe pięć to atomy substratu; reszta cząsteczki oraz medium dielektryczne modelowane są metodą klasyczną.W pracy tej poza nowatorskim podejściem autorzy wykazują również, że kluczowa do stabilizacji kabrokationu jest stabilizacja elektrostatyczna, przeciwnie do ówcześnie faworyzowanego mechniazmu stabilizacji sterycznej.

Jako weterani metod obliczeniowych i zarazem autorzy oprogramowania, tegoroczni laureaci świadomie stworzyli coś więcej niż elegancki sposób na zbierania informacji o przemianie chemicznej w skomplikowanych, w domyśle biologicznych, systemach. Stworzyli oni uniwersalny model, który doskonale nadaje się do dowolnego skalowania, a w którym ograniczeniem jest tylko moc obliczeniowa komputera. Można nimi badać zarówno małe cząsteczki, jak i symulować przemiany katalizowane przez duże białka.

Zastosowania stworzonych przez laureatów narzędzi wykraczają jednak poza biochemię czy enzymologię i są dziś z powodzeniem stosowane przy optymalizacji katalitycznych procesów przemysłowych, w przemyśle energii odnawialnej, badaniach przesiewowych związków biologicznie czynnych i wielu innych. Przy tak dynamicznym rozwoju metod obliczeniowych kto wie, jak daleko jesteśmy od spełnienia marzenia wyrażonego przez Michaela Levitta o „modelowaniu żywego organizmu na poziomie molekularnym”? Pierwsze próby już za nami [4], choć Levitt za pewne optowałby za innym kandydatem na organizm modelowy (Mycoplasma genitalium).

Przypisy:

1. A. Warshel, & M. Karplus (1972). Calculation of ground and excited state potential surfaces of conjugated molecules. I. Formulation and parametrization Journal of the American Chemical Society, 94 (16), 5612-5625 : 10.1021/ja00771a014

2. Michael Levitt, & Arieh Warshel (1975). Computer simulation of protein folding Nature, 253, 694-698 : 10.1038/253694a0

3. A Warshel, & M Levitt (1976). Theoretical studies of enzymic reactions: dielectric, electrostatic and steric stabilization of the carbonium ion in the reaction of lysozyme. Journal of Molecular Biology, 103 (2), 227-249 PMID: 985660

4. Karr JR, Sanghvi JC, Macklin DN, Gutschow MV, Jacobs JM, Bolival B Jr, Assad-Garcia N, Glass JI, & Covert MW (2012). A whole-cell computational model predicts phenotype from genotype. Cell, 150 (2), 389-401 PMID: 22817898

Autor gościnny: Michał Szpak.

Skomentuj

Wprowadź swoje dane lub kliknij jedną z tych ikon, aby się zalogować:

Logo WordPress.com

Komentujesz korzystając z konta WordPress.com. Log Out / Zmień )

Zdjęcie z Twittera

Komentujesz korzystając z konta Twitter. Log Out / Zmień )

Facebook photo

Komentujesz korzystając z konta Facebook. Log Out / Zmień )

Google+ photo

Komentujesz korzystając z konta Google+. Log Out / Zmień )

Connecting to %s