2018-11-07 09:19:44 +0000 2018-11-07 09:19:44 +0000
1
1
Advertisement

Dlaczego modelowanie medycyny jest rozprowadzane na komputerach zwykłych ludzi?

Advertisement

W Internecie istnieją pewne rozproszone projekty komputerowe, które próbują znaleźć lekarstwo na choroby, jak World Community Grid . Czy ktoś mógłby powiedzieć, dlaczego istnieją takie rzeczy i jak bardzo są one użyteczne? Chodzi mi o to, że jeśli jesteś poważnym badaczem, myślę, że jesteś w stanie wykorzystać uniwersyteckie sieci lub superkomputery do modelowania. Więc o co chodzi z rozpowszechnianiem modelowania na zwykłych komputerach? Czy modelowanie medyczne wymaga tak dużej mocy obliczeniowej, że komputery na uniwersytetach nie mają wystarczającej mocy obliczeniowej?

Advertisement
Advertisement

Odpowiedzi (1)

3
3
3
2018-11-07 11:22:05 +0000

Nie wiem, jak łatwo dostępne są superkomputery dla naukowców i uniwersytetów, ale wyobrażam sobie, że duża część odpowiedzi na pańskie pytanie sprowadzałaby się do kosztów.

Superkomputery a projekty obliczeń rozproszonych

Wydajność komputerów jest mierzona w FLOPS (Floating Point Operations Per Second) , a w czerwcu 2018,&nbsp Summit , zbudowany przez IBM superkomputer działający obecnie w Department of Energy’s (DOE) Oak Ridge National Laboratory (ORNL), zdobył miejsce numer jeden dla najszybszej wydajności komputerów w  122. 3 petaFLOPS na LINPACK benchmark gdzie peta wynosi 1015. W porównaniu z domowymi komputerami PC, najszybszy możliwy domowy procesor w cenie 2000 dolarów zapewnia ok. 1 teraFLOPS gdzie tera jest 1012.

Dla rozproszonych projektów komputerowych, spójrzmy na Folding@home .

Projekt wykorzystuje niewykorzystane zasoby przetwarzania tysięcy komputerów osobistych posiadanych przez wolontariuszy, którzy zainstalowali oprogramowanie na swoich systemach. Jego głównym celem jest określenie mechanizmów składania białka, który jest procesem, przez który białka osiągnąć ich ostatecznej trójwymiarowej struktury, oraz zbadanie przyczyn białka błędnego składania. Ma to istotne znaczenie akademickie i ma duże znaczenie dla badań medycznych w w chorobie Alzheimera, w chorobie Huntingtona, oraz wielu formach w nowotworach, między innymi. W mniejszym stopniu Folding@home stara się również przewidywać i rozprzestrzeniać białka i ich ostateczną strukturę oraz określać, w jaki sposób inne molekuły mogą wpływać i rozprzestrzeniać się z nimi, co ma zastosowanie w projektowaniu leków. Folding@home jest opracowywany i obsługiwany przez Pande Laboratory at Stanford University

[…]

Od czasu wprowadzenia na rynek w październiku 1, 2000, Laboratorium Pande opracowało 200 naukowe prace badawcze jako bezpośredni rezultat Folding@home patrz [https://foldingathome. org/papers-results]

Statystyki dostarczone przez Folding@home pod adresem https://stats.foldingathome.org/os podają, że ich projekt zapewnia całkowitą wydajność 47.344 teraFLOPSów rdzennych lub 98.747 x86 teraFLOPSów.

Zauważ, że te wartości teraFLOPS pochodzą z rdzeni programowych, a nie szczytowych wartości ze specyfikacji CPU/GPU i liczby te dopiero co pobiły wydajność Chin Sunway TaihuLight w 2016 roku, który został sklasyfikowany jako najszybszy na świecie z 93 petaFLOPS w benchmarku LINPACK obecnie drugi najszybszy superkomputer ).

Cost

IBMs Summit Supercomputer koszt budowy 200 milionów dolarów i według Wikipedii, Sunway TaihuLight kosztował 273 miliony dolarów. Jeśli weźmiemy pod uwagę, że wydajność obliczeniowa zapewniana przez Folding@home jest zapewniana przez ochotników (więc system jest darmowy), to nie ma sensu odwracać oferowanej mocy obliczeniowej.

Advertisement

Pytania pokrewne

3
2
1
2
0
Advertisement
Advertisement