Inovasi sepanjang setengah abad telah meningkatkan kecepatan komputer dalam faktor jutaan. Tetapi kecepatan komputer masa kini masih terhitung rendah untuk berbagai aplikasi saintifik berskala raksasa. Sebagai contoh, detektor untuk eksperimen tumbukan hadron berskala besar di laboratorium CERN (laboratorium Fisika Partikel di Swiss), pada tahun 2005 akan menghasilkan data sebesar beberapa petabytes setiap tahunnya -- sejuta kali kapasitas simpan dari kebanyakan komputer desktop masa ini. Analisis yang paling mendasar untuk data sebesar ini memerlukan aplikasi yang menuntut daya komputasi setidaknya 20 teraflops (floating-point operations, operasi matematis) per detiknya. Bandingkan dengan 3 teraflops per detik yang dapat dijangkau oleh superkomputer masa kini. Analisis yang lebih khusus jelas akan membutuhkan daya komputasi yang lebih tinggi.
Clustering dan Internet Computing
Salah satu solusi dari masalah kurangnya daya komputasi adalah dengan menjalankan aplikasi pada sejumlah komputer individual yang terhubung ke jaringan. Cara ini dalam terminologi teknis dikenal sebagai clustering. Teknik yang pertama kali dikembangkan pada awal era 1980-an ini, sekarang telah diaplikasikan pada berbagai pusat superkomputer, laboratorium riset, dan industri. Superkomputer tercepat di dunia saat ini terdiri dari sekumpulan mikroprosesor, sebagai contoh, sistem ASCI White di Lawrence Livermore National Laboratory, California, tersusun atas 8000 prosesor. Banyak diantara laboratorium riset yang menjalankan PC sederhana yang membentuk cluster untuk melakukan perhitungan dan analisis data. Teknik ini hanya memerlukan ongkos sebesar kurang dari 1 USD per megaflop tiap detiknya dengan cluster komputer jenis Pentium III, sebuah ongkos yang sangat murah, khususnya apabila dibandingkan dengan superkomputer yang harganya bisa mencapai jutaan dolar itu. Kemajuan ini juga tidak lepas dari dikembangkannya algoritma khusus yang dapat mengeksploitasi penggunaan ribuan prosesor secara efektif.
Walaupun clustering dapat menyediakan peningkatan daya komputasi secara signifikan, sebuah cluster membutuhkan fasilitas khusus dengan dibangun diatas sebuah lokasi tunggal. Ini memunculkan persoalan seberapa besar ruang yang dapat disediakan untuk menampung sekian banyak komputer yang bekerja secara bersamaan itu. Hal ini memunculkan persoalan baru dimana dibutuhkan investasi ekstra untuk membangun gedung-gedung baru, khusus sebagai lokasi cluster.
Kemajuan teknologi komunikasi menawarkan solusi berupa pendekatan desentralisasi untuk mengatasi kebutuhan akan daya komputasi yang lebih tinggi dengan ongkos yang rasional. Terdapat lebih dari 400 juta PC di seluruh dunia, dengan banyak diantaranya memiliki daya komputasi setara dengan superkomputer pada era awal 1980-an. Sebagian besar diantaranya memiliki banyak waktu idle (menganggur) saat digunakan. Setiap institusi besar memiliki ratusan hingga ribuan sistem semacam ini. Sebuah pendekatan yang disebut internet computing merupakan jawaban untuk memanfaatkan workstation dan PC untuk menciptakan sistem komputasi terdistribusi (distributed computing systems) berjangkauan global dengan kapabilitas setara dengan superkomputer.
Kesempatan yang ditawarkan oleh komputer yang berada dalam kondisi idle telah diketahui sejak lama. Pada tahun 1985, Miron Livny menunjukkan bahwa sebagian besar workstation senantiasa berada dalam kondisi idle. Ia mulai merancang sebuah sistem untuk memanfaatkan kondisi itu
untuk sesuatu yang lebih bermanfaat. Dengan memanfaatkan kemampuan multitasking dari sistem operasi Unix dan koneksi ke jaringan internet, Livny mengembangkan aplikasi yang disebut Condor yang kini dimanfaatkan secara luas oleh kalangan akademis untuk melakukan analisis data dan pemecahan problem matematis.
Walapun Condor terhitung efektif untuk skala kecil, penggunaan internet computing secara masal harus menunggu lebih lama bagi tersedianya PC yang lebih cepat dan meluasnya penggunaan internet. Pada 1997, Scott Kurowski membangun jaringan yang disebut Entropia dengan fungsi yang serupa: memanfaatkan kodisi idle pada komputer yang terhubung dalam jaringan untuk kepentingan aplikasi saintifik. Hanya dalam waktu dua tahun, jaringan ini berkembang, meliputi lebih dari 30.000 komputer dengan akumulasi kecepatan diatas satu teraflop per detik. Salah satu pencapaian dari jaringan ini adalah ditemukannya bilangan prima yang terbesar.
Loncatan berikutnya dari internet computing adalah diluncurkannya proyek SETI@home oleh David Anderson. Proyek ini bertujuan untuk melakukan analisis data yang diterima oleh teleskop radio Arecibo untuk mencari sinyal-sinyal yang mungkin dikirimkan oleh mahluk cerdas berperadaban dari luar Bumi. Gabungan antara rasa ingin tahu publik dan kemajuan teknologi menyebabkan proyek ini terus berkembang. Berjalan diatas setengah juta PC, proyek SETI@home kini menjelma menjadi komputer tercepat di dunia yang dibangun untuk keperluan khusus.
Apa artinya fenomena ini bagi ilmu pengetahuan dan para ilmuwan? Secara simplistik dapat dikatakan bahwa para ilmuwan kini memperloleh akses bagi sumber daya komputasi yang luar biasa. Apa yang dibutuhkan hanyalah memasukkan problem komputasi dalam sebuah bentuk yang cocok untuk dijalankan pada komputer deskop, dan kemudian melakukan pendekatan pada publik tentang seberapa pentingnya solusi untuk sebuah masalah. Sekali publik dapat diyakinkan, maka selanjutnya bantuan berupa sumber daya komputasi akan segera mengalir dengan sendirinya.
Senin, 19 April 2010
Distributed Computing
Langganan:
Posting Komentar (Atom)
Tidak ada komentar:
Posting Komentar