Thứ Hai, 27 tháng 5, 2013

Tìm hiểu cơ bản về siêu máy tính, những cỗ máy phức tạp nhưng mạnh mẽ



 

Một phần nhỏ của siêu máy tính Blue Gene/P của IBM

Trong thời gian gần đây chắc hẳn các bạn cũng được nghe nói nhiều về cụm từ siêu máy tính, hay supercomputer. Đây là một loại máy tính rất khác với những chiếc desktop, laptop mà bạn sử dụng hằng ngày. Nó có kích thước to hơn, sức mạnh vượt trội hơn rất nhiều lần so với các máy tính cá nhân. Cũng chính vì thế mà siêu máy tính không bao giờ được dùng để soạn văn bản, chơi game pikachu mà người ta áp dụng nó vào việc nghiên cứu khoa học, xử lí, tính toán phức tạp. Vậy siêu máy tính là gì, cấu tạo nó ra sao và người ta dùng nó vào việc gì?

Lịch sử siêu máy tính

Cụm từ siêu máy tính (supercomputer) lần đầu tiên xuất hiện trong một bài báo của tờ New York World vào năm 1929 dùng để chỉ các bảng tính khổng lồ mà IBM thiết lập ở Đại học Columbia. Những 1960, kiến trúc siêu máy tính được một kĩ sư người Mỹ tên là Seymour Cray làm việc cho tổ chức Control Data Corporation (CDC) thiết kế và chiếc CDC 6600 ra mắt năm 1964 được xem là supercomputer đầu tiên của thế giới. Seymour Cray được tôn vinh là cha đẻ của siêu máy tính.

Sau đó một thời gian, Cray muốn rời CDC cùng với một số đồng nghiệp nhưng bị CEO William Norris của công ty này từ chối vì Cray đang làm việc trên một dự án cho Hải quân Mỹ. Mãi đến năm 1972 Cray mới thực hiện được ý định này và ông đã lập ra công ty riêng mang tên Cray Research. Sau này Cray Research đổi tên thành Cray Inc. và đây là một trong những hãng cung cấp siêu máy tính hàng đầu thế giới ở thời điểm hiện tại.

Tại công ty riêng của mình, vào năm 1976, Cray đã công bố chiếc supercomputer Cray-1 với CPU 80MHz và nó là một trong những siêu máy tính được người ta biết đến nhiều nhất. Tới năm 1985, Cray-2 ra mắt với 8 vi xử lí. Hệ thống này được làm mát bằng chất lỏng và chất flourinert do 3M sản xuất. Cỗ máy này có tốc độ tính toán 1,9 gigaflops và nó chính là siêu máy tính nhanh nhết thế giới đến tận những năm 1990.

 

Siêu máy tính Cray-1 với thiết kế hình trụ, đảm bảo khoảng cách giữa vi xử lí với các thành phần khác trong hệ thống là đều nhau

Nếu như những chiếc siêu máy tính của năm 1980 chỉ dùng vài CPU thì đến năm 1990, siêu máy tính đã được trang bị hàng nghìn bộ vi xử lí và chúng bắt đầu xuất hiện nhiều ở Mỹ, Nhật. Kể từ đây, tốc độ tính toán của loại máy tính này bắt đầu tăng vọt một cách nhanh chóng. Ví dụ như chiếc siêu máy tính dùng trong hầm gió của Fujitsu sử dụng 166 vi xử lí vector* với tốc độ 1,7 gigaflops mỗi chip vào năm 1994. Hai năm sau đó, đến lượt máy Hitachi SR2201 với tốc độ 600 gigaflops có được nhờ 2048 bộ xử lí cũng đã làm cho cả thế giới kinh ngạc. Intel cũng có siêu máy tính Paragon của mình với khoảng 1000 đến 4000 chip i860 và nó từng đạt danh hiệu nhanh nhất thế giới vào năm 1993.

*Vi xử lí vector là CPU được tích hợp các bộ chỉ dẫn đặc biệt để có thể hoạt động trong mảng dữ liệu 1 chiều. CPU vector có thể tăng đáng kể hiệu năng ở một số tác vụ nhất định, đặc biệt là trong lĩnh vực giả lập số hoặc và thực thi các tác vụ giống nhau. CPU vector phổ biến trong những năm 1970-1980 nhưng ngày nay nó đã gần như biến mất hoàn toàn.

Đến ngày hôm nay, siêu máy tính dần xuất hiện nhiều hơn và nó cũng có mặt trên nhiều quốc gia hơn. Hệ điều hành, kiến trúc cũng như phần cứng dùng trong siêu máy tính cũng theo đó thay đổi rất nhiều so với vài chục năm trước.

 

Một số tủ thuộc Titan, siêu máy tính mạnh nhất tính đến thời điểm viết bài này

Kiến trúc và phần cứng siêu máy tính

A. Kiến trúc
Cách thức người ta thiết kế siêu máy tính đã thay đổi rất nhiều trong thời gian gần đây. Những chiếc supercomputer thuở đầu của Seymour Cray hoạt động dựa trên kĩ thuật tính toán song song và thiết kế nhỏ gọn để có thể đạt được hiệu năng tính toán cao.

Nói thêm về điện toán song song (parellel computing), đây là khái niệm dùng để chỉ việc sử dụng một số lượng lớn CPU để thực hiện một bộ các phép tính nào đó. Tất cả các phép tính sẽ được thực thi song song nhau. Có hai cách mà người ta thường áp dụng:

1. Sử dụng một mạng lưới nhiều máy tính phân tán ở nhiều nơi để xử lí số liệu (grid computing), và phân tán ở đây có nghĩa là khoảng cách địa lý của chúng tương đối xa nhau. Thường thì khi một chiếc máy tính trong mạng lưới được chạy lên, nó sẽ ngay lập tức trở thành một phần của hệ thống tính toán song song, và càng nhiều máy tính tham gia thì tốc độ xử lí sẽ nhanh hơn. Có một máy chính (Control Node) nằm ở giữa làm nhiệm vụ điều khiển và phân bổ tác vụ cho các máy con. Còn có hai cách nhỏ thuộc dạng này, chúng ta sẽ tìm hiểu thêm ở bên dưới.


2. Sử dụng một lượng lớn CPU đặt gần nhau, và người ta gọi đây là computer cluster và đây là kiểu điện toán tập trung. Những CPU này thường nằm trong nhiều máy tính giống nhau, lân cận nhau (gọi là các node, node card hay computer node) và chúng được kết nối nhằm tạo ra một hệ thống lớn hơn, hoàn chỉnh hơn. Người ta xem cả hệ thống như một siêu máy tính duy nhất. Với biện pháp này, các nhà thiết kế cần đảm bảo rằng tốc độ cũng như tính linh hoạt nội liên kết giữa các máy tính phải đủ đáp ứng yêu cầu công việc. Theo số liệu từ TOP500, số siêu máy tính cluster hiện chiếm đến 82,2% thị phần siêu máy tính toàn cầu. Siêu máy tính IBM Blue Gene/Q sử dụng dạng cluster.

 

Từ các vi xử lí, các nhà sản xuất/cung ứng siêu máy tính sẽ tích hợp nó lên một chiếc "computer card" với RAM và có thể có thêm nhiều linh kiện khác để tạo ra một chiếc máy tính gần hoàn chỉnh. Nhiều computer card gắn vào một khay, sau đó các khay lại tiếp được bỏ trong những tủ chứa (rack). Nhiều rack sẽ cấu thành một hệ thống siêu máy tính hoàn chỉnh
Ngoài ra còn có siêu máy tính dạng Massively Parallel Processors (MPP), tức là một máy tính bự nhưng có hàng nghìn CPU và thanh RAM trong đó. Chúng được nối với nhau theo một chuẩn mạng đặc biệt tốc độ siêu cao chứ không xài các thứ phổ thông như cluster. Ngoài ra, mỗi CPU sẽ có bộ nhớ riêng của nó và một bản sao hệ điều hành/ứng dụng riêng. MPP hiện chiếm 17,8% thị phần siêu máy tính, theo TOP500. Siêu máy tính IBM Blue Gene/L (đứng thứ 5 thế giới vào năm 2009) được thiết kế dạng MPP.



B. Phần cứng
Như đã nói ở trên, vào những năm 1970 thì siêu máy tính chỉ dùng một số ít bộ xử mà thôi. Nhưng đến những năm 1990, số CPU của nó đã lên đến hàng nghìn và ở thời điểm hiện tại, số CPU vài chục nghìn là chuyện hết sức bình thường đối với một siêu máy tính.

Ở các siêu máy tính dạng cluster, người ta thường ghép nhiều "nút" (node) nhỏ lại với nhau để tạo ra một hệ thống lớn như hình bạn đã thấy ở ngay bên trên. Mỗi một nút như thế có thể xem là một chiếc máy tính gần như hoàn chỉnh với một hoặc nhiều CPU, GPU, nhiều thanh RAM, quạt tản nhiệt và một số thành phần khác nữa. Các nút sẽ được kết nối với nhau theo nhiều cách, có thể là dùng cáp đồng bình thường, cũng có thể là chuyển sang dùng cáp quang để đảm bảo băng thông tốt hơn. Sức mạnh của siêu máy tính sẽ là sức mạnh tổng hợp từ tất cả các node lại với nhau.

 

Kết nối dây nhợ trong siêu máy tính Titan

Trong các hệ thống siêu máy tính, người ta cũng cần đến ổ lưu trữ, và các ổ HDD, SSD này không nằm trong máy (device attached storage - DAS) như trên PC. Thay vào đó, chúng thường được bố trí trong một tủ riêng (storage area network - SAN), có kết nối mạng riêng và dung lượng cũng rất "khủng".

Giờ đây, ngoài CPU đơn thuần, người ta còn sử dụng thêm các GPGPU (general purpose graphic processor unit) để tăng cường sức mạnh cho siêu máy tính. Từ trước đến nay chúng ta biết GPU được sử dụng để dựng hình ảnh, xử lí những thứ liên quan đến đồ họa, nhưng ngoài ra chúng còn có thể xử lí số liệu và làm một số công việc tương tự như CPU. Hiện nay giá thành của các GPGPU đã giảm, hiệu suất lại tăng cao nên ngày càng nhiều siêu máy tính "nhờ vả" vào linh kiện này để tăng sức mạnh nhưng vẫn đảm bảo chi phí không bị đội lên quá nhiều. Siêu máy tính mạnh nhất thế giới (tính đến 23/5/2013) mang tên Titan đặt ở Mỹ cũng dùng 18.688 GPU NVIDIA Tesla K20 bên cạnh 18.688 CPU AMD Opteron 16 nhân, như vậy tổng số nhân CPU của máy là 299.008, một con số khổng lồ so với máy tính chỉ 2 hay 4 nhân.

 

Một node của siêu máy tính Titan, trong này có 4 CPU AMD Opteron 16 nhân và 4 GPU NVIDIA Tesla K20 (kiến trúc xây dựng là Kepler). RAM mỗi node là 32GB, cộng với 6GB bộ nhớ GDDR5 của card đồ họa nữa. Tổng cộng có 710 Terabyte bộ nhớ trong Titan.

Thực chất việc sử dụng GPGPU để tăng cường cho CPU vẫn còn là một vấn đề đang được các nhà khoa học bàn cãi. Nhiều người cho rằng việc bổ sung GPGPU đúng là có giúp siêu máy tính trở nên mạnh hơn và ghi được điểm benchmark cao hơn, tuy nhiên khi đưa vào thực tế thì người ta phải bỏ rất rất nhiều công sức tính chỉnh phần mềm để có thể vắt sạch sức mạnh của kiến trúc kết hợp này.

 
Cấu trúc của hãng Cray dùng trong Titan là sự kết hợp của cả hai loại Cray XK6 và XE6, trong đó XK6 có hai card NVIDIA đi kèm với RAM bên cạnh CPU AMD Opteron 64


Châu Âu cũng đang phát triển một dự án siêu máy tính dùng CPU Tegra 3 v2 GPU GeForce. Cụ thể, cỗ máy này xử dụng 256 bộ vi xử lí bốn nhân NVIDIA Tegra 3, 256 bộ xử lí đồ họa GeForce 520MX và 1TB bộ nhớ RAM DDR3 để hoạt động. Với cấu hình như thế này, máy có thể tính được 38 teraflops trong một giây nhưng chỉ tốn 1W điện cho mỗi 7,5 gigaflops. NVIDIA gọi đây là siêu máy tính đầu tiên sử dụng CPU của ARM kết hợp với GPU của hãng. Dự án nghiên cứu, hợp tác xây dựng siêu máy tính ở Châu Âu mang tên Mont-Blanc hứa hẹn sản phẩm này sẽ hoạt động với hiệu suất cao hơn từ bốn đến mười lần các đối thủ siêu máy tính khác vào năm 2014.


Tản nhiệt, tiêu thụ năng lượng

Qua nhiều thập kỉ, một trong những vấn đề chính với siêu máy tính dạng tập trung đó là việc tiêu thụ năng lượng và tản nhiệt. Mỗi một chiếc siêu máy tính ăn một lượng điển khổng lồ, và phần lớn trong số đó bị chuyển hóa thành nhiệt năng. Khi hệ thống bị quá nhiệt có thể khiến hiệu suất giảm đi trầm trọng, tuổi thọ các linh kiện cũng bị rút ngắn đáng kể. Các nhà khoa học đã nghiên cứu nhiều phương án để giải quyết vấn đề này, chẳng hạn như bơm chất làm mát Flourinert, làm mát bằng chất lỏng, bằng không khí, bằng hệ thống lai giữa chất lỏng với không khí. Đặc biệt hệ thống lai này được sử dụng phổ biến trong các siêu máy tính được cấu thành từ nhiều tủ chứa. Ngoài ra, một số siêu máy tính còn sử dụng vi xử lí năng lượng thấp để đương đầu với vấn đề nhiệt độ cao như chiếc Blue Gene của IBM. Chiếc IBM Aquasar còn đặc biệt hơn nữa khi nó sử dụng nước nóng để tản nhiệt và dòng nước đó cũng được dùng để làm ấm cho cả tòa nhà trong mùa lạnh.

 

Hệ thống tản nhiệt bằng nước của Titan

Nói thêm về lượng điện sử dụng bởi supercomputer, chúng ta có thể lấy dí dụ như chiếc Tianhe-1A của Trung Quốc có công suất 4,04 megawatt, tức là cơ quan chủ quản phải chi ra 400 USD/giờ cho tiện điện và tính cả năm là 3,5 triệu USD. Do đó, vấn đề chi phí khi vận hàng siêu máy tính cũng là một bài toán phức tạp.

Để đo hiệu suất sử dụng năng lượng của siêu máy tính, người ta sử dụng con số FLOPS trên Watt và chỉ số này càng cao càng tốt, tức là với mỗi Watt điện thì siêu máy tính tính toán được nhiều phép tính hơn. Năm 2008, chiếc Roadrunner của IBM đạt 376 MFLOPS/W. Năm 2010, chiếc Blue Gene/Q đạt 1684 MFLOPS/W. Năm 2011, chiếc Blue Gene đặt tại New York thì đạt 2097 MFLOPS/W. Còn FLOPS là gì thì mình sẽ nói đến ở phần bên dưới.

Hệ điều hành

Từ đầu thế kỉ 20, hệ điều hành sử dụng trong siêu máy tính cũng đã ghi nhận nhiều sự chuyển biến, tương tự như cách mà kiến trúc supercomputer thay đổi. Những OS đầu tiên được tùy chỉnh cho từng siêu máy tính một để tăng tốc độ, tuy nhiên điều đó rất tốn thời gian, công sức và tiền bạc. Do đó, trong xu hướng hiện nay, người ra sẽ dùng những OS chung như Linux cho siêu máy tính chứ không còn xài UNIX như những năm 90 nữa. Bạn có thể nhìn vào biểu đồ ngay bên dưới là thấy ngay xu hướng chuyển dịch này.

 

Trong số 500 siêu máy tính nhanh nhất thế giới, Linux là hệ điều hành chiếm số lượng lớn nhất và việc áp dụng OS nguồn mở này ngày càng được ưa chuộng. Ở thời điểm viết bài, Linux đang chiếm đến 93,8% thị phần siêu máy tính. UNIX cũng là hệ điều hành được sử dụng trên nhiều siêu máy tính nhưng không phổ biến như Linux và nó đang nắm trong tay 4% thị phần. Windows và BSD cũng có mặt, tuy nhiên số lượng không đáng kể bởi chúng không đáng tin cậy như Linux và UNIX, ngoài ra còn có ảnh hưởng bởi chi phí bản quyền nữa. OS X của Apple trước đây từng được dùng cho siêu máy tính nhưng chủ yếu là trong các supercomputer dạng phân tán.

Công cụ phần mềm

Vì kiến trúc tính toán song song của siêu máy tính, người ta thường phải áp dụng các kĩ thuật lập trình đặc biệt để khai thác hết sức mạnh của nó. Những công cụ dùng cho việc này là các hàm API như MPI, PVM, VTL, ngoài ra còn có các giải pháp phần mềm nguồn mở như EBowulf. Trong hầu hết các trường hợp, môi trường PVM và MPI sẽ dùng cho các hệ thống dạng cluster, còn OpenMP dùng cho hệ thống có bộ nhớ chia sẻ. Các thuật toán cũng cần được tối ưu hóa rất nhiều bởi vì siêu máy tính không chỉ chạy trên một mà trên rất rất nhiều CPU, GPU, chưa kể là từng tủ siêu máy tính lại nằm riêng với nhau. Các nhà khoa học cũng phải tính tới việc giảm thiểu đến mức thấp nhất có thể thời gian rỗi của CPU khi đợi dữ liệu từ node khác chuyển sang. Với các siêu máy tính dùng GPGPU, người ta có thêm các mô hình CUDA của NVIDIA để tăng cường hiệu suất máy.

Siêu máy tính phân tán

Nãy giờ chúng ta nói hơi nhiều về siêu máy tính tập trung rồi, giờ thì quay sang siêu máy tính phân tán một chút nhé. Ở dạng phân tán, có hai cách thức để tận dụng nhiều máy tính nhỏ, đó là Phương pháp cơ hội (opportunistic) và Phương pháp cận cơ hội (quasi-opportunistic).

A. Phương pháp cơ hội

Đây là một dạng của điện toán grid. Trong phương pháp này, một số lượng lớn máy tính riêng lẻ sẽ tình nguyện phối hợp cùng nhau thành một mạng lưới lớn để thực thi các tác vụ tính toán cũng khổng lồ không kém. Grid computing đã từng giải quyết được nhiều vấn đề cần đến điện toán song song, nhưng nó cũng có hạn chế là không tính được một số tác vụ cổ điển như mô phỏng dòng chảy.

Mạng lưới siêu máy tính nhanh nhất tính đến tháng 3/2012 đó là Folding@Home (do đại học Standford phát triển). Nó có sức mạnh 8,1 petaflops và sử dụng các vi xử lí x86. Trong số đó, 5,8 petaflops được "cống hiến" từ các máy tính với nhiều loại GPU khác nhau, 1,7 petaflops thì đến từ các máy chơi game PlayStation 3, số còn lại là do nhiều CPU đóng góp. Hồi năm 2011, thế giới có grid BOINC với sức mạnh 5,5 petaflops góp từ 480.000 máy tính. Còn trong năm ngoái, Simon Cox đã làm ra một chiếc siêu máy tính với 64 chiếc Raspberry Pi's. Hệ thống này mang tên Iridis-Pi và có chi phí chỉ 2500 Bảng Anh và có bộ nhớ 1TB (16GB thẻ SD cho mỗi chiếc Raspberry Pi).

B. Phương pháp cận cơ hội

Điện toán quasi-opportunistic cũng tương tự như điện toán opportunistic, tuy nhiên nó có chất lượng dịch vụ cao hơn nhờ việc tăng cường kiểm soát các tác vụ mà mỗi máy đơn lẻ sẽ làm. Nó cũng điều khiển chặt chẽ quá trình sử dụng tài nguyên phân tán. Kèm theo đó còn có một hệ thống thông minh giúp đảm bảo mức độ hiện diện cũng như mức độ ổn định của các máy thành viên. Để phương pháp cận cơ hội phát huy hiệu quả, các máy tính sẽ cần phải có một "hợp đồng phân bổ tài nguyên" kết hợp với nhiều hình thức liên lạc, chống lỗi phức tạp.

Đo đạc hiệu năng

A. Khả năng vs Dung lượng

Siêu máy tính được thiết kế để nhắm việc tính toán các phép tính phức tạp, tức là capability computing. Điều này có nghĩa là siêu máy tính được sử dụng để đưa khả năng tính toán lên mức tối đa, từ đó giải quyết một vấn đề trong thời gian ngắn nhất có thể. Các phép tính này rất đặc biệt và nó khó đến nỗi những máy tính bình thường không thể đảm đương được, ví dụ mô phỏng vụ nổ hạt nhân, dự báo thời tiết, nghiên cứu lượng tử...

Còn nếu muốn xử lí một dung lượng lớn dữ liệu, người ta không dùng supercomputer mà dùng một loại máy tính gọi là mainframe. Mainframe có thể đảm được dữ liệu đầu vào khổng lồ nhưng các phép tính mà nó chạy không phức tạp như siêu máy tính. Mainframe có thể dùng để giải quyết nhiều vấn đề nhỏ cùng lúc. Chúng ta sẽ có một bài về mainframe riêng, hẹn các bạn khi đó để nói thêm về loại máy tính này.

B. Đo đạc hiệu năng siêu máy tính

Nếu như ở PC, laptop, tablet, smartphone người ta sẽ tiến hành benchmark để biết được sức mạnh của máy thì trên siêu máy tính cũng y như thế. Tuy nhiên, khả năng tính toán của siêu máy tính được đo bằng FLOPS (FLoating Point Operations Per Second - phép tính dấu chấm động thực hiện trong mỗi giây), trong khi máy tính bình thường thì đo bằng MIPS (instructions per second - số chỉ dẫn được thực hiện trong mỗi giây). FLOPS có thể được thêm một số tiếp đầu ngữ trong hệ đo lường SI như tera- (TFLOPS, tức 10^12 FLOPS, đọc là teraflops), peta (10^15 FLOPS).

Hiện nay các siêu máy tính hàng đầu thế giới đều đã bước sang ngưỡng Petaflops, ví dụ như chiếc IBM Roadrunner năm 2008 là 1,105 Petaflops, Fujitsu K năm 2011 đạt mức 10,51 Petaflops, còn chiếc Cray Titan mạnh nhất hiện nay là 17.59 Petaflops. Người ta dự đoán là chỉ sau khoảng 10 năm nữa, siêu máy tính sẽ sớm bước sang hàng Exaflops (10^18 FLOPS) vì công nghệ của CPU và GPGPU đang tăng trưởng vượt bậc, giá thành lại rẻ đi và hiệu năng tiêu thụ điện ngày càng được nâng cao.

Vậy những con số FLOPS ở đâu ra? Nó được đo bằng một phần mềm tên là Linpack. Tuy nhiên cũng cần phải nói thêm rằng không một con số đứng riêng lẻ nào có thể phản ánh toàn bộ hiệu năng của máy tính nói chung và siêu máy tính nói riêng. Có hai con số được thể hiện khi nói tới siêu máy tính: hiệu năng tính toán dấu chấm động lý thuyết của vi xử lí (kí hiệu Rpeak) và hiệu năng xử lí đầu vào (Rmax). Rpeak gần như không thể nào đạt được trong đời thực, trong khi Rmax là hoàn toàn có thể đạt đến khi siêu máy tính chạy. Tất cả những con số FLOPS bạn thấy ở trên đều là Rmax.

C. Danh sách TOP500

Kể từ năm 1993, những siêu máy tính nhanh nhất thế giới được liệt kê vào một danh sách gọi là TOP500 dựa theo điểm số benchmark của nó. TOP500 có trang web riêng của họ ở địa chỉ http://top500.org và nó cung cấp cho chúng ta rất nhiều thông tin hữu ích. Bên cạnh việc xem danh sách những supercomputer hàng đầu thế giới, bạn có thể xem thống kê về việc phân bổ hệ điều hành trong thế giới siêu máy tính như thế nào, số lượng siêu máy tính mỗi nước, kiến trúc siêu máy tính (MPP hay cluster)… Thực chất thì danh sách này không hề được đánh giá là chính xác tuyệt đối và không thiên vị, tuy nhiên nó là một trong những nguồn phổ biến nhất mà người ta thường lấy khi so sánh sức mạnh siêu máy tính ở một thời điểm nào đó.

Tên các siêu máy tính mạnh nhất thế giới từ năm 2008 đến nay theo TOP500

Ứng dụng của siêu máy tính

Một số ứng dụng của siêu máy tính trong thời buổi hiện nay:

  • Dự báo thời tiết, nghiên cứu khí động học, nghiên cứu sự biến đổi khí hậu, mô phỏng động đất
  • Phân tích xác suất, dựng mô hình phóng xạ
  • Mô phỏng vụ nổ hạt nhân trong không gian 3D
  • Lượng tử học, phân tử học, sinh học tế bào, nghiên cứu sự gấp khúc của protein
  • Mô phỏng não người
  • Nghiên cứu và dựng mô hình của các hiện tượng vật lý
  • Nghiên cứu và mô phỏng trí tuệ nhân tạo
  • Tái tạo vụ nổ Bigbang (do siêu máy tính ở trung tâm Texas Advanced Computing Center thực hiện), nghiên cứu về vật chất tối
  • Nghiên cứu thiên văn học
  • Dựng mô hình lây lan của dịch bệnh
  • Chơi cờ vua! (siêu máy tính Deep Blue của IBM từng đánh bại đại kiện tướng Garry Kasparov vào năm 1997)

 

Ảnh mô phỏng do siêu máy tính của Cơ quan Khí tượng và Hải dương Mỹ (NOAA) dựng ra bằng siêu máy tính của họ


Một số hãng sản xuất và cung cấp siêu máy tính


Bạn có thể thấy là IBM, HP và Cray là ba công ty dẫn đầu trên lĩnh vực siêu máy tính hiện nay. Dell, Intel, NEC, Lenovo, Acer, Fujitsu, Oracle cũng có tham gia vào lĩnh vực này.
 


Các nước có siêu máy tính


 



Nguồn: Wikipedia, TOP500, NOAA, Tinhte

Không có nhận xét nào:

Đăng nhận xét