Cpu Computer Data Processing Concept
Thông tin công nghệ

Thử nghiệm máy va chạm Hadron lớn nâng cấp trò chơi xử lý dữ liệu với GPU

CPU Computer Data Processing Concept

Trong khi nhu cầu xử lý dữ liệu đang tăng cao đối với LHC’s Run 3, bốn thử nghiệm lớn đang tăng cường sử dụng GPU để cải thiện cơ sở hạ tầng máy tính của họ.

Phân tích khoảng một tỷ va chạm proton mỗi giây hoặc hàng chục nghìn va chạm chì rất phức tạp không phải là một công việc dễ dàng đối với một trang trại máy tính truyền thống. Với những nâng cấp mới nhất của các thử nghiệm LHC sẽ có hiệu lực vào năm sau, nhu cầu về tiềm năng xử lý dữ liệu của họ đã tăng lên đáng kể. Vì những thách thức tính toán mới của họ có thể không được đáp ứng bằng cách sử dụng các đơn vị xử lý trung tâm truyền thống (CPU), bốn thử nghiệm lớn đang áp dụng các đơn vị xử lý đồ họa (GPU).

GPU là bộ xử lý hiệu quả cao, chuyên xử lý hình ảnh và ban đầu được thiết kế để tăng tốc độ kết xuất đồ họa máy tính ba chiều. Việc sử dụng chúng đã được nghiên cứu trong vài năm qua bởi các thí nghiệm LHC, Worldwide LHC Computing Grid (WLCG) và CERN openlab . Việc tăng cường sử dụng GPU trong vật lý năng lượng cao sẽ cải thiện không chỉ chất lượng và kích thước của cơ sở hạ tầng điện toán mà còn cả hiệu quả năng lượng tổng thể.

Một nút HLT ứng cử viên cho Run 3, được trang bị hai CPU AMD Milan 64-lõi và hai GPU NVIDIA Tesla T4. Tín dụng: CERN)

“Chương trình nâng cấp đầy tham vọng của LHC đặt ra một loạt các thách thức tính toán thú vị; Enrica Porcari, Trưởng bộ phận CNTT của CERN , cho biết GPU có thể đóng một vai trò quan trọng trong việc hỗ trợ các phương pháp tiếp cận máy học để giải quyết nhiều vấn đề này. “Kể từ năm 2020, bộ phận CNTT của CERN đã cung cấp quyền truy cập vào các nền tảng GPU trong trung tâm dữ liệu, vốn đã được chứng minh là phổ biến cho một loạt các ứng dụng. Trên hết, CERN openlab đang thực hiện các cuộc điều tra quan trọng về việc sử dụng GPU cho máy học thông qua các dự án R&D hợp tác với ngành và nhóm Hợp tác Máy tính Khoa học đang làm việc để giúp chuyển – và tối ưu hóa – mã khóa từ các thử nghiệm. “

ALICE đã đi tiên phong trong việc sử dụng GPU trong trang trại máy tính trực tuyến kích hoạt cấp cao (HLT) kể từ năm 2010 và là thử nghiệm duy nhất sử dụng chúng với quy mô lớn như vậy cho đến nay. Máy dò ALICE mới được nâng cấp có hơn 12 tỷ phần tử cảm biến điện tử được đọc ra liên tục, tạo ra luồng dữ liệu hơn 3,5 terabyte mỗi giây. Sau khi xử lý dữ liệu mức đầu tiên, vẫn còn một luồng lên đến 600 gigabyte mỗi giây. Những dữ liệu này được phân tích trực tuyến trên một trang trại máy tính hiệu suất cao, thực hiện 250 nút, mỗi nút được trang bị tám GPU và hai CPU 32 lõi. Hầu hết phần mềm tập hợp các tín hiệu máy dò hạt riêng lẻ thành quỹ đạo hạt (tái tạo sự kiện) đã được điều chỉnh để hoạt động trên GPU.

Hình ảnh hóa khung thời gian 2 ms của va chạm Pb-Pb ở tốc độ tương tác 50 kHz trong ALICE TPC. Các dấu vết từ các vụ va chạm chính khác nhau được hiển thị bằng các màu khác nhau. Tín dụng: ALICE / CERN

Đặc biệt, việc tái tạo trực tuyến dựa trên GPU và nén dữ liệu từ Phòng chiếu thời gian, nơi đóng góp lớn nhất vào kích thước dữ liệu, cho phép ALICE giảm thêm tốc độ xuống tối đa 100 gigabyte mỗi giây trước khi ghi dữ liệu vào Cái đĩa. Nếu không có GPU, số lượng máy chủ cùng loại và các tài nguyên khác sẽ cao gấp tám lần số lượng máy chủ cùng loại và các tài nguyên khác sẽ được yêu cầu để xử lý trực tuyến dữ liệu xung đột chì ở tốc độ tương tác 50 kHz.

ALICE đã sử dụng thành công việc tái tạo trực tuyến trên GPU trong quá trình lấy dữ liệu chùm thí điểm LHC vào cuối tháng 10 năm 2021. Khi không có chùm tia trong LHC, trang trại máy tính trực tuyến được sử dụng để tái tạo ngoại tuyến. Để tận dụng toàn bộ tiềm năng của GPU, phần mềm tái tạo ALICE đầy đủ đã được triển khai với sự hỗ trợ của GPU và hơn 80% khối lượng công việc xây dựng lại sẽ có thể chạy trên GPU.

Từ năm 2013 trở đi, các nhà nghiên cứu của LHCb đã thực hiện nghiên cứu và phát triển trong việc sử dụng các kiến trúc điện toán song song, đặc biệt là GPU, để thay thế các bộ phận của quá trình xử lý thường xảy ra trên CPU. Công việc này lên đến đỉnh điểm trong dự án Allen , một quy trình xử lý thời gian thực cấp độ đầu tiên được thực hiện hoàn toàn trên GPU, có thể xử lý tốc độ dữ liệu của LHCb chỉ bằng khoảng 200 thẻ GPU. Allen cho phép LHCb tìm quỹ đạo hạt tích điện ngay từ đầu quá trình xử lý thời gian thực, được sử dụng để giảm tốc độ dữ liệu xuống 30-60 trước khi máy dò được căn chỉnh và hiệu chỉnh và một máy dò đầy đủ dựa trên CPU hoàn chỉnh hơn xây dựng lại được thực hiện. Một hệ thống nhỏ gọn như vậy cũng dẫn đến tiết kiệm hiệu quả năng lượng đáng kể.

Bắt đầu từ năm 2022, thí nghiệm LHCb sẽ xử lý 4 terabyte dữ liệu mỗi giây trong thời gian thực, chọn ra 10 gigabyte trong số các va chạm LHC thú vị nhất mỗi giây để phân tích vật lý. Cách tiếp cận độc đáo của LHCb là thay vì giảm tải công việc, nó sẽ phân tích đầy đủ 30 triệu điểm giao cắt chùm hạt mỗi giây trên GPU.

Cùng với những cải tiến đối với việc xử lý CPU, LHCb cũng đã đạt được gần như hệ số 20 trong hiệu quả năng lượng của quá trình tái tạo máy dò kể từ năm 2018. Các nhà nghiên cứu của LHCb hiện đang mong muốn vận hành hệ thống mới này với dữ liệu đầu tiên của năm 2022 và xây dựng trên nó để cho phép hiện thực hóa toàn bộ tiềm năng vật lý của máy dò LHCb nâng cấp.

CMS đã tái tạo lại dữ liệu va chạm LHC với GPU lần đầu tiên trong chùm tia thử nghiệm LHC vào tháng 10 năm ngoái. Trong hai lần chạy LHC đầu tiên, CMS HLT chạy trên một trang trại máy tính truyền thống bao gồm hơn 30.000 lõi CPU. Tuy nhiên, như các nghiên cứu về nâng cấp Giai đoạn 2 của CMS đã chỉ ra, việc sử dụng GPU sẽ là công cụ giúp kiểm soát chi phí, kích thước và mức tiêu thụ điện năng của trang trại HLT ở độ sáng LHC cao hơn. Và để có được kinh nghiệm với trang trại không đồng nhất và sử dụng GPU trong môi trường sản xuất, CMS sẽ trang bị cho toàn bộ HLT với GPU từ đầu Run 3: trang trại mới sẽ bao gồm tổng cộng 25 600 lõi CPU và 400 GPU.

Sức mạnh tính toán bổ sung được cung cấp bởi các GPU này sẽ cho phép CMS không chỉ cải thiện chất lượng của việc tái tạo trực tuyến mà còn mở rộng chương trình vật lý của nó, chạy phân tích do thám dữ liệu trực tuyến với tốc độ cao hơn nhiều so với trước đây. Ngày nay, khoảng 30% quá trình xử lý HLT có thể được giảm tải cho GPU: tái tạo cục bộ bộ đo nhiệt lượng, tái tạo cục bộ bộ theo dõi pixel, theo dõi chỉ pixel và tái tạo đỉnh. Số lượng thuật toán có thể chạy trên GPU sẽ tăng lên trong Run 3, vì các thành phần khác đã được phát triển.

ATLAS tham gia vào nhiều dự án R&D hướng tới việc sử dụng GPU cả trong hệ thống kích hoạt trực tuyến và rộng hơn là trong thử nghiệm. GPU đã được sử dụng trong nhiều phân tích; chúng đặc biệt hữu ích cho các ứng dụng học máy, nơi việc đào tạo có thể được thực hiện nhanh hơn nhiều. Ngoài học máy, các nỗ lực R&D của ATLAS đã tập trung vào việc cải thiện cơ sở hạ tầng phần mềm để có thể sử dụng GPU hoặc các bộ vi xử lý kỳ lạ hơn có thể khả dụng trong một vài năm tới. Một số ứng dụng hoàn chỉnh, bao gồm mô phỏng nhiệt lượng kế nhanh, hiện cũng chạy trên GPU, sẽ cung cấp các ví dụ chính để kiểm tra các cải tiến cơ sở hạ tầng.

“Tất cả những phát triển này đang xảy ra trong bối cảnh sự phát triển và đa dạng hóa phần cứng máy tính chưa từng có. Các kỹ năng và kỹ thuật được phát triển bởi các nhà nghiên cứu CERN trong khi học cách sử dụng GPU tốt nhất là nền tảng hoàn hảo để làm chủ các kiến trúc của tương lai và sử dụng chúng để tối đa hóa tiềm năng vật lý của các thí nghiệm hiện tại và tương lai, ”Vladimir Gligorov, người đứng đầu LHCb’s Real cho biết. Dự án Phân tích Thời gian.

Theo Scitechdaily

What's your reaction?

Excited
0
Happy
0
In Love
0
Not Sure
0

You may also like

Leave a reply

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Website này sử dụng Akismet để hạn chế spam. Tìm hiểu bình luận của bạn được duyệt như thế nào.