Công nghệ CUDA của nVIDIA - Lời cáo chung cho CPU ?

Thảo luận trong 'Card Đồ họa - Video Cards' bắt đầu bởi Bakalu, 11/8/08.

  1. Bakalu

    Bakalu New Member

    Bài viết:
    4,972
    Nơi ở:
    Raccoon City
    Có thể nói công nghệ này là một thứ rất mơ hồ đối với tôi, có thể nó sẽ dễ hiểu hơn với người lập trình (đối với Hứa Lèo chẳng hạn), bài viết chi tiết xem tại đây :
    http://reviews.amtech.com.vn/index.php?option=com_content&task=view&id=917

    Ở đây tôi chỉ post kết quả thực nghiệm của chương trình nén phim ứng dụng công nghệ CUDA

    Chương trình nén phim BadaBOOM

    Và hiện nay công nghệ CUDA đã bắt đầu được ứng dụng vào thực tế qua chương trình nén phim BadaBOOM, đây là chương trình đầu tiên trên thế giới ứng dụng công nghệ CUDA của nVIDIA cho phép nén những phim có dung lượng rất lớn thành các định dạng file nhỏ hơn bằng GPU - card đồ họa của nVIDIA. Hiện tại phiên bản đầu tiên của chương trình BadaBOOM chỉ hỗ trợ dòng card mới nhất GeForce GTX 200, nhưng những phiên bản tiếp theo của phần mềm này sẽ hỗ trợ cả những dòng card cũ hơn trước đây của nVIDIA là GeForce 8.

    Thử nghiệm tiến hành nén một đoạn phim HD có dung lượng hơn 207MB trên cấu hình máy :

    Mainboard Asus P5Q-E chipset P45
    RAM OCZ 2x1GB DDR2 5-5-5-15
    CPU Core 2 Duo E6550 2.33GHz
    GPU Asus GTX 280 1GB GDDR3


    Bắt đầu nén : Kim giây chỉ số 0

    [​IMG]

    Quá trình nén sắp hoàn thành

    [​IMG]

    Quá trình nén hoàn tất : Kim giây chỉ số 26

    [​IMG]

    Như vậy với GPU quá trình nén một đoạn phim hơn 207MB chỉ mất một khoảng thời gian cực kỳ nhanh chóng chưa đầy nửa phút, thế với CPU thì sao ?

    Để so sánh với CPU, tôi đã thay CPU 2 nhân Core 2 Duo E6550 bằng CPU 4 nhân Core 2 Quad Q6600 2.4GHz và cũng được ép xung lên 3.6GHz, cấu hình thử nghiệm lúc này thành ra như sau :

    Mainboard Asus P5Q-E chipset P45
    RAM OCZ 2x1GB DDR2 5-5-5-15
    CPU Core 2 Quad Q6600 @ 3.6GHz
    GPU Asus GTX 280 1GB GDDR3


    Tôi sử dụng chương trình chuyên dụng nén phim hỗ trợ CPU đa nhân Xilisoft Video Converter Ultimate , với chương trình này tôi cũng nén đoạn phim 207MB trên và cũng xuất ra định dạng file hình ảnh có chất lượng tương đương với file hình ảnh được nén bằng chương trình BadaBOOM.

    Bắt đầu nén : Kim giây chỉ số 0

    [​IMG]

    Công đoạn nén file được bắt đầu với thời điểm là phút 46’00”. Sau khoảng thời gian 52s (tức là gấp đôi khoảng thời gian GPU đã nén xong file 207MB) Q6600 được ép xung lên 3.6GHz chỉ mới hoàn thành có 56% quá trình nén.

    [​IMG]

    Đến phút 47’34” Q6600 mới hoàn thành xong quá trình nén file 207MB, như vậy Q6600 được ép xung lên 3.6GHz phải mất khoảng thời gian là 1’34” để nén trong khi GPU chỉ mất có 26s. Tức là GPU nén phim nhanh hơn CPU khoảng 3.6 lần.

    [​IMG]

    [​IMG]

    So sánh hình ảnh đoạn phim khi được nén bằng GPU

    [​IMG]

    Hình ảnh đoạn phim gốc

    [​IMG]

    Hình ảnh đoạn phim nén bằng chương trình BadaBOOM.


    [​IMG]

    Hình ảnh đoạn phim nén bằng chương trình Xilisoft Video Converter Ultimate

    [​IMG]
     

    Các file đính kèm:

    :
  2. tien113

    tien113 php+mysql+apache

    Bài viết:
    6,477
    Nơi ở:
    Vaasa, Finland
    thằng BadaBOOM nó dùng code gì vậy???
     
  3. Gizpb

    Gizpb New Member

    Bài viết:
    493
    Code gì là sao bro
     
  4. tien113

    tien113 php+mysql+apache

    Bài viết:
    6,477
    Nơi ở:
    Vaasa, Finland
    code là divx, xvid or x264???:lacdau:
     
  5. Gizpb

    Gizpb New Member

    Bài viết:
    493
    Hình như là x264, mà cái này gọi là codec chứ
     
  6. Clọud

    Clọud New Member

    Bài viết:
    246
    cái ct BadaBOOM anh BA down ở đâu dzị, có cần key ko, cho em link down về nha.
     
  7. linhzin811

    linhzin811 con nhà nghèo

    Bài viết:
    2,315
    Nơi ở:
    Ha Noi
    có nhầm lẫn gì ko vậy anh?
    pix đầu tiên là 4h51'0s, pix thứ 2 là 4h53'12s, pix thứ 3 lại là 4h52'26s :tronxoe:

     
  8. Bakalu

    Bakalu New Member

    Bài viết:
    4,972
    Nơi ở:
    Raccoon City
    Ko có gì nhầm lẫn đâu vì những hình đó anh chụp ở các thời điểm khác nhau. Chẳng hạn hình lúc kim giây chỉ 0 giây anh chụp đầu tiên, sau đó anh dùng paint save lại file chụp, sau đó anh phải đợi đúng lúc kim giây quay lại số 0 mới tiến hành cho Badaboom chạy đến khi kim giây chỉ số 26 cũng là lúc Badaboom nén xong đọan phim, còn tấm hình 2 là tấm chụp sau cùng lúc anh cho chạy lại Badaboom.
     
  9. Gizpb

    Gizpb New Member

    Bài viết:
    493
    Không có link down đâu bro, cái này do bác Ken liên hệ trực tiếp với nVidia mới có đó, nhưng cũng chỉ là bản demo thui.
    Chừng nào ra bản thương mại thì bẻ khóa xài luôn :detien:
     
  10. Iron Heart

    Iron Heart New Member

    Bài viết:
    116
    CPU sẽ mãi mãi ko cáo chung được đâu anh Bakalu ạ.

    Anh có biết thằng nVIDIA liên minh với VIA,SIS lập nền tảng Terga (nếu sai tên thì em xin lỗi nha:sun:) ko? Nó làm thế để nhằm gây sức ép (mà cũng chẳng ép được bao nhiêu) để lấy "lai xần" Quickpath từ Intel đấy. Và nVIDIA phải xuống thang rất nhiều thì mới có được "lai xần" từ intel và từ đó mới có chuyện có chip enable SLI cho Bloomfield.

    Và một người như anh chắc chắn phải biết rõ rằng hai thằng GPU và CPU khác nhau về mặt cơ bản là rất nhiều, dù có CUDA đi chăng nữa thì GPU sẽ không thể nào sánh vai cùng cpu được, vị trí của GPU thấp hơn hẳn CPU một bậc.

    - GPU được thiết kế để tính toán các phép tính đều đặn có tính lặp đi lặp lại cho nên với GPU thì cache không cần nhiều (nhìn L1, L2 cache trên mấy con GPU của ATI và nVIDIA thì biết chẳng chiếm tí nào so với đám Stream Processor :lele:).
    - CPU được thiết kế để tính toán đa tác vụ, các phép tính random, vô hướng,...và công việc của GPU thì CPU cũng làm được nhưng sẽ kém hơn GPU làm. CPU là một bộ vi xử lí siêu vô hướng.

    Anh nên đọc qua topic này: Họ cũng đã từng thảo luận về CGPU và GPGPU, CUDA và Larrabee rồi đó.

    http://vozforums.com/showthread.php?t=103578

    Còn nếu anh có gì thắc mắc thì PM cho lão Long_Mangaka ấy, lão là chúa trùm (mềm) trong lĩnh vực này mà
     

Chia sẻ trang này