Review Jurnal Analisis Perbandingan Komputasi GPU dengan CUDA dan Komputasi CPU untuk Image dan Video Processing

TUGAS SOFTSKILL.

Nama Kelompok :

Alfandy Sulaiman (50412602)

Randy Aditya (564120001)

Reza Ramadhan (56412212)

Ricky Julianto (56412286)

Swandaru Adiananto (57412228)

Arsitektur yang digunakan untuk memanfaatkan GPU dalam komputasi paralel adalah Compute Unified Device Architecture(CUDA). Arsitektur CUDA ini digunakan
pengembang perangkat lunak untuk membuat program yang berjalan pada GPU buatan NVIDIA dengan syntax yang mirip dengan syntax C.

Arsitektur CUDA terdiri dari tiga bagian dasar . CUDA membagi device ke grid, block, dan thread dalam struktur hirarki seperti gambar 1 . Karena ada sejumlah thread dalam satu blok dan jumlah block dalam satu grid dan sejumlah grid dalam satu GPU. Sehingga proses paralel tersebut dicapai dengan menggunakan suatu arsitektur hirarkis yang sangat besar.

cuda

gambar 1

CUDA biasa dipakai untuk pemrograman grafis seperti image dan video processing secara digital seperti image segmentation, perubahan kualitas citra, pengenalan pola yang
dapat diaplikasikan untuk berbagai kebutuhan dalam dunia nyata .

Tahapan Algoritme pada CUDA
Komputasi paralel dengan pemograman CUDA melakukan beberapa tahap algoritme untuk mengolah gambar secara paralel antara lain :
1) Memuat gambar (load an image)
2) mengalokasikan CPU memory
3) mengalokasikan GPU memory dengan jumlah memory yang sama dengan CPU menggunakan fungsi library CudaMalloc
4) mengambil input data (data gambar/image) dari CPU memory yang disebut dengan host memory
5) menyalin data ke dalam GPU memory menggunakan fungsi library CudaMemCpy dengan parameter CudaMemcpyHostToDevice, sehingga data dari host memory akan diolah ke dalam device memory (GPU)
6) melakukan pemrosesan dalam GPU memory di dalam kernel yakni untuk menjalankan komputasi paralel sesuai dengan grid, block, dan thread yang dibutuhkan untuk proses paralel
7) menyalin data hasil (result data) dalam CPU memory menggunakan fungsi library CudaMemCpy dengan parameter CudaMemcpyDeviceToHost. Dengan kata lain, data hasil dari device memory (GPU) dikembalikan ke host memory (CPU), dan
8) membebaskan GPU memory atau thread lain
menggunakan fungsi library CudaFree .

sumber :

https://drive.google.com/file/d/0B63Ntzdk9YB9WkUxc29VU3hia0hoQUNnQ2FNNENzUGIzRGRN/view?usp=drivesdk

Tentang vixionr15 (ˆ⌣ˆ‎​​​​)┌П┐,

penyuara opini
Pos ini dipublikasikan di Uncategorized. Tandai permalink.

Tinggalkan Balasan

Isikan data di bawah atau klik salah satu ikon untuk log in:

Logo WordPress.com

You are commenting using your WordPress.com account. Logout / Ubah )

Gambar Twitter

You are commenting using your Twitter account. Logout / Ubah )

Foto Facebook

You are commenting using your Facebook account. Logout / Ubah )

Foto Google+

You are commenting using your Google+ account. Logout / Ubah )

Connecting to %s