1. Pendahuluan
Saat menggunakan GPU di Ubuntu, penting untuk memeriksa kondisinya dengan akurat. Terutama dalam pekerjaan seperti deep learning atau rendering grafis, memahami penggunaan GPU dan versi driver adalah hal yang wajib. Artikel ini menjelaskan cara menggunakan alat manajemen NVIDIA GPU, nvidia-smi
, dan memperkenalkan metode untuk memeriksa GPU di Ubuntu.
2. Memeriksa Informasi GPU dengan nvidia-smi
nvidia-smi
adalah alat baris perintah yang memungkinkan Anda memantau penggunaan GPU dan penggunaan memori yang diproduksi oleh NVIDIA. Ini sangat berguna untuk memeriksa status operasi GPU secara real-time dan mendapatkan informasi penggunaan yang detail.
Cara Penggunaan Dasar
Dengan perintah berikut, Anda dapat memeriksa penggunaan GPU dan penggunaan memori secara real-time.
nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1
Perintah ini mendapatkan informasi detail termasuk tingkat pemakaian GPU, penggunaan memori, dan jumlah memori yang tersedia. Selain itu, dengan opsi -l
, Anda dapat menentukan interval pembaruan dalam hitungan detik.
Format Tampilan dan Output ke File
Secara default, output ditampilkan dalam format tabel, tetapi Anda juga dapat mengeluarkannya dalam format CSV untuk memudahkan pemrosesan. Jika Anda ingin merekam informasi ke file, Anda dapat menentukan jalur file output dengan opsi -f
.
nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1 -f /path/to/output.csv
Dengan metode ini, Anda dapat menyimpan status penggunaan GPU sebagai log dan menganalisisnya nanti.

3. Mendapatkan Informasi Proses dengan nvidia-smi
Dengan menggunakan nvidia-smi
, Anda dapat memperoleh informasi tentang proses yang saat ini menggunakan GPU. Ini memungkinkan Anda untuk melihat proses mana yang menggunakan sumber daya GPU dan sejauh mana.
Mendapatkan Informasi Proses
Dengan perintah berikut, Anda dapat memeriksa PID dan penggunaan memori dari proses yang menggunakan GPU.
nvidia-smi --query-compute-apps=pid,process_name,used_memory --format=csv,noheader
Perintah ini mengembalikan daftar proses GPU yang sedang berjalan dan menampilkan penggunaan memori untuk setiap proses.
Subperintah nvidia-smi pmon
nvidia-smi
juga memiliki subperintah pmon
yang memungkinkan Anda mendapatkan informasi detail tentang proses yang menggunakan GPU.
nvidia-smi pmon --delay 10 -s u -o DT
Perintah ini menampilkan informasi proses GPU pada interval yang ditentukan, dengan opsi --delay
menentukan interval pembaruan dalam hitungan detik. Anda juga dapat memilih jenis informasi yang akan ditampilkan.
4. Instalasi dan Verifikasi Driver NVIDIA
Untuk menggunakan NVIDIA GPU di Ubuntu, Anda perlu menginstal driver NVIDIA yang sesuai. Berikut adalah langkah-langkah untuk instalasi dan verifikasi driver.
Instalasi Driver
Pertama, instal driver NVIDIA yang sesuai untuk sistem Anda. Anda dapat menginstal driver yang direkomendasikan dengan perintah berikut.
sudo apt install nvidia-driver-510
Setelah instalasi selesai, restart sistem Anda.
Verifikasi Instalasi
Setelah restart, verifikasi bahwa driver telah diinstal dengan benar dengan perintah berikut.
nvidia-smi
Jika perintah ini menampilkan versi driver dan versi CUDA, itu berarti instalasi berhasil.
Pertama, instal Anaconda untuk menyiapkan lingkungan kerja Anda.
bash ./Anaconda3-2022.05-Linux-x86_64.sh
conda update -n base conda
conda update anaconda
conda update -y --all
conda install tensorflow-gpu==2.4.1
Memeriksa Operasi dengan TensorFlow
Selanjutnya, verifikasi apakah TensorFlow mengenali GPU Anda.
from tensorflow.python.client import device_lib
device_lib.list_local_devices()
Jika perangkat GPU muncul dalam daftar, itu berarti TensorFlow telah mengenali GPU Anda dengan benar.
6. Memantau dan Mencatat Penggunaan GPU
Dengan menggunakan nvidia-smi
, Anda dapat memantau penggunaan GPU secara real-time dan mencatatnya untuk analisis lebih lanjut. Ini berguna untuk melacak kinerja GPU Anda dalam jangka waktu yang panjang dan membantu dalam mengoptimalkan sistem Anda.
Pemantauan Berkala
Untuk mengatur pemantauan berkala, gunakan opsi -l
pada nvidia-smi
untuk menentukan interval pembaruan. Anda juga dapat mencatat informasi ini ke dalam file untuk analisis selanjutnya.
nvidia-smi --query-gpu=timestamp,name,utilization.gpu,utilization.memory,memory.used,memory.free --format=csv -l 1 -f /var/log/gpu.log
Operasi Terprogram dengan Binding Python
nvidia-smi
memiliki binding Python (nvidia-ml-py
) yang memungkinkan Anda untuk mengambil informasi GPU secara programatis menggunakan Python. Ini memungkinkan pemantauan dan kontrol yang lebih disesuaikan.

7. Kesimpulan
nvidia-smi
adalah alat yang kuat untuk memantau dan mengelola penggunaan GPU NVIDIA di Ubuntu. Dalam artikel ini, kami telah membahas penggunaan dasar nvidia-smi
, cara mendapatkan informasi proses, instalasi driver, dan verifikasi operasi dengan TensorFlow. Manfaatkan alat ini untuk memaksimalkan kinerja GPU Anda dan mengoptimalkan sistem Anda.