안경잡이개발자

728x90
반응형

※ 개요 ※

 

  필자는 개인 PC에 윈도우 10 (Windows 10) 운영체제를 설치해 사용하고 있다. 가끔씩 윈도우 환경에서 PyTorch를 설치하여 GPU로 뉴럴 네트워크 모델을 학습해야 할 때가 있다.

 

※ 시스템 환경 분석하기 ※

 

  딥러닝 개발 환경을 구축하기 전에, 가장 먼저 자신의 컴퓨터 시스템 환경을 확인할 필요가 있다. 윈도우 운영체제에서 [장치 관리자]를 실행하면 다음과 같이 그래픽 카드에 대한 정보가 나온다. 필자는 NVIDIA GeForce RTX 3080 Ti를 사용하고 있다.

 

 

  이후에 [시스템 정보]를 실행하면 다음과 같은 화면이 나온다. 필자는 AMD 라이젠9-4세대 5900X를 사용하고 있다. 다음과 같이 [프로세스]란에 자신이 사용 중인 CPU 정보가 등장하는 것을 알 수 있다.

 

 

  이어서 자신이 사용 중인 메인 메모리(RAM)의 용량도 나오는 것을 확인할 수 있다.

 

 

※ 파이썬(Python) 설치하기 ※

 

  가장 먼저 파이썬(Python)을 설치하자.

 

  ▶ 파이썬 다운로드: https://www.python.org/downloads/

 

Download Python

The official home of the Python Programming Language

www.python.org

 

  파이썬 공식 다운로드 홈페이지로 이동한 뒤에 [Download Python] 버튼을 눌러서 파이썬 설치를 진행한다. 파이썬 설치 프로그램 다운로드가 완료되면, 단순히 실행하여 설치하면 된다. 설치가 완료된 이후에는 [Add Python to PATH] 버튼에 체크하여 Python을 PATH에 추가해주면 된다. 그러면 명령 프롬프트(CMD)와 같은 환경에서 파이썬을 손쉽게 실행할 수 있게 된다.

 

 

  필자는 이미 Python 3.10.2를 설치한 상태다. 설치가 정상적으로 완료되었다면 명령 프롬프트(CMD)를 실행한 뒤에 다음과 같이 python --versionpip --version 명령어를 입력하여 버전을 확인한다.

 

 

※ Python 가상환경 virtualenv 사용하기 ※

 

  필자는 Anaconda 대신에 virtualenv를 사용하는 편이다.

 

pip install virtualenv

 

  설치 이후에는 다음과 같이 가상환경을 생성할 수 있다. 필자는 mine이라는 이름으로 만들었다.

 

python -m virtualenv mine

 

  이후에 다음과 같이 가상환경에 접속한다. 참고로 윈도우 운영체제에서 이를 정상적으로 수행하기 위해서는 명령 프롬프트 대신에 Windows Powershell을 관리자 권한으로 실행해야 할 수도 있다. 또한 이 경우에 콘솔 창에 다음과 같은 명령어를 추가적으로 입력해야 한다.

 

Set-ExecutionPolicy Unrestricted -Force

 

  결과적으로 생성된 가상환경의 Scripts\activate 프로그램을 실행하면 된다. 그러면 다음과 같이 mine 가상환경에 접속한 것을 알 수 있다.

 

 

  참고로 가상환경에서 빠져나올 때는 deactivate 명령어를 사용하면 된다. 필자는 다음과 같은 기본적인 라이브러리를 모두 설치했다.

 

pip install numpy
pip install pandas
pip install matplotlib
pip install opencv-python
pip install scipy
pip install scikit-learn
pip install scikit-image

 

  이후에 이러한 가상환경에 PyTorch도 설치할 예정이다. (아래 부분 참고)

 

※ CUDA 환경 확인하기 ※

 

  현재 가지고 있는 GPU가 CUDA Toolkit을 사용할 수 있는지 확인한다. 구체적으로 Compute Capability를 확인하면 된다. 바로 아래의 NVIDIA CUDA GPU 홈페이지에 접속하자.

  

  ▶ NVIDIA CUDA GPU 홈페이지: https://developer.nvidia.com/cuda-gpus

 

  홈페이지에 접속한 뒤에 자신의 GPU 버전을 확인한다. 필자는 GeForce RTX 3080 Ti를 사용하고 있는데, 다음과 같이 8.6 Compute Capability에 해당하는 것을 확인할 수 있다.

 

 

  혹은 위키백과에 접속하여 동일한 내용을 확인할 수 있다.

 

  ▶ 위키백과 "CUDA" 페이지: https://en.wikipedia.org/wiki/CUDA

 

  다음과 같이 RTX 3080 Ti는 8.6 Compute Capability에 해당한다고 알려주는 것을 알 수 있다.

 

 

※ CUDA Toolkit 설치하기 ※

 

  이제 CUDA Toolkit을 설치한다. 필자는 2022년 기준으로 아직도 많이 사용되고 있는 CUDA Toolkit 11.3을 설치할 것이다. 기본적으로 NVIDIA 공식 홈페이지에서 제공하는 CUDA Tookit Archive 웹 사이트에 방문한다.

 

  ▶ CUDA Toolkit Archive: https://developer.nvidia.com/cuda-toolkit-archive

 

CUDA Toolkit Archive

Previous releases of the CUDA Toolkit, GPU Computing SDK, documentation and developer drivers can be found using the links below. Please select the release you want from the list below, and be sure to check www.nvidia.com/drivers for more recent production

developer.nvidia.com

 

  필자는 다음과 같이 CUDA Toolkit 11.3.0을 선택했다.

 

 

  다음과 같이 자신의 환경을 적절히 선택하여 다운로드를 진행하면 된다. 윈도우 10 (Windows 10)을 사용하는 경우 기본적으로 다음과 같이 선택하면 된다.

 

 

  필자는 다음과 같이 기본 경로를 그대로 이용하여 설치를 진행했다.

 

 

  이후에 필자는 다음과 같이 라이센스에 동의한 뒤에 [빠른 설치]를 선택하여 설치를 진행했다.

 

 

※ cuDNN 설치 ※

 

  이후에 cuDNN을 설치한다. 필자는 CUDA Toolkit 11.3을 설치했기 때문에, 이에 호환되는 cuDNN을 설치하면 된다.

 

  ▶ NVIDIA cuDNN Archive: https://developer.nvidia.com/rdp/cudnn-archive

 

cuDNN Archive

NVIDIA cuDNN is a GPU-accelerated library of primitives for deep neural networks.

developer.nvidia.com

 

  이때 계정 로그인이 필요하다고 나올 수 있는데, 계정이 없다면 [Join now] 버튼을 눌러 계정을 생성해준다.

 

 

  이메일 주소를 입력한 뒤에 [Next]를 누르면 된다.

 

 

  이메일 인증 이후에 프로필(profile)을 완성하여 회원가입을 마친다. 이후에 생성된 계정으로 로그인을 진행한다. 그리고 자신이 설치한 CUDA 버전에 맞는 cuDNN을 찾아 설치한다. 필자는 CUDA 11.x를 설치했으므로, 이에 맞는 cuDNN을 찾아서 선택했다.

 

 

  다음과 같이 윈도우(Windows) 운영체제에 맞는 cuDNN 라이브러리를 선택하여 다운로드한다.

 

 

  다운로드 이후에 압축을 풀면 다음과 같이 bin, include, lib 폴더가 보인다.

 

 

  앞서 설치했던 CUDA Toolkit의 설치 경로에 가보면 전체 폴더가 다음과 같이 구성되어 있는 것을 확인할 수 있다. 이제 cuDNN 폴더에 존재하는 bin, include, lib 폴더를 다음의 경로에 옮겨주면 된다. 필자는 마치 폴더를 덮어쓰듯이 그대로 옮겨주었다.

 

 

※ PyTorch 설치 ※

 

  이제 CUDA와 cuDNN이 모두 준비되었으므로, PyTorch를 설치한다. 공식 홈페이지에 접속하여 설치 명령어를 확인한다.

 

  ▶ PyTorch 설치: https://pytorch.org/get-started/locally/

 

PyTorch

An open source machine learning framework that accelerates the path from research prototyping to production deployment.

pytorch.org

 

  필자는 다음과 같이 패키지 관리 프로그램으로 PIP를 선택하고, 플랫폼으로는 CUDA 11.3을 선택했다. 그러면 다음과 같이 설치 명령어가 등장한다. 이것을 그대로 복사해서 사용하면 된다.

 

 

  설치 명령어가 다음과 같은 것을 확인할 수 있다.

 

pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113

 

  마찬가지로 앞서 만들었던 가상환경에 접속하여 위 설치 명령어를 입력하여 PyTorch 설치를 수행한다.

 

※ GPU 기반의 PyTorch 딥러닝 개발 환경 정상 설치 여부 확인하기 ※

 

  이제 정상적으로 설치가 완료되었는지 확인할 차례다. 가장 먼저 nvidia-smi 명령어를 입력하여 CUDA 드라이버(driver)를 확인할 수 있다.

 

 

  이후에 PyTorch를 이용한 GPU 기반의 딥러닝 개발 환경이 정상적으로 설치되었는지 확인하자. 간단하게 아래의 코드를 실행하면 된다.

 

import torch

torch.cuda.is_available()
torch.cuda.device_count()
torch.cuda.current_device()
torch.cuda.device(0)
torch.cuda.get_device_name(0)

 

  필자는 다음과 같이 NVIDIA GeForce RTX 3080 Ti라는 이름으로 GPU 장치(device)가 잡히는 것을 알 수 있다. 이상으로 딥러닝 PyTorch 개발 환경 구축이 완료되었다.

 

728x90
반응형

Comment +1