안경잡이개발자

728x90
반응형

※ 다양한 이미지 분류 데이터 세트 ※

 

  딥러닝 분야에는 매우 다양한 이미지 분류 데이터 세트가 존재한다. 대표적으로 CIFAR-10, CIFAR-100, STL-10, MNIST, FASHION-MNIST, SVHN, ImageNet이 있다. 이러한 데이터 세트들은 논문(paper)에서도 자주 등장한다. 이렇게 자주 사용되는 데이터 세트가 있는 이유는 무엇일까? 일반적으로 딥러닝을 공부할 때는 특정한 방법이나 딥러닝 모델이 기존에 제안되었던 방법들보다 얼마나 우수한지 보여주는 경우가 많다. 그래서 다양한 딥러닝 모델을 동일한 데이터 세트에 대하여 학습하고, 서로 성능을 비교하곤 한다.

 

  참고로 PyTorch로 특정한 이미지 데이터 세트(CIFAR-10 등)에 대하여 학습하는 코드가 있으면, 그것을 조금 바꾸어서 다른 데이터 세트에도 적용할 수 있다. 기본적으로 이미지 분류 모델을 학습하는 방법은 대체로 유사하기 때문이다.

 

  실제로 CIFAR-10과 CIFAR-100의 경우 PyTorch Playground 저장소에서의 모델 아키텍처도 사실상 동일하다. 아래의 데이터 세트들은 모두 기본적으로 PyTorch에서 공식적으로 제공하는 데이터 세트들이다. 세 개의 데이터 세트는 모두 torchvision.datasets를 이용해 다운로드할 수 있다. Torchvision은 PyTorch와 함께 설치하여 사용하는 대표적인 이미지 관련 라이브러리 중 하나다.

 

  해상도 클래스 개수 학습 데이터 수 테스트 데이터 수
CIFAR-10 32 X 32 X 3 10개 50,000개 (클래스당 5,000개) 10,000개 (클래스당 1,000개)
CIFAR-100 32 X 32 X 3 100개 50,000개 (클래스당 500개) 10,000개 (클래스당 100개)
STL-10 96 X 96 X 3 10개 5,000개 (클래스당 500개) 8,000개 (클래스당 800개)
MNIST 28 X 28 X 1 10개 60,000개 10,000개
FASHION-MNIST 28 X 28 X 1 10개 60,000개 10,000개
SVHN 32 X 32 X 3 10개 73,257개 26,032개

 

※ MNIST ※

 

  먼저 MNIST는 0부터 9까지의 숫자 이미지를 모아 놓은 데이터 세트다. 하나의 이미지가 들어왔을 때 0부터 9까지 총 10개의 클래스 중에서 어떤 클래스에 속하는지 맞추는 분류 작업을 수행한다. 28 X 28 X 1의 해상도로 크기가 매우 작다. 일반적으로 CNN을 사용하여 GPU로 훈련하면 10분 안에 99%의 정확도를 낼 수 있다.

 

 

  ▶ MNIST 데이터 세트 설명 및 다운로드: http://yann.lecun.com/exdb/mnist/

 

MNIST handwritten digit database, Yann LeCun, Corinna Cortes and Chris Burges

 

yann.lecun.com

 

※ CIFAR-10과 CIFAR-100 ※

 

  CIFAR-10은 32 X 32 X 3의 해상도의 사물 데이터를 모아 놓은 데이터 세트다. CIFAR-10 데이터 세트는 비행기(airplane), 자동차(automobile), 새(bird), 고양이(cat) 등 총 10개의 클래스로 구성된다. 학습 데이터는 50,000개이고, 테스트 데이터는 10,000개다.

 

 

  그리고 CIFAR-100 데이터 세트는 CIFAR-10과 유사한 데이터 세트다. CIFAR-100은 여러 개의 상위 클래스(super class)가 존재하고, 각 상위 클래스에 세부적으로 클래스(class)들이 존재한다. 부모 클래스(superclass)에는 꽃(flower), 물고기(fish), 벌레(insect) 등이 포함되고, 각 부모 클래스에는 세부적으로 다양한 클래스가 존재한다. 예를 들어 꽃(flower)에는 장미(rose), 해바라기(sunflower), 튤립(tulip) 등이 포함되는 방식이다. 또 다른 예시로 부모 클래스 중에서 사람(people)에는 baby, boy, girl, man, woman 다섯 개의 자식 클래스가 존재한다. 그래서 세부적인 클래스가 총 100개 존재한다. 아래 그림을 확인하면, 매우 다양한 카테고리에 대하여 매우 다양한 클래스가 존재한다.

 

 

  CIFAR-10과 CIFAR-100은 함께 많이 사용되는 데이터 세트라는 점에서 그 특성이 매우 비슷하다. 둘 다 32 X 32 X 3의 해상도를 가지고 학습 데이터는 50,000개이고, 테스트 데이터는 10,000개다.

 

  ▶  CIFAR-10 & CIFAR-100 데이터 세트 설명 및 다운로드: https://www.cs.toronto.edu/~kriz/cifar.html

 

CIFAR-10 and CIFAR-100 datasets

< Back to Alex Krizhevsky's home page The CIFAR-10 and CIFAR-100 are labeled subsets of the 80 million tiny images dataset. They were collected by Alex Krizhevsky, Vinod Nair, and Geoffrey Hinton. The CIFAR-10 dataset The CIFAR-10 dataset consists of 60000

www.cs.toronto.edu

 

※ STL-10 ※

 

  STL-10의 이미지들은 96 X 96 X 3의 해상도로 CIFAR-10과 CIFAR-100보다는 크다. 대신에 학습 데이터의 수가 적기 때문에, 결과적으로 학습에 소요되는 시간은 CIFAR-10과 유사하게 소요되는 경우가 많다. STL-10은 CIFAR-10에 기반하여 만들어진 데이터 세트로, 클래스(class) 종류도 굉장히 유사하다. STL-10비행기(airplane), 자동차(automobile), 새(bird), 고양이(cat) 등 총 10개의 클래스로 구성된다. 차이점은 이미지의 크기와 데이터의 개수다. STL-10의 학습 데이터는 총 5,000개이고, 테스트 데이터는 총 8,000개다. 참고로 레이블이 지정된 이미지의 경우 ImageNet 데이터 세트에서 데이터를 추출했다고 한다.

 

  STL-10의 핵심적인 특징은 이블이 없는 데이터를 다수(10만 개) 포함하고 있다는 점이다. 즉, 정답 레이블(label)이 없고, 이미지(image)만 존재하는 데이터가 많이 있다는 것이다. 그래서 STL-10은 애초에 레이블이 없는 데이터를 학습에 활용하는 Semi-Supervised Learning (SSL) 메서드를 평가하기에 적합한 데이터 세트이기도 하다.

 

 

  STL-10에 대해서도 다음의 경로에서 자세한 내용을 확인할 수 있다.

 

  ▶ STL-10 데이터 세트 설명 및 다운로드: https://cs.stanford.edu/~acoates/stl10/

 

STL-10 dataset

STL-10 dataset The STL-10 dataset is an image recognition dataset for developing unsupervised feature learning, deep learning, self-taught learning algorithms. It is inspired by the CIFAR-10 dataset but with some modifications. In particular, each class ha

cs.stanford.edu

 

※ SVHN ※

 

  SVHN (Street View House Numbers)는 집의 번호판을 촬영한 32 X 32 X 3 해상도의 이미지를 모아 놓은 데이터 세트다. 0부터 9까지의 숫자를 예측한다는 점에서 분류 작업은 MNIST와 굉장히 유사하다. SVHN은 두 가지 형식이 있지만, 아래의 형식(format)이 가장 일반적이다. 다만 이미지 내에 여러 개의 숫자가 겹쳐서 보일 수 있는데, 중간에 있는 숫자를 예측하는 것이 목표다. 이때 학습 데이터는 73,257개, 테스트 26,032개로 구성된다. 추가적으로 훈련 데이터로 사용할 수 있는 다소 덜 어려운 추가 데이터 531,131개가 제공된다.

 

 

  ▶ SVHN  데이터 세트 설명 및 다운로드http://ufldl.stanford.edu/housenumbers/

 

The Street View House Numbers (SVHN) Dataset

SVHN is a real-world image dataset for developing machine learning and object recognition algorithms with minimal requirement on data preprocessing and formatting. It can be seen as similar in flavor to MNIST (e.g., the images are of small cropped digits),

ufldl.stanford.edu

 

※ Fashion-MNIST ※

 

  Fashion-MNIST는 MNIST와 매우 유사한 형태의 데이터 세트로, 각 이미지는 28 X 28 X 1의 해상도를 가지는 회색(grayscale) 이미지로 구성되어 있다. 이 데이터 세트에는 셔츠(shirt), 코트(coat), 가방(bag) 등 총 10개의 클래스(class)가 존재한다. 데이터 세트는 MNIST와 동일하게 60,000개의 학습 데이터와 10,000개의 테스트 데이터로 구성된다.

 

 

  ▶ SVHN  데이터 세트 설명 및 다운로드: https://github.com/zalandoresearch/fashion-mnist

 

GitHub - zalandoresearch/fashion-mnist: A MNIST-like fashion product database. Benchmark

A MNIST-like fashion product database. Benchmark :point_down: - GitHub - zalandoresearch/fashion-mnist: A MNIST-like fashion product database. Benchmark

github.com

 

※ 딥러닝 모델 학습 방법 ※

 

  위에서 언급한 데이터 세트들에 대해서 학습을 진행하기 위해서는 기존에 다른 사람들이 작성해 놓았던 PyTorch 소스 코드를 확인해 볼 필요가 있다. 필자가 참고한 코드 저장소(repository)들은 다음과 같다.

 

1. PyTorch Playground

 

  ▶ 링크: https://github.com/aaron-xichen/pytorch-playground

 

GitHub - aaron-xichen/pytorch-playground: Base pretrained models and datasets in pytorch (MNIST, SVHN, CIFAR10, CIFAR100, STL10,

Base pretrained models and datasets in pytorch (MNIST, SVHN, CIFAR10, CIFAR100, STL10, AlexNet, VGG16, VGG19, ResNet, Inception, SqueezeNet) - GitHub - aaron-xichen/pytorch-playground: Base pretrai...

github.com

 

2. PyTorch Classification

 

  ▶ 링크https://github.com/seongkyun/pytorch-classifications

 

GitHub - seongkyun/pytorch-classifications: Pytorch classification with Cifar-10, Cifar-100, and STL-10

Pytorch classification with Cifar-10, Cifar-100, and STL-10 - GitHub - seongkyun/pytorch-classifications: Pytorch classification with Cifar-10, Cifar-100, and STL-10

github.com

 

3. PyTorch Wide Residual Networks

 

  ▶ 링크https://github.com/meliketoy/wide-resnet.pytorch

 

GitHub - meliketoy/wide-resnet.pytorch: Best CIFAR-10, CIFAR-100 results with wide-residual networks using PyTorch

Best CIFAR-10, CIFAR-100 results with wide-residual networks using PyTorch - GitHub - meliketoy/wide-resnet.pytorch: Best CIFAR-10, CIFAR-100 results with wide-residual networks using PyTorch

github.com

 

※ 기본적인 분류 성능과 참고 사항 ※

 

  CIFAR-10, CIFAR-100, STL-10 데이터 세트는 다양한 논문에서 제안한 메서드의 성능을 검증하기 위한 목적으로 많이 활용된다. 아직까지도 많은 논문에서 베이스라인(baseline)이 되고 있는 ResNet 아키텍처를 기준으로 대략적인 분류 정확도는 각각 다음과 같다.

 

  1) CIFAR-10: 약 95% top-1 accuracy
  2) CIFAR-100: 약 80%의 top-1 accuracy
  3) STL-10: 약 85%의 top-1 accuracy

  4) MNIST: 약 99%의 top-1 accuracy

  5) Fashion-MNIST: 약 95%의 top-1 accuracy

  6) SVHN: 약 96%의 top-1 accuracy

 

  정확도(Accuracy)
CIFAR-10 약 95%
CIFAR-100 약 80%
STL-10 약 85%
MNIST 약 99%
FASHION-MNIST 약 95%
SVHN 약 96%

 

  참고로 위 내용은 ResNet 기반의 아키텍처를 활용하여 일반적인 학습(standard data augmentation 적용)을 이용했을 때에 대한 결과에 해당하고, 다양한 논문에서 제안한 매우 많은 학습 메서드들이 있다는 점을 기억하자. 또한 전이 학습(transfer learning)을 이용하면 위 성능들은 더욱 개선될 수 있다.

  STL-10의 경우에는 이미지의 해상도가 96 X 96이기 때문에 CIFAR-10과 CIFAR-100에 비하여 가로/세로가 3배씩 크다. 그렇기 때문에 zero-padding을 12 pixels 만큼 주는 경우가 많다. 더불어 CIFAR-10과 CIFAR-100에서는 기본적으로 200번의 epoch으로 학습하는 경우가 많지만, STL에서는 epoch 수를 더 늘리는 경우도 많다. 그리고 STL-10은 레이블이 없는 데이터를 다수(10만 개) 포함하고 있기 때문에, 애초에 Semi-Supervised Learning (SSL) 메서드를 평가하기에 적합한 데이터 세트이기도 하다.

 

  위 세 가지 데이터 세트(CIFAR-10, CIFAR-100, STL-10)에 대한 실험 결과를 모두 포함하고 있는 논문으로는 CutOut 논문이 있다.

 

  ▶ CutOut 논문 링크: https://arxiv.org/abs/1708.04552

 

Improved Regularization of Convolutional Neural Networks with Cutout

Convolutional neural networks are capable of learning powerful representational spaces, which are necessary for tackling complex learning tasks. However, due to the model capacity required to capture such representations, they are often susceptible to over

arxiv.org

728x90
반응형

Comment +0

728x90
반응형

  CMT는 Conference Management Toolkit (CMT)의 약자로, 말 그대로 학회(conference)를 관리하기 위한 서비스입니다. Microsoft Research에서 개발했습니다.

 

  일반적으로 CMT는 논문을 제출하고 논문을 평가하기 위한 목적이 크기 때문에 보안성이 뛰어나고(highly secure), 가용성이 있고(available), 확장 가능하다는(scalable) 특징이 있습니다. 실제로 컴퓨터 공학 분야에서 ICML, ICCV, CVPR을 포함한 다양한 학회들이 CMT를 이용해 논문을 투고받고 있습니다. 대학원생들 중에서 CMT를 이용해 논문을 투고해 본 분들이 많을 것입니다.

 

  ▶ CMT 서비스: https://cmt3.research.microsoft.com/

 

Conference Management Toolkit - Login

 

cmt3.research.microsoft.com

 

  CMT 웹 사이트에 접속한 뒤에는 [Register]를 눌러 회원가입을 진행할 수 있습니다.

 

 

  또한 이전에 계정을 만든 적이 있더라도 새로운 학교나 새로운 회사(연구직)로 입사한 경우, 해당 소속에 맞는 이메일 주소를 이용해 다시 회원가입하는 경우가 많습니다. 회원가입을 진행할 때는 다음의 항목을 포함하여 개인 정보를 입력합니다.

 

  ▶ 이메일(Email)

  패스워드(Password)

  ▶ 이름(First Name & Last Name)

  ▶ 조직명(Organization Name)

  ▶ 회사(Country)

 

 

  회원가입 이후에는 이메일로 인증 링크가 옵니다.

 

 

  다음과 같이 이메일로 온 인증 링크(verification link)를 눌러 회원가입을 마치면 됩니다.

 

 

  회원가입이 완료된 이후에 로그인을 진행하면 다음과 같은 화면을 만날 수 있습니다.

 

728x90
반응형

Comment +0

728x90
반응형

  최근에 PyTorch를 이용하여 특정한 모델을 학습한 뒤에 모델의 성능을 테스트하는 과정에서 오류가 발생했다. 슬프게도 학습할 때는 분명히 오류가 없었는데, 테스트 시기에 다음과 같은 오류가 출력되었다.

 

RuntimeError: CUDA error: CUBLAS_STATUS_INVALID_VALUE when calling `cublasSgemm( handle, opa, opb, m, n, k, &alpha, a, lda, b, ldb, &beta, c, ldc)`

 

  전체 오류 메시지가 출력된 형태는 아래 그림과 같은데, 아래 그림에서는 데이터를 모델에 넣은 결과 f(x)에 대해서 f(x).detach().cpu()를 실행하는 과정에서 오류가 발생한 것이라고 한다. 사실 이 오류가 발생하면, 오류 메시지가 적혀 있는 코드가 직접적인 원인이 아닐 가능성이 높다. 그래서 오류의 원인을 파악하기 위해서 많은 시간을 써야 할 수도 있다. 해당 오류가 발생하는 가장 큰 원인 중 하나는 모델 내에 존재하는 F.linear() 모듈의 차원이 올바르지 못하기 때문이다. 실제로 아래 오류 메시지를 사례를 보면, 직접적인 오류 메시지는 아니지만 해당 사항을 어느 정도 유추할 수 있다.

 

 

  아무튼 이처럼 PyTorch에서는 가끔 오류 메시지가 명시적이지 못하다. 필자는 이 오류를 처음 만났을 때, 다소 생소하여 구글링을 했더니 다음과 같은 자료를 찾을 수 있었다.

 

▶ 관련 PyTorch 포럼(forum) 링크: https://discuss.pytorch.org/t/runtimeerror-cuda-error-cublas-status-invalid-value-when-calling-cublassgemm-handle-opa-opb-m-n-k-alpha-a-lda-b-ldb-beta-c-ldc/124544/5

 

RuntimeError: CUDA error: CUBLAS_STATUS_INVALID_VALUE when calling `cublasSgemm( handle, opa, opb, m, n, k, &alpha, a, lda, b, l

Thank for your help.

discuss.pytorch.org

 

  정리하자면, 다음과 같은 내용들을 우선적으로 확인해 보자.

 

  1. nn.Linear 모듈의 차원이 정확히 맞는지 확인할 필요가 있다. 이는 CNN에서 고질적으로 발생하는 문제다.

  2. 배치 사이즈(batch size)를 줄여본다.

  3. 데이터 로더 및 입력 전처리(input transformation) 부분이 정상적인지 확인한다.

 

  필자의 경우에는 학습할 때는 작은 배치 사이즈(batch size)를 사용했다가 테스트할 때는 큰 배치 사이즈를 사용했었다. 그래서 결과적으로 테스트 시기에 ① 작은 배치 사이즈를 설정했고, ② 데이터 로더 부분에서 잘못된 데이터 세트를 불러오고 있길래 해당 오류를 수정했고, ③ transform_test에서 입력 이미지의 크기가 올바르지 않게 설정되어 있길래 이를 수정했다. 결과적으로 코드가 정상 실행되었다. 아무튼 문제를 해결하기는 했는데, 시간이 없어서 자세한 분석을 더 하지는 못 했다.

728x90
반응형

Comment +0

728x90
반응형

  최근에 파이썬 라이브러리 중 하나인 pyautogui를 설치했고, 이를 사용하려고 할 때 다음과 같은 오류가 발생했다. 오류 내용은 다음과 같은데, pyscreeze 모듈에 locateOnWindow라는 속성(attribute)이 없다는 의미다.

 

  AttributeError: module 'pyscreeze' has no attribute 'locateOnWindow'

 

 

  이러한 오류 메시지가 나오는 경우 PyAutoGUI를 설치할 때부터 오류가 발생했을 가능성이 높다. 그래서 문제의 원인이 되는 pyscreeze와 pyautogui를 재설치하는 것이 우선이다. 다음과 같은 명령어로 두 라이브러리를 삭제할 수 있다.

 

pip uninstall pyscreeze pyautogui

 

  

  이후에 다시 다음과 같은 명령어로 PyAutoGUI를 설치하면 된다.

 

pip install pyautogui

 

  필자의 경우 이제 성공적으로 pyautogui가 import 되었다.

 

728x90
반응형

Comment +0

728x90
반응형

  필자는 최근에 특정한 라이브러리를 설치하려고 할 때 다음과 같은 오류가 발생했다. 필자는 구체적으로 pip를 이용하여 pyautogui를 설치하려고 했는데, 라이브러리를 설치할 때 인코딩(encoding) 문제가 발생하여 특정한 패키지에 대해서 부분으로 설치가 정상적으로 수행되지 않은 것으로 보인다.

 

 

  구체적으로 오류 메시지를 확인해 보니, 다양한 패키지를 설치하기 전에 사전에 필요한 패키지(package) 중에서 "wheel"이 설치되지 않았기 때문에 발생한 문제로 보인다.

 

 

  그래서 필자는 가장 먼저 pip를 업그레이드했다.

 

python -m pip install --upgrade pip

 

  파이썬 패키지 관리 도구인 pip를 업그레이드 한 뒤에는, 문제의 원인이 되는 wheel을 설치했다. 다행히도 오류가 발생하지 않았다.

 

 

  이후에 설치가 정상적으로 이루어지지 않았던 pyscreeze와 pyautogui를 uninstall했다.

 

 

  이후에 두 라이브러리를 다시 install 해주었다. 그랬더니 결과적으로 설치가 완료되었다.

 

728x90
반응형

Comment +0

728x90
반응형

  간혹 자신이 사용하던 컴퓨터를 바꾸게 되면 슬랙(Slack) 프로그램을 다시 설치해야 한다. 하지만 슬랙을 다시 설치해도 이전 컴퓨터의 슬랙(Slack)에서 사용하던 워크스페이스(Workspace)는 없어져 있다. 다행히도 슬랙에서는 이전에 사용하던 아이디(이메일 주소)로 워크스페이스를 찾는 기능을 제공한다. 그래서 손쉽게 워크스페이스를 모두 복원할 수 있다. 이를 위해서는 가장 먼저 슬랙 웹 사이트에 방문하여 로그인하면 된다.

 

  ▶ 슬랙(Slack) 웹 사이트: https://slack.com/

 

Slack은 미래의 업무가 이루어지는 곳입니다

Slack은 여러분의 팀과 소통할 새로운 방법입니다. 이메일보다 빠르고, 더 조직적이며, 훨씬 안전합니다.

slack.com

 

  다음과 같이 슬랙 웹 사이트에 접속해서 [로그인]을 진행한다.

 

 

  이후에 자신의 계정으로 [로그인]을 진행한다.

 

 

  로그인 이후에는 다음과 같이 [워크스페이스 관리] 탭이 등장한다.

 

 

  원하는 워크스페이스를 선택하여 [열기]를 진행하면 된다.

 

728x90
반응형

Comment +0

728x90
반응형

1. 입문용 통기타 추천

 

  필자는 2014년도에 10만 원가량의 금액을 모아서 중고 기타를 샀었다. 당시 고3의 나이로 인터넷에 검색을 해보았을 때, 처음 기타를 공부할 때 고퍼우드 기타가 입문용으로 좋다고 해서 당시에 중고나라에서 찾아보았던 기억이 있다. 그랬더니 당시에 고퍼우드 G110을 파는 사람이 있길래 지하철을 타고 가서 구매했다. 지금은 거의 8년이 지난 상태이지만, 아직도 집에 있다. 진짜 악보도 전혀 볼 줄 모르는 상태에서 기타를 구매했고, 대학교 때는 대중가요 동아리에 들어가서 통기타로 많은 대중가요 곡들을 연주할 때에도 악보를 볼 줄 몰랐다. (사실 악보 볼 줄 몰라도 외워서 치면 되기 때문이다.)

 

 

2. 튜닝(조율) 애플리케이션

 

  기타를 연주할 때는 주기적으로 튜닝을 해줘야 한다. 시간이 지남에 따라서 소리가 낮아지는 문제가 흔히 발생한다. 그래서 오랜만에 기타를 연주할 때는 튜닝 프로그램을 실행하여 튜닝을 해줘야 한다. 필자의 경우에는 안드로이드 스마트 폰에서 사용할 수 있는 앱 중에서 [GuitarTuna] 앱을 사용한다.

 

 

  악기로 [기타]를 선택한 뒤에는 기타 줄 6개를 차례대로 하나씩 튕기면서 조율하면 된다. 하나씩 자신이 원하는 줄을 튕기면 자동으로 몇 번 째 줄인지 알아내서 현재 음이 낮은지 높은지 알려준다.

 

 

3. 통기타 학습용 유튜브 채널 정리

 

  처음 기타를 공부할 때는 악보를 뽑아서 연습하는 것보다, 유튜브 동영상을 보면서 빠르게 시작하는 것을 추천한다. (사실 필자가 악보를 볼 줄 몰라서 그렇다.) 필자가 고등학교 3학년 시절 처음 기타를 공부할 때, 자주 방문했던 유튜브 채널로는 [어썸기타]가 있다. 여기에서 곡을 배워서 실제로 졸업 공연 때 노래를 부르면서 기타를 연주하기도 했다.

 

  ▶ 어썸기타 채널: https://www.youtube.com/user/awesomeguitartube

 

어썸기타

 

www.youtube.com

 

  다음과 같이 [어썸기타] 유튜브 채널에 접속한 뒤에 [재생목록]에 들어가면 다양한 기타 강좌가 있다. 어썸기타에서는 난이도별로 곡을 모아 놓기 때문에, 처음 공부하는 입장에서 단계를 밟아 가며 다양한 곡들을 연습할 수 있다.

 

 

  예를 들어 난이도 ☆☆☆☆☆인 곡 중에서 "Sunday Morning"은 다음과 같다. 쉬운 것부터 하나씩 따라치면서 배우면 금방 기타가 늘어 있다.

 

728x90
반응형

Comment +0

728x90
반응형

※ 본 게시글은 필자의 경험을 기반으로 작성된 글로, 잘못된 정보가 포함되어 있을 수 있습니다. ※

 

  최근에 많은 스타트업에서 근태관리/급여정산 도구로 Flex를 사용하고 있다. (사실 스타트업뿐만 아니라 많은 IT 대기업에서도 Flex를 사용하고 있는 것 같다.) 필자도 개인적으로 Flex를 경험해 본 적이 있는데, 매우 편리하게 느껴졌다. 그래서 개인적으로 핵심적인 기능을 몇 가지 정리하려고 한다. Flex 공식 웹 사이트는 다음과 같다.

 

  ▶ Flex 웹 사이트: https://flex.team/

 

새로운 HR의 시작, flex

HR의 디지털 전환을 통한 업무 효율과 직원경험의 개선. flex와 함께라면 회사의 HR이 새로워집니다.

flex.team

 

  웹 사이트에 방문하면 다음과 같은 화면이 등장한다. 대표적인 기능을 몇 가지 확인해 보자.

 

 

  1. 근태관리

 

  근태관리란 말 그대로 직원의 출퇴근, 휴가, 출장 등의 사항을 관리하는 것이다. 일반적인 회사에서는 아직 사원증(RFID 카드)을 이용하여 출퇴근을 관리하는 경우가 많지만, 최근에는 Flex를 이용해 관리하도록 넘어오는 경우가 많은 것 같다. 날짜마다 몇 시부터 몇 시까지 근무할지 기록할 수 있으며 연차, 외근 등의 사항에 대하여 기록할 수 있다. (아래 사진은 공식 웹 사이트에서 제공하는 사진이다.)

 

 

  2. 급여정산

 

  Flex급여정산 기능도 제공한다. 기본적으로 Flex를 이용하면 구성원(직원)들이 직접 입력한 근무기록에 기반하여 급여가 자동으로 계산된다. 이때 4대 보험, 초과근무수당 등의 사항도 처리할 수 있다. (아래 사진은 공식 웹 사이트에서 제공하는 사진이다.)

 

 

 

  3. 연말정산

 

  연말정산 시즌은 회사의 인사팀이 매우 분주한 시기다. Flex에서는 연말정산 자료 입력, 검토, 신고를 도와준다. (아래 사진은 공식 웹 사이트에서 제공하는 사진이다.)

 

 

    결과적으로 Flex를 이용한 급여 관리는 전체적으로 다음과 같은 프로세스를 가진다. 일반적인 회사에서 직원의 급여와 관련하여 처리해야 하는 일이기도 하다.

 

728x90
반응형

Comment +0

728x90
반응형

  국민비서 서비스란, "국민이 필요한 행정 정보를 미리 알려주고(개인맞춤형), 국민의 질문 사항을 상담해 주는 온라인 개인비서"를 의미한다. 말 그대로 개인비서이기 때문에 개개인을 위한 편리한 맞춤형 기능을 제공한다. 구체적으로 두 가지 서비스를 제공한다.

 

  1. 알림형 서비스: 카카오톡, 문자 메시지, 네이버 앱 등을 이용하여 다양한 정보 알림을 받는 서비스

  2. 상담형 서비스: 챗봇과 대화하여 원하는 답변을 얻을 수 있는 상담형 서비스

 

  자세한 내용은 아래의 공식 웹 사이트(행정안전부)에서 확인할 수 있다.

 

  ▶ 국민비서 서비스 소개: https://www.mois.go.kr/frt/sub/a06/b04/nationalSecretary/screen.do

 

 

※ 국민비서 서비스 신청 방법 ※

 

  국민비서 서비스를 신청하는 방법은 간단하다. 행정안전부가 제공하는 [국민비서] 공식 웹 사이트에 방문하면 된다. 사이트에 접속한 뒤에는 [국민비서 바로가기] 버튼을 누른다.

 

  ▶ 국민비서 신청 사이트: https://www.ips.go.kr/

 

 

  [국민비서] 페이지로 이동한 뒤에는 [공동인증서 로그인]을 눌러서 로그인을 진행할 수 있다. 다른 방법으로도 인증할 수 있지만, 필자는 공동인증서(공인인증서) 로그인을 했다.

 

 

  이때 [이름][주민등록번호]를 기입하여 공동인증서 로그인을 진행하면 된다.

 

 

  이후에 어떤 방법으로 메시지를 수신받을 것인지, 구체적으로 어떤 알림을 받을 것인지 선택할 수 있다. 필자는 [카카오톡(알림톡)]을 선택했다. 또한 알림서비스를 [전체선택]하여 가능한 모든 알림을 받을 수 있도록 했다. 최종적으로 [설정] 버튼을 눌러서 자신이 설정한 내용을 반영하도록 하자.

 

 

  국민비서 서비스 설정을 진행한 뒤에는 다음과 같이 알림이 도착한다. 필자의 경우 카카오톡을 통해 [알림설정 변경완료] 안내 메시지가 도착했다.

 

728x90
반응형

Comment +0

728x90
반응형

※ 본 게시글은 필자의 경험을 기반으로 작성된 글로, 잘못된 정보가 포함되어 있을 수 있습니다. ※

 

  코로나바이러스(COVID-19) 3차 예방 접종을 받는 방법에 대해서 소개하고자 한다. 일반적으로 3차 예방 접종은 부스터 샷을 의미한다. 이때 부스터 샷(Booster Shot)이란, 백신의 효과를 높이기 위해 백신을 추가로 접종하는 것을 의미한다. 예를 들어 화이자 2차 백신을 맞은 뒤에, 일정 기간이 지나면 다시 화이자 백신을 맞도록 권장하고 있다. 바로 이런 것을 부스터 샷이라고 한다.

 

  실제로 코로나 2차 접종을 한 뒤에도 시간이 지남에 따라서 돌파감염(백신 접종 이후에 2주간의 항체 생성 기간이 지난 후에 감염되는 사례)이 이루어질 수 있다. 그래서 현재 COVID-19 바이러스에 대항하기 위해 3차 백신(부스터샷)을 제공하고 있는 것이다.

 

  필자는 1차 및 2차 접종을 했을 때 부작용이 거의 없었다. 그래도 혹시 모르니까 부작용에 대해서 찾아봤는데 일반적으로 3차 접종(부스터샷)1차 및 2차 접종과 비교했을 때 이상 반응이 크지 않은 편이라고 하길래, 필자도 맞기로 했다. 일반적으로 2차 예방 접종을 한 뒤에 3개월 후부터 3차 접종을 할 수 있다. 필자는 코로나19 화이자 백신 2차 접종을 받은 지 3개월 이상의 시간이 흘렀기 때문에, 3차 접종을 받을 수 있었다.

 

  ▶ 예방접종 사전예약 시스템: https://ncvr2.kdca.go.kr/

 

예방접종 사전예약 시스템

예방접종 사전예약 시스템

ncvr2.kdca.go.kr

 

  접속 이후에는 안내 문구를 잘 읽은 뒤에 [확인] 버튼을 누른다.

 

 

  이후에 [본인 인증]을 진행할 수 있다. 필자는 [휴대폰 인증]으로 진행했다.

 

 

  다음과 같이 휴대폰 인증을 해주었다.

 

 

  이후에 자신의 [이름][주민등록번호]를 입력하여 [대상자 확인]을 누르면 백신 예약 가능 여부가 나온다.

 

 

  이후에 [의료기관 찾기] 버튼을 눌러 의료기관을 찾아서 [예약]을 진행하면 된다. 또한 국민비서 알림을 선택할 수 있는데, 필자는 카카오톡(카톡)으로 알림을 받았다.

 

 

  예약이 완료된 이후에는 다음과 같은 화면을 확인할 수 있다.

 

 

  또한 코로나19 예방 접종을 진행하면 유급휴가를 부여하는 회사가 많다. 대체로 접종 당일 포함 2일의 유급휴가를 부여한다. 일반적으로 접종 이전에 휴가를 신청해 놓고, 접종 완료 후에는 [접종 완료 증명서]를 제출하면 된다. 필자는 [국민비서 알림]을 선택하여 신청 이후에 카카오톡으로 알림이 도착했다.

 

※ 예약 변경 및 취소 방법 ※

 

  참고로 예약 일정에 너무 급한 일이 생겼거나 몸이 안 좋아서 예방 접종을 미루고 싶다면, [예약 조회/변경/취소] 페이지로 이동하면 된다.

 

 

  이후에 자신의 개인정보(이름 및 주민등록번호)를 입력한 뒤에 [예약변경]을 진행할 수 있다.

 

 

  참고로 홈페이지에서 하루 전이나 당일 예약 변경은 불가능하도록 되어 있다. 이럴 때는 예약된 접종 장소(병원)에 직접 전화하여 예약을 변경해야 한다고 안내되어 있다. 실제로 카카오톡으로 온 안내 메시지를 확인해 보면 다음과 같다.

 

 

  실제로 접종 당일날 전화하여 "오늘 피치 못할 사정으로 예방 접종이 어려울 것 같다"고 말씀을 드리면, 병원에서 곧바로 취소 처리를 해준다. 그리고 핸드폰으로 예약 취소 문자가 도착한다.

728x90
반응형

Comment +0