대외활동/K-MOOC 수다쟁이 4기

수원대학교 K-MOOC 강의 '인공지능 HRI' 2주 차 강의 후기

성미느 2021. 3. 16. 21:36

수원대학교 K-MOOC 강의 '인공지능 HRI' 2주 차 강의 후기

안녕하세요 성미느입니다.

오늘은 이번 학기 제가 K-MOOC 수다쟁이로 활동하면서 듣는 강의인 인공지능 HRI 관련 공부 내용 정리와 느낀 점에 대한 간략한 글을 작성해보고자 합니다.

 

학습활동

2-1 딥러닝의 역사 및 발전

 

2-2 단순 인공신경망 모델

 

2-3 EXCEL을 이용한 인공신경망 구현

 

2주 차에서는 휴먼로봇 상호작용 (HRI, Human Robot Interaction)에 대한 강의였습니다.

 

2-1 딥러닝의 역사와 발전

로봇공학은 끝점을 고민하는 학문이다. 끝점은 로봇의 맨 끝점을 가지고 물건을 집거나 아니면 어떤 조작을 하는 것을 말한다. 그러나 로봇공학에서 실제로 제어하는 건 관절이다. 이 끝점을 어떻게 조정할 건지, 제어를 할 건지를 고민하는 것이 로봇공학의 목표다.

 

인공지능은 다변수 함수, 여러 변수를 가진 함수를 어떻게 최적화시킬 것인지에 대한 문제를 고민한다. 이는 나중에 회귀와 분류 문제로 또다시 나뉘게 된다. 인공지능은 다변수 함수의 최적화가 목표다. (경사 하강법, 오차 역전파법 이용)

 

기존에 딥러닝이 없던 시절에는 개와 고양이를 구분하려 할 때 '개는 주둥이가 길다, 고양이는 주둥이가 짧다.' 등의 특징을 잡아내고, 특징에 대한 모델을 만들어서 표현을 했다.

그러나 딥러닝은 사진을 통해 스스로 특징점을 찾아내고, 개인지 고양이인지 구별을 해낼 수 있다.

 

딥러닝이 하는 일

 

딥러닝으로 할 수 있는 일 - 분류, 회귀 문제, 분류 + 회귀 문제가 겹쳐진 물체 검출 문제를 해낸다.

 

딥러닝의 역사

딥러닝 시초를 변형해 '퍼셉트론 (Perceptron)'이라는 개념을 만들었다. 완벽한 개념인 줄만 알았던 퍼셉트론은 간단한 문제에서 막혀버리고 첫 번째 AI의 암흑기가 찾아온다. 다중 신경망 (뉴럴 네트워크)의 개념으로 해결해냈다.

그러나, 웨이트라고 하는 가중치와 초깃값을 설정하는 데에 있어 어떻게 설정해야 하는지에 대한 문제가 생긴다. 초깃값 설정 방법으로는 역전파법 또는 백 프로 파게이 션이라고 하는 방법으로 해결해낸다.

웨이트 값이 자주 바뀌게 되는 문제(기울기 소실 문제)에 봉착하면서 두 번째 AI의 암흑기가 찾아온다. 이는 믿음 신경망으로 해결해냈는데, 믿음 신경망이란 AI 본인 스스로가 스스로 학습할 수 있는 모델을 설정해 기울기 소실 문제를 해결해낸다.

이렇게 AI, 딥러닝이 점차 발달하면서 인류는 새로운 시대를 맞이할 가능성이 매우 높아졌다.

 

2-2 단순 인공신경망 모델

 

인공 신경망
Step 함수

 

스텝 Step 함수 - 불연속, 미분이 불가능하고 중간값 표시 불가능.

 

Sigmoid 활성화 함수

 

시그모이드 Sigmoid 활성화 함수 - 미분 가능, 편리, 중간값 표시 가능

 

어떤 값의 최소점을 찾기 위해 왼쪽이나 오른쪽으로 내려가는 방법이 경사 하강법.

기울기의 감소 폭이나 증가폭을 조정하는 값을 '학습률 (Learning rate)'이라고 부른다.

빈 방에 지갑을 두고 찾는다고 가정했을 시, 조금씩 움직이면서 지갑을 찾으면 언젠간 찾겠지만 시간이 많이 걸리는 단점이 있다. 큰 보폭으로 성큼성큼 걸어 찾는 것은 지갑을 지나칠 수 있다.

학습률도 마찬가지로 작게 하면 좋지만 시간이 오래 걸리고, 크게 하면 학습을 못 할 수도 있다.

 

2-3 EXCEL을 이용한 인공신경망 구현

 

엑셀을 이용해서 AI에게 5,000번 학습을 하도록 명령해 시그모이드 함수를 가르쳐 봤다.

 

시그모이드 함수
학습 결과

 

학습 결과 에러 값은 0에 수렴하고, 7가지의 가중치와 기준치는 점점 수렴해 일정한 값으로 변한다.

 

다음엔 스텝 함수를 5,000번 학습시켜보았다.

학습시키는 과정

학습시키는 과정이 너무 신기해서 동영상으로도 찍어봤습니다.

값을 입력시키고 클릭 한 번 하니 5천 번 동안 스스로 학습해 결과물을 도출시키는 게 엄청 신기하더라고요.

 

학습 결과

 

에러 값이 줄긴 줄었는데, 많이 줄지는 않았다. 교수님에 의하면 학습을 더 시켜야 한다고 한다.

혹은 학습이 안 되는 경우에는 학습률을 낮춰주어야 한다고 한다.

 

이번 수업 3가지 중요 키워드 정리

딥러닝은 인공 신경망을 이용하여 주어진 데이터 또는 규칙을 학습하고 예측할 수 있는 알고리즘을 말한다. 복잡도가 점점 증가하면서 뉴럴 네트워크란 말 대신 딥러닝이라는 말이 많이 쓰이게 되었다.

퍼셉트론은 입력값과 가중치, 기준치 등을 통해 정답을 계산해내는 가장 기본적인 형태의 모델. 퍼셉트론 -> 뉴럴 네트워크 -> 딥러닝의 발전과정을 거쳤다.

역전파 알고리즘은 인공 신경망에서 정답을 찾기 위한 최적화 기법 중의 하나다. 정답과 계산된 출력 값을 비교하여 가중치를 조절하고, 최종적으로 원하는 정답을 찾아낼 수 있도록 네트워크를 완성해 나가는 알고리즘이다. 딥러닝에서 가장 중요한 부분이다.


1주 차가 그냥 커피였다면, 2주 차는 TOP다.

강의 중에서 오차 역전파법에 대해서 알려주시는데.. 고등학교 때 문과여서 그런지 처음 보는 수학적인 내용이 많아서 어려움을 꽤나 느꼈습니다. 이걸 다 알아야 하는 건가..?라는 생각이 들었는데 실습을 해보니 몰라도 될 것 같기도 하더라고요. 실습을 통해 AI에게 알고리즘을 알려주는 부분은 꽤나 신기하고 유익했습니다.

물론 이번 강의를 수강하면서 AI에 대해서 간단하게 찍어먹어 보는 느낌이지만 굉장히 어렵고 배워야 할게 많다는 게 느껴졌습니다만, 이렇게 K-MOOC이 아니었다면 이런 강의를 수강할 기회가 있었을까?라는 생각도 들었습니다. 무료로 집에서 이런 유익한 강의를 들을 수 있다는 게 세상 참 좋아졌구나 싶었습니다.

3주 차는 또 얼마나 어려운 수업이 기다리고 있을지 걱정되기도 합니다만.. 그래도 어렵지만 AI에 대한 지식을 알게 되고, 엑셀로 실습해볼 수 있는 것이 꽤나 매력적인 수업인 것 같습니다.

 

 

게시글 관련해서 궁금하신 점이나 틀린 부분이 있다면 댓글 남겨주세요.

"); wcs_do();