문단 모양(왼쪽 여백 0, 오른쪽 여백 0, 줄간격 160%)
글자 모양(굴림체, 장평 100%, 크기 11 pt, 자간 0%)
행복하세요, Now!
본문일부/목차
목차
1. 다층신경망의 학습과정을 정리하시오. (6점)
2. Teachable Machine(https://teachablemachine.withgoogle.com)을 이용하여 머신러닝 모형을 만들고 그 결과를 갭처하여 정리하시오. (8점)
3. http://playground.tensorflow.org/ 를 크롬으로 접속하여 분류과제(Classification) 중 하나를 학번 끝자리에 따라 선택하고, 해당 과제에 대한 최적의 신경망을 하이퍼파라미터를 달리하여 작성한 후 그 모형의 특성을 정리하시오. (8점)
4. 구글 Colab을 이용하여 MNIST에 대한 완전연결신경망을 작성하시오. 교재의 코드를 참고하되 그대로 작성하지 않고 신경망 구조(은닉층 수, 뉴론 등)을 부분 수정하여 작성하시오.(코드와 최종결과 캡처해서 넣으시오.) (8점)
5. 참고문헌
본문일부
1. 다층신경망의 학습과정을 정리하시오. (6점)
퍼셉트론은 입력층 하나와 출력층 하나로 구성된 단층신경망이다. 반면 다층신경망은 입력층과 출력층 사이에 중간 계산층으로 은닉층(hidden layer)가 1개 이상 존재한다. 모든 계산층이 자신의 계산 결과를 입력에서 출력으로의 순방향으로만 전달하는 구조의 다층 신경망을 순방향 신경망이라고 한다. 순방향 신경망에서는 한 층의 모든 노드는 다음 층의 모든 노드와 연결된다.
신경망에서 학습이란 뉴런 간 연결별 가중치들을 조정해가는 과정이다. 이때 신경망의 가중치들은 경사하강법으로 계산된다. 입력 데이터들은 은닉층을 거칠 때마다 가중합은 활성화함수로 그 값이 변화되어 다음 층으로 전달되면서 최종적으로 출력층에 도달한다. 신경망의 최종 목표는 시험 데이터에서 신경망을 통한 결괏값과 실젯값이 같아지도록 하는 것이므로, 출력층 값과 실젯값을 비교해 손실함수 J(w)의 값을 계산하고, 이를 기반으로 경사하강법을 통해 반복적으로 가중치들을 갱신한다.
손실함수로는 평균제곱오차와 교차 엔트로피 등이 사용된다. 가중치의 초깃값은 학습속도를 높이는 데 중요한데, 주로 0 근처의 작은 값에서 시작한다. 초깃값이 너무 크면 활성화함수가 제대로 작동하지 않을 수 있다. 경사하강법(Gradient descent)은 초깃값으로부터 손실함수를 최소화하는 방향으로 가중치를 계속 갱신시켜 나가면서 가중치를 구하는 것을 말한다. 경사(기울기)는 손실함수를 편미분하여 구하고, 이 경사에 따라 일정한 학습률로 가중치를 갱신시켜 나가는 과정이 학습(learnig)이다.
참고문헌
김용대, 김기온(2020), 딥러닝의 통계적이해, 방송통신대학교출판문화원.
이영호(2020), 2020 모두의 인공지능 with 파이썬, 길벗.
천인국(2020), 인공지능 : 파이썬으로 배우는 머신러닝과 딥러닝, 인피니티북스.
· 해피레포트는 다운로드 받은 파일에 문제가 있을 경우(손상된 파일/설명과 다른자료/중복자료 등) 1주일이내 환불요청 시 환불(재충전) 해드립니다.
(단, 단순 변심 및 실수로 인한 환불은 되지 않습니다.)
· 파일이 열리지 않거나 브라우저 오류로 인해 다운이 되지 않으면 고객센터로 문의바랍니다.
· 다운로드 받은 파일은 참고자료로 이용하셔야 하며,자료의 활용에 대한 모든 책임은 다운로드 받은 회원님에게 있습니다.
저작권안내
보고서 내용중의 의견 및 입장은 당사와 무관하며, 그 내용의 진위여부도 당사는 보증하지 않습니다.
보고서의 저작권 및 모든 법적 책임은 등록인에게 있으며, 무단전재 및 재배포를 금합니다.
저작권 문제 발생시 원저작권자의 입장에서 해결해드리고 있습니다. 저작권침해신고 바로가기