로그인 회원가입 고객센터
레포트자기소개서방송통신서식공모전취업정보
campusplus
세일즈코너배너
자료등록배너

2024년 1학기 방송통신대 중간과제물 딥러닝의통계적이해)Teachable Machine을 이용하여 충분한 데이터(10개 이상)로 자신의 머신러닝 모형을 만들고 그 결과를 정리하시


카테고리 : 레포트 > 인문,어학계열
파일이름 :딥러닝의통계적이해.hwp
문서분량 : 11 page 등록인 : sunnyfanta
문서뷰어 : 한글뷰어프로그램 등록/수정일 : 24.03.25 / 24.03.25
구매평가 : 다운로드수 : 1
판매가격 : 9,000

미리보기

같은분야 연관자료
2023년 2학기 방송통신대 딥러닝통계적이해 출석수업대체과제물)Teachable Machine을 이용하여... 11 pages 9000
보고서설명
- 교재를 중심으로 다양한 문헌을 참고하여 정성을 다해 명확하게 작성하였습니다.
- 과제물 지시사항에 따른 형식과 내용으로 완벽하게 작성하였습니다.
- 한눈에 내용이 들어올 수 있게 가독성을 고려하여 작성하였습니다.

바쁜 일상 속에서 양질의 리포트를 작성하시는 데 시간과 노력을 최소화할 수 있는 과제물로 리포트 작성에 참고하시어 좋은 성적 받으세요.^^

글자 모양(맑은고딕, 장평 100%, 크기 11 pt, 자간 0%)

행복하세요~
본문일부/목차

목차

1. Teachable Machine을 이용하여 충분한 데이터(10개 이상)로 자신의 머신러닝 모형을 만들고 그 결과를 정리하시오.(8점)

2. 다층신경망의 학습과정을 ChatGPT(또는 Bard, Bing Chat 등)에 물어서 찾고, 이를 기반으로 다층신경망의 학습과정을 스스로 다시 정리하시오.(6점)

3. http://playground.tensorflow.org/ 접속하여 분류과제(Classification) 중 하나를 학번 끝자리에 따라 선택하고, 이 과제에 대해 하이퍼파라미터를 달리하여 신경망 2개를 만들고, 이 2개 신경망 성능을 비교하여 하이퍼파라미터의 특성을 정리하시오.(8점)

4. 구글 Colab을 이용하여 MNIST에 대한 완전연결신경망을 작성하고 그 과정을 설명하시오. 코드 작성할 때 교재의 코드를 참고하되 그대로 작성하지 않고 신경망 구조(은닉층 수, 뉴런 등)을 부분 수정하여 작성하시오.(코드와 최종결과 캡처해서 넣으시오.)(8점)

5. 참고문헌


본문일부

2. 다층신경망의 학습과정을 ChatGPT(또는 Bard, Bing Chat 등)에 물어서 찾고, 이를 기반으로 다층신경망의 학습과정을 스스로 다시 정리하시오.(6점)

ChatGPT에 따르면 다층신경망은 데이터 준비, 데이터 전처리, 초기화, 아키텍처 정의, 순방향 전파, 손실함수 계산, 역전파, 파라미터 업데이트, 그리고 이상의 과정을 반복하며 모델을 학습시킨다. 이때 이러한 반복을 에포크(epoch)라고 한다. 이상의 과정을 통해 학습이 완료된 후 테스트 세트에서 모델의 성능을 평가하고 필요할 경우 모델의 하이퍼파라미터를 미세조정한 후 모델의 일반화 성능을 평가한다. 모델의 성능이 만족스러우면 실제 환경에 배포하여 새로 들어오는 데이터에 대한 예측을 수행한다. 이처럼 다층신경망의 학습은 손실을 최소화하고 모델이 데이터의 패턴을 학습하도록 하는 과정으로, 이러한 반복적인 과정을 통해 모델이 더 나은 예측을 수행할 수 있도록 훈련된다.

퍼셉트론은 입력층 하나와 출력층 하나로 구성된 단층신경망이다. 반면 다층신경망은 입력층과 출력층 사이에 중간 계산층으로 은닉층(hidden layer)가 1개 이상 존재한다. 모든 계산층이 자신의 계산 결과를 입력에서 출력으로의 순방향으로만 전달하는 구조의 다층 신경망을 순방향 신경망이라고 한다. 순방향 신경망에서는 한 층의 모든 노드는 다음 층의 모든 노드와 연결된다.

신경망에서 학습이란 뉴런 간 연결별 가중치들을 조정해가는 과정이다. 이때 신경망의 가중치들은 경사하강법으로 계산된다. 입력 데이터들은 은닉층을 거칠 때마다 가중합은 활성화함수로 그 값이 변화되어 다음 층으로 전달되면서 최종적으로 출력층에 도달한다. 신경망의 최종 목표는 시험 데이터에서 신경망을 통한 결괏값과 실젯값이 같아지도록 하는 것이므로, 출력층 값과 실젯값을 비교해 손실함수 J(w)의 값을 계산하고, 이를 기반으로 경사하강법을 통해 반복적으로 가중치들을 갱신한다.


참고문헌

김용대, 김기온(2020), 딥러닝의 통계적이해, 방송통신대학교출판문화원.
이영호(2020), 2020 모두의 인공지능 with 파이썬, 길벗.
천인국(2020), 인공지능 : 파이썬으로 배우는 머신러닝과 딥러닝, 인피니티북스.
https://chat.openai.com/

연관검색어
방송통신대딥러닝의통계적이해

구매평가

구매평가 기록이 없습니다
보상규정 및 환불정책
· 해피레포트는 다운로드 받은 파일에 문제가 있을 경우(손상된 파일/설명과 다른자료/중복자료 등) 1주일이내 환불요청 시
환불(재충전) 해드립니다.  (단, 단순 변심 및 실수로 인한 환불은 되지 않습니다.)
· 파일이 열리지 않거나 브라우저 오류로 인해 다운이 되지 않으면 고객센터로 문의바랍니다.
· 다운로드 받은 파일은 참고자료로 이용하셔야 하며,자료의 활용에 대한 모든 책임은 다운로드 받은 회원님에게 있습니다.

저작권안내

보고서 내용중의 의견 및 입장은 당사와 무관하며, 그 내용의 진위여부도 당사는 보증하지 않습니다.
보고서의 저작권 및 모든 법적 책임은 등록인에게 있으며, 무단전재 및 재배포를 금합니다.
저작권 문제 발생시 원저작권자의 입장에서 해결해드리고 있습니다. 저작권침해신고 바로가기

 

⼮üڷٷΰ ⸻ڷٷΰ thinkuniv ķ۽÷