
#오늘 테스트케이스
10101
10101
10101
10101
10101 추가로 해봤음.
#에러제곱의 합이 0.3 or 0.1일때 학습종료
각 패턴당(타겟 - 출력) 0.1이고 세개니까 0.3
if(err제곱의합 < 0.3) 이런식으로
#백프로파게이션해서 웨이트를고침
입력
출력
피드포워드
에러
백프로파게이션(에러를 되돌려서 웨이트를 고쳐야하니까)
웨이트고침
총점55 평균16.8 필기15,실기40
구글 텐서플로우 인공지능 개발프로그램 (무거움)
import nn 뉴런(럴?)네트워크
import optim 최적화
히든층이 적으면 못푸는문제들이 있음
히든층은 꼭 그런건 아닌데 다층퍼셉트론은 피라미드형
교수님의 torch_MLP_TCEL_v0_CPU.ipynb 자료설명
클래스갯수 = 출력갯수
타겟갯수 = 클래스갯수 * 패턴갯수
파이토치의 자료구조가 다 tensor로 되어있어서 torch.tensor쓴다.
배열 + 필요한기능 다있어서 tensor쓴다.
파이토치에서 tensor를 배열로 배열로 tensor로 바꾸는게 뭐니 챗gpt에 물어보면 나옴.
requires_grad=True는 기울기를 계산하고 기울기가 바뀌면 웨이트를 변화시킬거다.
MSELoss는 MinSquareErrorLoss함수 자주쓰인다. (cost를 계산하는거다 , 코스트함수)
GD = GradientDecent (경사하강법) Stocastic :통계력
경사하강하다가 가끔 올라가도 미친척하고 따라간다. (원래라면 내려가다가 살짝 올라가려는 경사가 있으면 그자리에서 학습을 멈췄음)
optimizer.step()은 웨이트 업데이트
z는 출력
자료실에 올릴테니 돌려보고와라.
print(x)도 해보고 해봐라
밑에코드 나오는 것 부터는 수업안했음
x1=
x2=
x3=
x4=
'학교 > 인공지능' 카테고리의 다른 글
| 240522(수) 12주차수업 (0) | 2024.05.22 |
|---|---|
| 240509(목) 10주차수업 (0) | 2024.05.09 |
| 240502(목) 9주차수업 (0) | 2024.05.02 |
| 240501(수) 9주차수업 (1) | 2024.05.01 |
| 240418(목) 7주차수업 (1) | 2024.04.18 |