6평 퍼셉트론지문 19번 4번선지 해설 어떤걸로 알고계신가요?
19번은 보기문제Wa Wb Wc나온 보기문제고
0 XDK (+0)
유익한 글을 읽었다면 작성자에게 XDK를 선물하세요.
-
내가 못생겨서..
-
공유ㄱㄱ
-
콜라 ㅈㄴ땡겨서 1
무인편의점 간다
-
ㅇㅈ 2
음주했던거 5병정도
-
닉네임이 젖탱이였음 올리버의 젖단속은 다른사람이었던걸로 기억함 저때 메인글보고 존나...
-
ㅇㅈ 4
집 가는 중
-
ㅇㅈ 5
펑 강민철
-
라이라이차차차
-
ㅇㅈ 3
본거또보고
-
야식 ㅇㅈ 1
-
음주중인데
-
ㅇㅈ 4
-
무슨선물을샀길래그래서울대경제학과쌍문동의자랑
-
인증해볼까 4
말까
-
먹튀각
-
여친 인증. 4
.
-
욕실에 들어가자마자 확 바로 들어서 아주 그냥 미온수에 폼클랜징으로 세수하고 싶다
-
26수능 물1 10
만표 73 만백 100 반박 안받음
-
모썩철썩 꾸준글 쓰시던분은 어디갔나
-
하나도 둘도 아닌 '넷'씩이나..! 심지어 기여운 담요도 샀다고ㅋ
-
혼자하고싶은뎅..
-
하지말랴여 5
안할래
-
아오 심심해 1
할 게 업썩
-
하지마라 2
ㅇ
-
이번수능 언매 미적 물리 생명 봤는데 언맨 4 생명 4 이고 나머지는 1이면 어떻게...
-
그래서 제차단목록=약간 홍석천 팔로잉 목록 느낌임…
-
내가 남자라 그런가
-
오르비 시작 2일째네요..
-
인증매터임? 8
그런거냐
-
미래에서 과거 잠시 여행온듯한 기분임 되게묘함 언젠가 지금 이 시간도 엄청 옛날이 될 순간이 오겠지
-
군대에서 수능 공부를 하며 전적대인 과와 같은 서울대를 제1목표로 하며 달렸고 운이...
-
진격거 재밌네 4
또 인생 절반 손해봄 그래 이런게 애니지 요즘 애니랑 궤를 달리하는 초명작 진격거
-
확
-
옛날 글들 특유의 분위기가 왜 그립지 근데 옛날에도 저런 억까들은 존재했군요 오르비...
-
뉴런 공부 1
오늘 책 와서 수1 theme1부터 수강 중인데, 뉴런은 다회독이 되게 중요하다고들...
-
그냥
-
좌-아무리 그래도 계엄? 미쳤음? 우-계엄을 할 상황이 어쩌다 오게된건데? 이거임?
-
반응 궁금하노
-
ㅎㅎ
-
ㅇㅈ 2
이정도면 나도 나중에 여친 사귀기 ㄱㄴ?
-
그 누구더라 누가 올리버쌤 프사에 닉네임 젖탱이로 해놓고 아 씨발 이게 진짜 될 줄...
-
오르비 뉴비 등장 10
형아들이 많네요 ㅎㅎ
-
남들이 하지 마라는건 이유가 있는데 기어이 해보는 인간들 있음. 근데 그게...
-
ㄹㅇㅋㅋ
-
미적 147 기하 143 확통 139
-
밸런스게임 3
임니다
-
평가원 너무 옛날 기출(+무등비 같은 옛 경향) 걸러낸 4점짜리랑 교육청 기출중에...
-
전체범위의 반정도는 됨? 아님 반보다 좀 많이나감?
학습데이터를 반복해서 학습시키면 언젠가는 가중합이 특정값에 수렴하는데 이게 1을넘을이 안넘을지는 알 수 없습니다.
실제로 코딩을 해서 확인해보면... 학습률에 따라 다르지만 가중합이 1을 넘지는 않더군요..
하나의 데이터만을 반복해서 학습시키면 정답과 별개의 특정값에 수렴한다는 말씀이신가요? 여러개의 데이터를 쓰면 정답값에 수렴하고요?
19번의 상황에서는
여러개의 데이터를 사용해도 학습이 불가능한 함수가 있습니다.
(가령 xor함수와 같은 비선형함수)
(뭔지 모르니 일단 가만히 있어야겠다....)
근데 이런 배경지식 알고있는분보니 되게 멋있네요.... ㅎ
(제시문에는 없는내용)
예를들어서
입력 A B와 정답 Y에 대해서
0*0=>0
0*1=>1
1*0=>1
1*1=>0
과 같이 주어지면 19번처럼 단일 퍼셉트론으로는 학습이 불가능합니다.
제시문에는 다음과 같은 내용이 있습니다.
---
오차 값이 0에 근접하게 되거나 가중치
의 갱신이 더 이상 이루어지지 않게 되면 학습 단계를 마치고 판정 단계로 전환한다. 이때 판정의 오류를 줄이기 위해서는 학습 단계에서 대상들의 변별적 특징이 잘 반영되어 있는 서로 다른 학습 데이터를 사용하는 것이 좋다.
---
(1) 오차 값이 0에 근접하게 되거나
(2) 가중치의 갱신이 더 이상 이루어지지 않게 되면
다만 이부분은 다계층 퍼셉트론에대한 알고리즘이고 제시문에서는 단일퍼셉트론의 알고리즘을 정확히 소개하지 않았기 때문에 19번상황에서 가중치가 어떻게 변하는 지는 알 수 없습니다.
(오차의 "일부"가 가중치에 반영된다고 모호하게 표현함, 또 제시문에 이 부분은 엄밀히 다계층 퍼셉트론 에만 해당하고 19번의 단일퍼셉트론의 학습법에 대해서는 소개하지않음)
--
가중치의 리미트가 주어지지 않았는데 없다고 가정하면 (평가원 이의제기 답변에따르면) 19번의 상황은 출력값이 1이 될 때까지 가중치가 무한히 더해지는 방식이라고 합니다.
결론만 말씀드리면
19번 상황은 제시문에 따르면
한번 학습하면 가중치 3개가 모두 증가한다고 합니다.
(실제 단일 퍼셉트론 알고리즘에서 wb는 증가하지 않..읍읍)
음 그럼 4번선지에 대부분의 해설강의에서 설명하는 "[B]로 여러차례 반복해서 학습시키면 퍼셉트론의 출력값은 1에 수렴하겠군" 이거도 틀린건가요?
오차의 '일부'가 가중치에 갱신된다는 표현이 굉장히 애매한 표현입니다. 바로 위에 댓글은 저의 개인적인 생각이고 실제 평가원 이의제기 답변에 근거해 설명하면 다음과 같습니다.
--
가령 한번 학습하면
출력은 0이고 정답은 1이기 때문에
오차가 1-0=1이고 1의 일부가
wa wb wc에 더해집니다.
이 과정은 학습데이터를 무한히 입력하여 가중합≥1이 될 때 까지 반복되는데 ('일부'라는 표현이 굉장히 모호하기는 하지만) 가중합이 언젠가는 1이 넘는다면 가중치는 무한히 증가하게 되어 출력값이 1로 수렴하게 됩니다.
따라서 출력값이 1로 수렴한다는 추론은 제시문으로 볼 때 타당한 추론입니다.
---
다만 제생각은 '일부'라는 표현은 찝찝하고
또 다계층퍼셉트론 학습법만 주어진 상황에서 단일퍼셉트론의 학습법이 다계층 퍼셉트론 학습법과 같다고 추론이 가능한가에 대해선 찝찝.
좀 제가 헷갈리게 설명했는데
다계층 퍼셉트론의 학습방법이 단일퍼셉트론에서도 동일하게 적용된다고 가정하고, 가중치의 '일부'가 더해진다에서 '일부'>0이라는 전제하에 19번의 데이터를 반복학습하면 가중합이 1로 수렴하는진 알 수 없지만 출력값은 1로 수렴합니다.
다계층 퍼셉트론의 학습방법이 단일퍼셉트론에서도 동일하게 적용된다고 가정할수 있느냐가 궁금했습니다 지문에서는 여러가의 학습데이터를 사용한다고만 나와있으니... 평가원의 의도가 궁금하네요
배경지식을 이용하면
(실제의 학습법과 다른 퍼셉트론의 학습원리를 소개)
제시문 자체가 이상합니다.
또 (배경지식을 이용하면) 다계층퍼셉트론의 학습방법은 굉장히 복잡하고 단일계층 퍼셉트론의 학습방법은 비교적 단순한데 주어진 지문으로는 알 수 없습니다.
주어진 지문에서는 단일계층의 퍼셉트론을 다계층의 일부로 보고 동일한 학습방법을 적용하여 19번의 정답이 2번임을 추론하고있습니다.
평가원 이의제기 답변에서 그 논리를 서술하고있습니다.
평가원 이의제기걸린걸 확인 못했었네요 확인해보겠습니다
아 19번의 정답이 3번이였죠!
오타 ㅠㅜ
참고로 평가원 이의제기 답변에서 답이 3번임을 추론하는것은 이상이 없지만
이의제기자들이 주장한 두가지내용중 과학적사실과는 다르다라는 주장에 대한 언급한 평가원의 답변은 잘못되었다고 생각합니다.
(http://cafe.naver.com/pnmath/866729)