Interview 미니배치를 작게 할때의 장단점은? - 배치 사이즈는 학습 시 정해야하는 하이퍼 파라미터로 이것에 따라 학습 양상과 결과가 달라질 수 있습니다. Batch size를 작게 하는 경우 sample의 수가 적어 training set의 분포에 근사하게 추정되지 않기 때문에 noise가 많아져 generalization 효과를 줄 수 있다는 장점이 있습니다. 또한 최소 요구 메모리 양이 줄어듭니다. 그러나 배치 사이즈가 작을 수록 학습에 걸리는 시간은 늘어나게 된다는 단점이 있습니다. 728x90 공유하기 게시글 관리 Reality is also a Pizza 'Interview' 카테고리의 다른 글 파이썬의 Generator에 대해 설명해주세요 (0) 2022.12.07 뉴럴넷의 가장 큰 단점은 무엇인가? 이를 위해 나온 Few-Shot Learning은 무엇인가? (0) 2022.12.05 SGD, Momentum, RMSprop, Adam에 대해서 아는 대로 설명한다면? (0) 2022.12.05 Gradient Descent란 무엇이며, 왜 꼭 Gradient를 써야 할까? / 그래프에서 가로축과 세로축 각각은 무엇인가? 실제 상황에서는 그 그래프가 어떻게 그려질까? (0) 2022.11.28 Weight Initialization 방법에 대해 말해주세요. 그리고 무엇을 많이 사용하나요? (0) 2022.11.28 Contents 당신이 좋아할만한 콘텐츠 파이썬의 Generator에 대해 설명해주세요 2022.12.07 뉴럴넷의 가장 큰 단점은 무엇인가? 이를 위해 나온 Few-Shot Learning은 무엇인가? 2022.12.05 SGD, Momentum, RMSprop, Adam에 대해서 아는 대로 설명한다면? 2022.12.05 Gradient Descent란 무엇이며, 왜 꼭 Gradient를 써야 할까? / 그래프에서 가로축과 세로축 각각은 무엇인가? 실제 상황에서는 그 그래프가 어떻게 그려질까? 2022.11.28 댓글 0 + 이전 댓글 더보기