은(는) 입력 공간, Y 은(는) 출력 공간이라고 부르는 공간이며, Z Z}은(는 제품 {\displaystyle X Y을 하자. 예를 들어 이진 분류 에서 X 는 일반적으로 유한하다모방 벡터 공간과 은는) {- ,이다
Fix a hypothesis space of functions . A learning algorithm over is a computable map from to . In other words, it is an algorithm that는 샘플의 유한 순서를 입력으로 삼고 X 에서 Y까지의 함수를 출력한다 대표적인 학습 알고리즘은 티코노프 정규화 없이 경험적 위험 최소화를 포함한다.
Fix a loss function , for example, the square loss , where . For a given distribution Y의 가설(함수) h h의 예상 위험은 다음과 같다.
In our setting, we have , where is a learning algorithm and is a sequence of vec과(와) 독립적으로 그려진 토어 최적의 위험을 정의하십시오.
Set , for each . Note that is a random variable and depends on the random variable , which is drawn from the distribution . 만약 E({\displaystyle{{E\mathcal}}(h_{n})}probabilistically EH({\displaystyle{{E\mathcal}}_{{H\mathcal}}^{*}}에 전진 이 알고리즘{\displaystyle{{A\mathcal}}}일치해 다른 말로, 모든 ϵ,δ 을, 0{\displaystyle \epsilon ,\delta>0}, exis라고 불린다.한 ts 양의 정수 즉, nn N{\ nN}에 대해 다음과 같은 값을 갖는다.
The sample complexity of is then the minimum for which this holds, as a function of , and . We write the sample complexity as to emphasize that this value of depends on , and . If is not consistent, then we set . If there exists an algorithm for which ( , ,Δ ) {\ ,\,\delta 은 유한하다. 그렇다면 가설 공간 은(으) 학습이 가능하다고 한다.
In others words, the sample complexity defines the rate of consistency of the algorithm: given a desired accuracy and confidence , one needs to sample 출력 함수의 위험이 최소 {\의 최적 범위 내에 있음을 보장하기 위한 데이터 지점 displaystyle \epsilon }. 최소 1 Δ [2]
In probably approximately correct (PAC) learning, one is concerned with whether the sample complexity is polynomial, that is, whether is bounded by a polynomial in and . If 은 일부 학습 알고리즘의 다항식이며, 그러면 가설 공간 H 은(는) PAC 학습이 가능하다고 한다. 이것은 배울 수 있는 것보다 더 강한 개념이라는 것에 주목하라.
제한되지 않은 가설 공간: 무한 표본 복잡성
견본 복잡성이 강한 의미에서 유한하도록 학습 알고리즘이 존재하는지, 즉 알고리즘이 특정 표적 오류로 입출력 공간에 대한 분포를 학습할 수 있도록 필요한 표본 수에 한계가 있는지를 물을 수 있다. 좀 더 형식적으로, 알고리즘A {\{\{A}이(가) 존재하는지 질문한다 즉, 모든> {\,\에 대해, n 이(가)이(가) 있는 것이다
확률 분포 공간 parametric approach){\ 예를 들어 파라메트릭 접근법을 통해 또는
분포가 없는 접근에서와 같이 가설 의 공간을 제한한다
제한된 가설 공간: 유한 표본 복합성
후자의 접근방식은 공간 의 복잡성을 제어하는 VC 차원 및 Rademacher 복잡성과 같은 개념으로 이어진다 보다 작은 가설 공간은 추론 과정에 더 많은 편향을 도입하며, 는 H 음 더 큰 공간에서 가능한 최선의 위험보다. 그러나 가설 공간의 복잡성을 제한함으로써 알고리즘이 보다 균일하게 일관된 함수를 생성할 수 있게 된다. 이러한 절충은 정규화 개념으로 이어진다.[2]
이것은 특정 가설공간이 PAC 학습가능하고, 나아가 학습가능하다는 것을 증명할 수 있는 방법을 제공한다.
PAC 학습 가능 가설 공간의 예
, and let be the space of affine functions on , that is, functions of the form for some 디스플레이 { { 오프셋 학습 문제가 있는 선형 분류다. 이제, 사각형의 네 개의 동일 평면점은 어떤 아핀 기능으로도 산산이 부서질 수 없다는 점에 유의하십시오. 어떤 아핀 기능도 대각선으로 반대되는 두 개의 정점에서는 양이고 나머지 두 개의 정점에서는 음수일 수 없기 때문이다. 따라서 의 VC 치수는 + 1 이므로 유한하다 {\이(가 PAC 학습 가능하고, 나아가 학습이 가능하다는 것은 위의 PAC 학습 클래스의 특성화에 따른 것이다.
표본 복합성 한계
이(가) 이진 함수의 클래스라고 가정하십시오, 1에 대한 기능). 그러면 이 -PAC-학습 가능(크기의 표본:
where is the VC dimension of . Moreover, any -PAC-learning algorithm for must have sample-complexity:[4]
감독된 학습 환경 외에도, 샘플 복잡성은 알고리즘이 많은 라벨 획득 비용을 줄이기 위해 특별히 선택한 입력물에 라벨을 요청할 [7]수 있는 능동적 학습을 포함한 반 감독적 학습 문제와 관련이 있다. 샘플 복잡성의 개념은 사전 학습과 같은 강화 학습,[8]온라인 학습 및 감독되지 않은 알고리즘에서도 나타난다.[9]
로봇공학에서의 효율성
높은 표본 복잡성은 몬테카를로 나무 검색을 실행하기 위해 많은 계산이 필요하다는 것을 의미한다.[10] 그것은 주 공간에서 자유로운 무차별적인 힘 검색과 같다. 반면 [11]고효율 알고리즘은 표본 복잡도가 낮다. 표본 복잡성을 줄이는 가능한 기법은 미터법 학습과[12] 모델 기반 강화 학습이다.[13]
참조
^ abVapnik, Vladimir (1998), Statistical Learning Theory, New York: Wiley.
^ abRosasco, Lorenzo (2014), Consistency, Learnability, and Regularization, Lecture Notes for MIT Course 9.520.
^Kaufmann, Emilie and Koolen, Wouter M (2017). Monte-carlo tree search by best arm identification. Advances in Neural Information Processing Systems. pp. 4897–4906.{{cite conference}}: CS1 maint : 복수이름 : 작성자 목록(링크)
^Fidelman, Peggy and Stone, Peter (2006). The chin pinch: A case study in skill learning on a legged robot. Robot Soccer World Cup. Springer. pp. 59–71.{{cite conference}}: CS1 maint : 복수이름 : 작성자 목록(링크)
^Verma, Nakul and Branson, Kristin (2015). Sample complexity of learning mahalanobis distance metrics. Advances in neural information processing systems. pp. 2584–2592.{{cite conference}}: CS1 maint : 복수이름 : 작성자 목록(링크)
^Kurutach, Thanard and Clavera, Ignasi and Duan, Yan and Tamar, Aviv and Abbeel, Pieter (2018). "Model-ensemble trust-region policy optimization". arXiv:1802.10592 [cs.LG].{{cite arxiv}}: CS1 maint : 복수이름 : 작성자 목록(링크)