Notice
Recent Posts
Recent Comments
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 몬테카를로 학습
- 배반사건
- off-policy
- 그리드월드
- routing problem
- 파스칼케이스
- mmoe
- 강화학습
- 케밥케이스
- Traveling salesman problem
- 스네이크케이스
- 딥러닝
- 도커 컨테이너
- q learning
- on-policy
- 산업공학
- Metaheuristic
- 코딩스타일
- multi task learning
- 큐러닝
- 헝가리안노테이션
- 유전알고리즘
- genetic algorithm
- 연합학습
- 카멜케이스
- 확률공리
- Federated learning
- Sarsa
- Docker Image
- 도커 개념
Archives
- Today
- Total
목록확률공리 (1)
SU Library
통계이론 - 조건부확률 1
다시 통계공부를 시작해서 오늘은 통계 기초에 대해 포스팅하려고 합니다.머신러닝과 딥러닝에서는 베이즈 이론이 상당히 많은 부분을 차지하므로, 이를 다시 공부하는 것에 포커스를 맞추려고 합니다. 이를 이해하기 위한 기초적인 개념에 대해 포스팅하겠습니다. 확률공리 어떤 사건 A가 발생할 확률은 0보다 같거나 큽니다. $$P(A) \geq 0$$ 모든 표본공간(사건이 발생하는 모든 경우를 모아놓은 공간) S에 대한 확률의 값은 1입니다. $$P(S)=1, S =\{A_1, A_2,A_3, \dots, A_n\}, $$ 표본공간 S에 정의된 사건열에 대해 겹치지 않으면(mutual exclusive), 다음이 성립합니다.$$P(\cup_{i=1}^{\infty}A_i)= \sum_{i=1}^{\infty}P(A_..
수학/확률
2023. 5. 25. 05:20