Notice
Recent Posts
Recent Comments
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- 도커 컨테이너
- Traveling salesman problem
- Sarsa
- routing problem
- 딥러닝
- 케밥케이스
- 배반사건
- on-policy
- 스네이크케이스
- multi task learning
- 확률공리
- 강화학습
- off-policy
- 헝가리안노테이션
- Federated learning
- 카멜케이스
- 도커 개념
- 그리드월드
- 큐러닝
- q learning
- 연합학습
- Metaheuristic
- genetic algorithm
- 산업공학
- 파스칼케이스
- mmoe
- 코딩스타일
- Docker Image
- 몬테카를로 학습
- 유전알고리즘
Archives
- Today
- Total
목록mmoe (1)
SU Library

MMoE(Multi-gate Mixture-of-Experts)는 멀티태스크 학습(Multi-task Learning)을 위한 모델로, 여러 개의 전문가(Experts) 네트워크와 각각의 태스크(Task)마다 개별적으로 학습되는 게이트(Gate) 네트워크를 포함합니다. 이는 다양한 태스크 간의 상호작용을 캐치하고 이를 학습하도록 설계되었습니다.그림에서 보듯 크게 Expert , Gate로 구성되어있고 이 모듈들을 활용하여 Shared-Bottom mul-task DNN 구조를 갖습니다.각각의 Experts는 일반적으로 feed-forward로 구성되어있고, 입력 데이터의 특징을 학습합니다. 또한, 각 태스크마다 별도의 Gate 네트워크가 존재합니다. Gate는 Experts를 통과한 값을 중합하여 최종 ..
인공지능/Deep learning
2024. 6. 18. 09:12