MoE(전문가 믹스)

2024.02.28
뜻풀이
MoE(Mixture of Experts)는 각 단어에서 알 수 있듯이, 여러 '전문가' 모델들의 혼합을 의미한다. 이 방법은 모델안에 '라우터'에서 주어진 문제에 적절한 모델만을 사용해 문제를 해결하는 방법이다. 대규모 언어 모델(Large Language Models, LLM) 같은 머신러닝 시스템이 더 나은 성능을 달성하도록 도와주면서도, 필요한 연산량을 크게 증가시키지 않는 방법으로 2023년 하반기에 처음으로 오픈소스 LLM 모델이 공개 되었다.
상세풀이
URL
최종수정2024.02.28

오픈프롬프트인가?

  • 오픈 커뮤니티

    오픈프롬프트에서는 누구나 자유롭게
    프롬프트를 만들고 함께 나눌 수 있습니다.
    나의 아이디어를 자랑하고,
    다른 사람의 창의적인 아이디어도 만나보세요.

  • 밀도있는 AI 아카이브

    최신 AI 이슈를 빠짐없이 전합니다.
    새로운 기술과 트렌드, 유용한 도구 및
    서비스에 대한 소식까지.
    오픈프롬프트에서 필요한 정보를 확인하세요!

  • 원클릭 공유

    내가 만든 프롬프트,
    나만 알고 있기 아까운 창의적인 노하우를
    마음껏 뽐내보세요.