각각의 노코드 언어 모델에 대해, Foundry는 기본적인 모델 어댑터를 제공합니다. 이 기본 모델 어댑터는 언어 모델과 상호 작용하는데 있어 합리적인 기본 파라미터와 구조를 제공합니다. 아래에 나열된 기본 언어 모델 어댑터는 배포 인프라의 가용성에 따라 CPU와 GPU 장치로 올바르게 라우팅됩니다.
현재 사용 중인 모델 어댑터는 Modelling Objective 애플리케이션의 모델 제출 페이지에서 볼 수 있습니다.
이 모델 어댑터는 시퀀스-투-시퀀스 언어 모델에 대한 지원을 추가합니다. 어댑터는 제공된 입력 텍스트에 기반하여 텍스트를 생성합니다.
예시: 예상 입력 텍스트와 그 구조는 선택된 모델에 따라 달라집니다. 우리는 올바른 프롬프트 엔지니어링을 보장하기 위해 모델 상세를 읽는 것을 강력히 추천합니다. 예를 들어, flan-t5-large 모델은 번역부터 요약, 질문에 대한 답변까지 다양한 프롬프트를 수행할 수 있습니다.
이 모델 어댑터는 Named Entity Recognition pipelines에 대한 지원을 추가합니다. 모델 어댑터는 텍스트 내의 엔티티를 추출하고 목록으로 반환합니다.
예시: 텍스트 "My name is Max and I live in Germany"를 샌드박스 또는 라이브 배포를 통해 모델에 보낼 때, 모델은 두 개의 엔티티를 인식합니다: Max와 Germany.
5
는 인식된 엔티티가 입력 텍스트의 다섯 번째 토큰이라는 것을 의미합니다).이 모델 어댑터는 모델의 attention mask에 기반하여 주어진 텍스트에 대한 임베딩을 계산합니다. 이 어댑터는 "평균 풀링"과 정규화를 수행하며, 이는 sentenced-transformers의 기본값과 일치합니다.
예시:
이 모델 어댑터는 사전 정의된 클래스 세트에 대한 입력 텍스트를 분류합니다. 텍스트 분류의 일반적인 예시로는 감성 또는 언어 감지가 있습니다.
예시:
이 모델 어댑터는 예측 시간에 제공된 클래스 목록에 기반하여 입력 텍스트를 분류합니다. 이 동작은 특정 유즈케이스에 언어 모델을 세부 조정할 필요 없이 텍스트를 분류하게 해주는 모델 어댑터를 가능하게 합니다.
예시: 텍스트 “I love to develop new language models”와 후보 레이블 “Travel”, “Sports”, “Work”, and “Entertainment”를 보낼 때, 모델은 레이블을 점수화하고 "Work"를 가장 가능성이 높은 분류로 순위를 매깁니다.