작은 구절 세트에서 각 구절에 대한 점수를 생성하여 쿼리와 가장 관련성이 높은 구절 한두 개를 찾으려는 경우 재랭크 모델을 사용합니다. 리랭커 모델은 임베딩 모델보다 정확도는 높지만 효율성은 떨어집니다. 제출하는 입력이 많을수록 재랭커 모델이 텍스트를 처리하는 데 걸리는 시간이 길어집니다.
다음 표에는 IBM watsonx.ai 인코더 전용 기반 모델이 지원하는 작업 유형이 나와 있습니다. 체크 표시(✓)는 열 머리글에 있는 작업이 기초 모델에서 지원됨을 나타냅니다.
테이블 1. 인코더 전용 기초 모델 작업 지원
모델
API에서 텍스트 벡터화
API의 구절 순위 재조정
RAG용 AutoAI
Prompt Lab 문서와 채팅하기
all-minilm-l6-v2
✓
✓
all-minilm-l12-v2
✓
✓
ELSER(Elastic 학습형 스파스 EncodeR)
✓
granite-embedding-107m-multilingual
✓
✓
granite-embedding-278m-multilingual
✓
✓
✓
ms-marco-minilm-l-12-v2
✓
multilingual-e5-large
✓
✓
✓
slate-30m-english-rtrvr-v2
✓
✓
slate-30m-english-rtrvr
✓
✓
slate-125m-english-rtrvr-v2
✓
✓
✓
slate-125m-english-rtrvr
✓
✓
✓
임베딩 모델
Copy link to section
임베딩 모델은 문서를 벡터화하고 검색 및 비교 작업을 돕기 위해 텍스트 임베딩을 생성하는 데 사용하는 모델입니다. 텍스트 임베딩은 문장이나 구절의 의미를 벡터라고 하는 숫자 배열로 인코딩합니다. 벡터화에 대한 자세한 내용은 텍스트 임베딩 생성을 참조하세요.
구절이 벡터로 변환된 후에는 코사인 유사도와 같은 수학 함수를 사용하여 독립적인 벡터화된 구절의 유사도를 계산할 수 있습니다. 대부분의 임베딩 모델은 바이 인코더 모델입니다. 높은 리콜률이 필수적인 경우, 즉 가능한 일치 항목을 놓치지 않아야 하고 많은 구절의 유사성을 효율적으로 확인해야 하는 경우 바이 인코더 모델을 사용하세요.
모델 사용량은 RU(리소스 단위)로 측정됩니다. 각 단위는 재단 모델에 제출된 입력의 1,000 토큰 과 같습니다. 자세한 내용은 생성 AI 자산에 대한 청구 세부 정보를 참조하세요.
모델 순위 재조정
Copy link to section
재랭크 모델은 쿼리와 관련성이 가장 높은 순서부터 낮은 순서로 구절의 순위를 매기는 데 사용하는 교차 인코더 모델입니다. 바이 인코더 모델과 달리 크로스 인코더 모델은 구절과 쿼리를 함께 처리하고 두 입력의 유사성에 대한 점수를 생성합니다. 모델은 포함되는 각 구절에 대해 이 유사도 비교 단계를 반복합니다. 이 방법은 채점할 지문의 수가 적고 최상의 답을 찾고자 할 때 더 좋은 선택입니다.
watsonx.ai 사용할 수 있는 리랭커 모델은 텍스트 임베딩을 생성하는 데 사용할 수 없습니다.
모델 사용량은 RU(리소스 단위)로 측정됩니다. 각 단위는 재단 모델에 제출된 입력의 1,000 토큰 과 같습니다. 자세한 내용은 생성 AI 자산에 대한 청구 세부 정보를 참조하세요.
인코더 전용 모델 세부 정보
Copy link to section
watsonx.ai Python 라이브러리 또는 REST API를 사용하여 지원되는 인코더 전용 기초 모델 중 하나에 문장이나 구절을 제출할 수 있습니다.
all-minilm-l6-v2
Copy link to section
all-minilm-l6-v2 의 임베딩 모델은 오픈 소스 자연어 처리(NLP) 및 컴퓨터 비전(CV) 커뮤니티에 의해 구축되었으며, Hugging Face 에서 제공합니다. 모델을 문장 및 단락 인코더로 사용하십시오. 입력 텍스트가 주어지면 모델은 텍스트의 의미 정보를 캡처하는 벡터를 생성합니다.
all-minilm-l6-v2 임베딩 모델은 all-minilm-l12-v2 임베딩 모델과 유사하지만, all-minilm-l6-v2 모델의 임베딩 레이어가 12개가 아닌 6개의 레이어가 있다는 점을 제외하면 all-minilm-l12-v2 모델과 유사합니다.
사용법: 정보 검색, 클러스터링, 문장 유사성 감지 등의 작업에 all-minilm-l6-v2 임베딩 모델에 의해 생성된 문장 벡터를 사용합니다.
all-minilm-l12-v2 의 임베딩 모델은 오픈 소스 자연어 처리(NLP) 및 컴퓨터 비전(CV) 커뮤니티에 의해 구축되었으며, Hugging Face 에서 제공합니다. 모델을 문장 및 단락 인코더로 사용하십시오. 입력 텍스트가 주어지면 텍스트의 의미 정보를 캡처하는 벡터를 생성합니다.
all-minilm-l12-v2 임베딩 모델은 all-minilm-l6-v2 임베딩 모델과 유사하지만, all-minilm-l6-v2 모델의 임베딩 레이어가 6개가 아닌 12개라는 점이 다릅니다.
사용: 정보 검색, 클러스터링, 문장 유사성 감지 등의 작업에 all-minilm-l12-v2 임베딩 모델에 의해 생성된 문장 벡터를 사용합니다.
granite-embedding-107m-multilingual 모델은 IBM 제공하는 Granite 1억 7백만 매개변수 모델입니다. 이 모델은 고품질의 텍스트 임베딩을 생성하는 데 사용할 수 있습니다. 이 모델은 오픈 소스 관련성 쌍 데이터 세트와 기업 친화적인 개방형 라이선스를 결합한 데이터 세트, 그리고 IBM 생성하고 수집한 데이터 세트를 사용하여 훈련됩니다. 영어, 독일어, 스페인어, 프랑스어, 일본어, 포르투갈어, 아랍어, 체코어, 이탈리아어, 한국어, 네덜란드어, 중국어 등 12개 언어를 지원합니다.
사용법 : granite-embedding-107m-multilingual 사용하여 쿼리, 구절, 문서와 같은 주어진 입력에 대한 임베딩을 생성합니다. 이 모델은 두 개의 입력 텍스트 사이의 코사인 유사성을 최대화하도록 훈련됩니다.
지원되는 자연어 : 영어, 독일어, 스페인어, 프랑스어, 일본어, 포르투갈어, 아랍어, 체코어, 이탈리아어, 한국어, 네덜란드어, 중국어
미세 조정 정보 : granite-embedding-107m-multilingual 모델은 RoBERTa 버전입니다. RoBERTa 다국어 버전으로, 2.5 필터링된 CommonCrawl 데이터로 사전 훈련된 모델입니다. 이 모델은 검색 기반 작업을 위해 여러 언어로 된 데이터 세트를 혼합하여 지속적으로 훈련되었습니다.
granite-embedding-278m-multilingual 모델은 IBM 이 제공하는 Granite 2억 7,800만 매개변수 모델입니다. 이 모델은 고품질의 텍스트 임베딩을 생성하는 데 사용할 수 있습니다. 이 모델은 오픈 소스 관련성 쌍 데이터 세트와 기업 친화적인 개방형 라이선스를 결합한 데이터 세트, 그리고 IBM 생성하고 수집한 데이터 세트를 사용하여 훈련됩니다. 영어, 독일어, 스페인어, 프랑스어, 일본어, 포르투갈어, 아랍어, 체코어, 이탈리아어, 한국어, 네덜란드어, 중국어 등 12개 언어를 지원합니다.
사용법 : granite-embedding-278m-multilingual 사용하여 쿼리, 구절, 문서와 같은 주어진 입력에 대한 임베딩을 생성합니다. 이 모델은 두 개의 입력 텍스트 사이의 코사인 유사성을 최대화하도록 훈련됩니다.
지원되는 자연어 : 영어, 독일어, 스페인어, 프랑스어, 일본어, 포르투갈어, 아랍어, 체코어, 이탈리아어, 한국어, 네덜란드어, 중국어
미세 조정 정보 : granite-embedding-107m-multilingual 모델은 RoBERTa 버전입니다. RoBERTa 다국어 버전으로, 2.5 필터링된 CommonCrawl 데이터로 사전 훈련된 모델입니다. 이 모델은 검색 기반 작업을 위해 여러 언어로 된 데이터 세트를 혼합하여 지속적으로 훈련되었습니다.
ms-marco-minilm-l-12-v2 의 reranker 모델은 Microsoft에서 구축되었으며 Hugging Face 에서 제공합니다. 모델을 구절 및 문서 순위 재조정기로 사용하세요. 쿼리 텍스트와 문서 구절 집합이 주어지면 쿼리와 가장 관련성이 높은 구절부터 가장 낮은 구절까지 순위를 매깁니다.
사용법: 쿼리에 대해 점수를 매기고자 하는 작은 구절 세트가 있고 정확도가 필수적인 경우 ms-marco-minilm-l-12-v2 리랭커 모델을 사용합니다. 예를 들어, 구절이 100개 미만이고 쿼리 텍스트와 얼마나 유사한지에 따라 점수를 매기고자 하는 경우입니다.
slate-30m-english-rtrvr-v2 및 slate-30m-english-rtrvr 기초 모델은 slate-125m-english-rtrvr의 증류 버전으로, 모두 IBM에서 제공합니다. IBM 슬레이트 임베딩 모델은 두 텍스트 입력 간의 코사인 유사성을 최대화하도록 학습되어 나중에 유사성을 기반으로 임베딩을 평가할 수 있습니다.
임베드 모델 아키텍처에는 데이터를 처리하기 위해 순차적으로 사용되는 6개의 계층이 있습니다.
사용: IBM Slate 125m 임베딩 모델보다 2~3배 빠르고 성능 점수가 약간 낮습니다.