오픈 소스 및 IBM 파운데이션 모델 모음은 IBM watsonx.ai 확인할 수 있습니다. Prompt Lab 또는 프로그래밍 방식으로 기초 모델을 추론할 수 있습니다.
다음 모델은 watsonx.ai: 사용할 수 있습니다:
- granite-13b-chat-v2
- granite-13b-instruct-v2
- granite-7b-lab
- granite-8b-japanese
- granite-20b-multilingual
- granite-3-2b-instruct
- granite-3-8b-instruct
- granite-3-8b-base
- granite-guardian-3-2b
- granite-guardian-3-8b
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- granite-34b-code-instruct
- allam-1-13b-instruct
- codellama-34b-instruct
- elyza-japanese-llama-2-7b-instruct
- flan-t5-xl-3b
- flan-t5-xxl-11b
- flan-ul2-20b
- jais-13b-chat
- llama-3-3-70b-instruct
- llama-3-2-1b-instruct
- llama-3-2-3b-instruct
- llama-3-2-11b-vision-instruct
- llama-3-2-90b-vision-instruct
- llama-guard-3-11b-vision
- llama-3-1-8b
- llama-3-1-8b-instruct
- llama-3-1-70b-instruct
- llama-3-405b-instruct
- llama-3-8b-instruct
- llama-3-70b-instruct
- llama-2-13b-chat
- llama-2-70b-chat
- mistral-large
- mistral-nemo-instruct-2407
- mixtral-8x7b-base
- mixtral-8x7b-instruct-v01
- mt0-xxl-13b
- pixtral-12b
이러한 모델을 배포할 수 있는 다양한 방법에 대해 자세히 알아보고 모델의 가격 및 컨텍스트 창 길이 정보에 대한 요약을 보려면 지원되는 파운데이션 모델을 참조하세요.
모델 선택 방법
지원되는 작업 및 언어 등 모델을 선택하는 데 도움이 될 수 있는 요소를 검토하려면 모델 선택하기 및 기초 모델 벤치마크를 참조하세요.
기초 모델 세부 정보
사용 가능한 파운데이션 모델은 자연어와 프로그래밍 언어 모두에 대한 다양한 사용 사례를 지원합니다. 이러한 모델이 수행할 수 있는 작업의 유형을 확인하려면 샘플 프롬프트를 검토하고 사용해 보세요.
allam-1-13b-instruct
foundation model 국립 인공지능 센터에서 제공하고 사우디 데이터 및 인공지능 당국이 지원하는 아랍어와 영어 이중 언어 대규모 언어 모델로, 대화형 작업을 지원하도록 미세 조정되어 있습니다. ALLaM 시리즈는 아랍어 기술을 발전시키기 위해 설계된 강력한 언어 모델 모음입니다. 이 모델은 Llama-2 가중치로 초기화되며 아랍어와 영어 모두에 대한 교육을 받습니다.
- 사용
- 아랍어로 된 Q&A, 요약, 분류, 생성, 추출 및 번역을 지원합니다.
- 크기
- 130억 개의 매개변수
- API 가격 책정 계층
- 클래스 2. 가격 책정에 대한 자세한 내용은 표 3을 참조하세요.
- 가용성
- 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 사용해 보기
- 샘플로 실험해 보세요:
- 토큰 한도
- 컨텍스트 창 길이(입력 + 출력): 4,096
- 지원되는 자연어
- 아랍어(현대 표준 아랍어) 및 영어
- 인스트럭션 튜닝 정보
- allam-1-13b-instruct 초기화에서 보이는 토큰을 포함하여 영어와 아랍어로 된 총 3조 개의 토큰에 대해 사전 학습된 foundation model 인 Allam-13b-base 모델을 기반으로 합니다. 아랍어 데이터 세트에는 정리 및 중복 제거 후 5,000억 개의 토큰이 포함되어 있습니다. 추가 데이터는 오픈 소스 컬렉션과 웹 크롤링에서 수집됩니다. allam-1-13b-instruct foundation model 4백만 개의 아랍어와 6백만 개의 영어 프롬프트 및 응답 쌍으로 엄선된 세트로 세밀하게 조정되어 있습니다.
- 모델 아키텍처
- 디코더 전용
- License
- Llama 2 커뮤니티 라이선스 및 ALLaM 라이선스
- 자세히 알아보기
- 다음 리소스를 읽어보세요:
codellama-34b-instruct
' Meta'의 Llama 2 기반으로 하는 프로그래매틱 코드 생성 모델입니다. Code Llama 코드 생성 및 토론을 위해 세밀하게 조정되었습니다.
- 사용
- Code Llama 사용하여 자연어 입력을 기반으로 코드를 생성하고, 코드를 설명하거나, 코드를 완성하고 디버깅하는 프롬프트를 만들 수 있습니다.
- 크기
- 340억 개의 매개변수
- API 가격 책정 계층
- 클래스 2. 가격 책정에 대한 자세한 내용은 표 3을 참조하세요.
- 가용성
- 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 사용해 보기
- 샘플로 실험해 보세요:
- 토큰 한도
- 컨텍스트 창 길이(입력 + 출력): 16,384
- 참고: 요청당 foundation model 생성되는 토큰을 의미하는 최대 신규 토큰은 8,192개로 제한됩니다.
- 지원되는 자연어
- 영어
- 지원되는 프로그래밍 언어
- codellama-34b-instruct-hf foundation model Python, C++, Java, PHP, 타입스크립트(자바스크립트), C#, Bash 등 다양한 프로그래밍 언어를 지원합니다.
- 인스트럭션 튜닝 정보
- 인스트럭션 미세 조정 버전에는 자연어 인스트럭션 입력과 예상 출력을 제공하여 모델이 자연어로 유용하고 안전한 답변을 생성하도록 안내했습니다.
- 모델 아키텍처
- 해독기
- License
- License
- 자세히 알아보기
- 다음 리소스를 읽어보세요:
elyza-japanese-llama-2-7b-instruct
elyza-japanese-llama-2-7b-instruct 모델은 Hugging Face ELYZA, Inc에서 제공합니다. elyza-japanese-llama-2-7b-instruct foundation model 일본어 텍스트를 이해하고 생성하도록 학습된 ' Meta '의 Llama 2 모델 버전입니다. 이 모델은 사용자 지시에 따라 다양한 작업을 해결하고 대화에 참여할 수 있도록 미세 조정되었습니다.
- 사용
- 일반적으로 ' zero- ' 또는 ' few-shot 프롬프트와 함께 사용합니다. 일본어 분류 및 추출과 영어와 일본어 간 번역에 적합합니다. 일본어로 메시지가 표시될 때 가장 잘 작동합니다.
- 크기
- 70억 개의 매개변수
- API 가격 책정 계층
- 클래스 2. 가격 책정에 대한 자세한 내용은 표 3을 참조하세요.
- 가용성
- 도쿄 데이터 센터의 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 사용해 보기
- 샘플로 실험해 보세요:
- 토큰 한도
- 컨텍스트 창 길이(입력 + 출력): 4,096
- 지원되는 자연어
- 일본어, 영어
- 인스트럭션 튜닝 정보
- 일본어 학습을 위해 위키피디아, 개방형 초대형 크롤링 ALMAnaCH coRpus (Common Crawl 코퍼스에서 언어를 분류하고 필터링하여 생성한 다국어 코퍼스) 등 다양한 소스의 일본어 텍스트가 사용되었습니다. 이 모델은 ELYZA에서 생성한 데이터 세트를 기반으로 미세 조정되었습니다. 엘리자 태스크 100 데이터 세트에는 사람이 직접 생성하고 평가한 다양하고 복잡한 100개의 태스크가 포함되어 있습니다. 엘리자 태스크 100 데이터 세트는 HuggingFace 공개적으로 사용할 수 있습니다.
- 모델 아키텍처
- 해독기
- License
- License
- 자세히 알아보기
- 다음 리소스를 읽어보세요:
flan-t5-xl-3b
flan-t5-xl-3b 모델은 Google Hugging Face 제공합니다. 이 모델은 사전 학습된 텍스트-텍스트 전송 변환기T5 모델을 기반으로 하며 명령어 미세 조정 방법을 사용하여 ' zero- ' 및 ' few-shot ' 성능을 향상시킵니다. 또한 이 모델은 추론 작업을 수행하는 능력을 향상시키기 위해 연쇄 사고 데이터로 미세 조정됩니다.
- 사용
- 일반적으로 ' zero- ' 또는 ' few-shot 프롬프트와 함께 사용합니다.
- 크기
- 30억 개의 매개변수
- API 가격 책정 계층
- 클래스 1. 가격 책정에 대한 자세한 내용은 표 3 및 표 5를 참조하세요.
- 가용성
- 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 전용 사용을 위해 온디맨드 방식으로 배포하세요.
- 사용해 보기
- 샘플 프롬프트
- 토큰 한도
- 컨텍스트 창 길이(입력 + 출력): 4,096
- 지원되는 자연어
- 다국어
- 인스트럭션 튜닝 정보
- 이 모델은 기존의 자연어 처리 작업 외에도 연쇄적 사고 데이터에서 여러 단계의 추론이 필요한 작업에 대해 미세 조정되었습니다. 사용된 학습 데이터 세트에 대한 세부 정보가 게시됩니다.
- 모델 아키텍처
- 인코더-디코더
- License
- Apache 2.0 라이선스
- 자세히 알아보기
- 다음 리소스를 읽어보세요:
flan-t5-xxl-11b
flan-t5-xxl-11b 모델은 Google Hugging Face 제공합니다. 이 모델은 사전 학습된 텍스트-텍스트 전송 변환기T5 모델을 기반으로 하며 명령어 미세 조정 방법을 사용하여 ' zero- ' 및 ' few-shot ' 성능을 향상시킵니다. 또한 이 모델은 추론 작업을 수행하는 능력을 향상시키기 위해 연쇄 사고 데이터로 미세 조정됩니다.
- 사용
- 일반적으로 ' zero- ' 또는 ' few-shot 프롬프트와 함께 사용합니다.
- 크기
- 110억 개의 매개변수
- API 가격 책정 계층
- 클래스 2. 가격 책정에 대한 자세한 내용은 표 3 및 표 5를 참조하세요.
- 가용성
- 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 전용 사용을 위해 온디맨드 방식으로 배포하세요.
- 사용해 보기
- 샘플로 실험해 보세요:
- 토큰 한도
- 컨텍스트 창 길이(입력 + 출력): 4,096
- 지원되는 자연어
- 영어, 독일어, 프랑스어
- 인스트럭션 튜닝 정보
- 이 모델은 기존의 자연어 처리 작업 외에도 연쇄적 사고 데이터에서 여러 단계의 추론이 필요한 작업에 대해 미세 조정되었습니다. 사용된 학습 데이터 세트에 대한 세부 정보가 게시됩니다.
- 모델 아키텍처
- 인코더-디코더
- License
- Apache 2.0 라이선스
- 자세히 알아보기
- 다음 리소스를 읽어보세요:
flan-ul2-20b
flan-ul2-20b 모델은 Google Hugging Face 제공합니다. 이 모델은 통합 언어 학습 패러다임UL2을 사용하여 학습되었습니다. 이 모델은 언어 생성, 언어 이해, 텍스트 분류, 질문 답변, 상식 추론, 긴 텍스트 추론, 구조화된 지식 기반, 정보 검색, 문맥 내 학습, ' zero-shot 프롬프트, 원샷 프롬프트에 최적화되어 있습니다.
- 사용
- 일반적으로 ' zero- ' 또는 ' few-shot 프롬프트와 함께 사용합니다.
- 크기
- 200억 개의 매개변수
- API 가격 책정 계층
- 클래스 3. 가격 책정에 대한 자세한 내용은 표 3 및 표 5를 참조하세요.
- 가용성
- 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 전용 사용을 위해 온디맨드 방식으로 배포하세요.
- 사용해 보기
- 샘플로 실험해 보세요:
- 샘플 프롬프트
- 샘플 프롬프트: 수익 통화 요약
- 샘플 프롬프트: 회의 내용 요약
- 샘플 프롬프트: 시나리오 분류
- 샘플 프롬프트: 감정 분류
- 샘플 프롬프트: 감사 노트 생성
- 샘플 프롬프트: 명명된 엔터티 추출
- 샘플 프롬프트: 팩트 추출
- 샘플 노트북: watsonx 사용하여 사이버 보안 문서 요약하기
- 샘플 노트북: 검색 증강 생성(RAG)을 사용하여 질문에 답하기 위해 watsonx LangChain 사용
- 샘플 노트북: watsonx, Elasticsearch, LangChain 사용하여 질문에 답하기(RAG)
- 샘플 노트북: watsonx Elasticsearch Python 라이브러리를 사용하여 질문에 답하기(RAG)
- 토큰 한도
- 컨텍스트 창 길이(입력 + 출력): 4,096
- 지원되는 자연어
- 영어
- 인스트럭션 튜닝 정보
- flan-ul2-20b 모델은 커먼 크롤의 웹 크롤링 말뭉치의 방대하고 정리된 버전으로 사전 학습됩니다. 이 모델은 다양한 자연어 처리 작업에 최적화하기 위해 여러 사전 학습 목표에 따라 미세 조정됩니다. 사용된 학습 데이터 세트에 대한 세부 정보가 게시됩니다.
- 모델 아키텍처
- 인코더-디코더
- License
- Apache 2.0 라이선스
- 자세히 알아보기
- 다음 리소스를 읽어보세요:
granite-13b-chat-v2
granite-13b-chat-v2 모델은 IBM 제공합니다. 이 모델은 대화 사용 사례에 최적화되어 있으며 가상 상담원 및 채팅 애플리케이션과 잘 작동합니다.
사용법: 챗봇처럼 대화창 출력을 생성합니다. 모델별 프롬프트 형식을 사용합니다. 간결한 답변을 생성하기 위해 정지 시퀀스로 사용할 수 있는 키워드를 출력에 포함합니다. 안내 메시지에 따라 사용 팁을 확인하세요. 자세한 내용은 granite-13b-chat-v2 프롬프트하기를 참조하세요.
- 크기
130억 개의 매개변수
- API 가격 책정 계층
- 가용성
- 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 전용 사용을 위해 온디맨드 방식으로 배포하세요.
- 사용해 보기
- 토큰 한도
컨텍스트 창 길이(입력 + 출력): 8,192
- 지원되는 자연어
영어
- 인스트럭션 튜닝 정보
Granite 모델 제품군은 인터넷, 학술, 코드, 법률, 금융 등 5가지 영역의 기업 관련 데이터 세트를 학습합니다. 모델 학습에 사용되는 데이터는 먼저 IBM 데이터 거버넌스 검토를 거치고, IBM HAP 필터를 통해 혐오, 욕설, 욕설로 플래그가 지정된 텍스트를 필터링합니다. IBM 사용된 교육 방법과 데이터 세트에 대한 정보를 공유합니다.
- 모델 아키텍처
해독기
- License
-
IBM 파운데이션 모델은 IBM Cloud 서비스의 일부로 간주됩니다. IBM 면책과 관련된 계약상 보호에 대한 자세한 내용은 IBM 고객 관계 계약 및 IBM watsonx.ai 서비스 설명을 참조하세요.
- 자세히 알아보기
다음 리소스를 읽어보세요:
granite-13b-instruct-v2
granite-13b-instruct-v2 모델은 IBM 제공합니다. 이 모델은 고품질 재무 데이터로 학습되었으며 재무 업무에서 최고의 성과를 내는 모델입니다. 평가되는 금융 업무에는 주식 및 실적 발표 녹취록에 대한 감정 점수 제공, 뉴스 헤드라인 분류, 신용 위험 평가 추출, 긴 형식의 금융 텍스트 요약, 금융 또는 보험 관련 질문에 대한 답변 등이 있습니다.
- 사용
- 추출, 요약, 분류 작업을 지원합니다. 재무 관련 작업에 유용한 결과물을 생성합니다. 모델별 프롬프트 형식을 사용합니다. 구조화된 출력을 생성하는 데 사용할 수 있는 특수 문자를 허용합니다.
- 크기
- 130억 개의 매개변수
- API 가격 책정 계층
- 클래스 1. 자세한 가격 정보는 표 2 및 표 4를 참조하세요.
- 가용성
- 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 전용 사용을 위해 온디맨드 방식으로 배포하세요.
- 사용해 보기
샘플로 실험해 보세요:
- 토큰 한도
컨텍스트 창 길이(입력 + 출력): 8,192
- 지원되는 자연어
영어
- 인스트럭션 튜닝 정보
Granite 모델 제품군은 인터넷, 학술, 코드, 법률, 금융 등 5가지 영역의 기업 관련 데이터 세트를 학습합니다. 모델 학습에 사용되는 데이터는 먼저 IBM 데이터 거버넌스 검토를 거치고, IBM HAP 필터를 통해 혐오, 욕설, 욕설로 플래그가 지정된 텍스트를 필터링합니다. IBM 사용된 교육 방법과 데이터 세트에 대한 정보를 공유합니다.
- 모델 아키텍처
해독기
- License
-
IBM 파운데이션 모델은 IBM Cloud 서비스의 일부로 간주됩니다. IBM 면책과 관련된 계약상 보호에 대한 자세한 내용은 IBM 고객 관계 계약 및 IBM watsonx.ai 서비스 설명을 참조하세요.
- 자세히 알아보기
다음 리소스를 읽어보세요:
granite-7b-lab
granite-7b-lab foundation model IBM 제공합니다. granite-7b-lab foundation model IBM Research의 새로운 정렬 조정 방법을 사용합니다. 대규모 chatBots, 정렬(LAB)은 스킬에 대한 합성 데이터를 생성하여 기존 기초 모델에 새로운 스킬을 추가한 다음 해당 데이터를 사용하여 foundation model 튜닝하는 방법입니다.
- 사용
- 추출, 요약, 분류 등 일반적인 작업을 지원합니다. 안내 메시지에 따라 사용 팁을 확인하세요. 자세한 내용은 프롬프트하기 granite-7b-lab 참조하세요.
- 크기
- 70억 개의 매개변수
- API 가격 책정 계층
- 클래스 1. 가격 책정에 대한 자세한 내용은 표 2를 참조하세요.
- 가용성
- 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 사용해 보기
- 토큰 한도
컨텍스트 창 길이(입력 + 출력): 8,192
참고: 요청당 foundation model 생성되는 토큰을 의미하는 최대 신규 토큰은 4,096개로 제한됩니다.
- 지원되는 자연어
영어
- 인스트럭션 튜닝 정보
granite-7b-lab foundation model 대규모 챗봇용 정렬(LAB) 방법론을 사용하여 반복적으로 학습됩니다.
- 모델 아키텍처
해독기
- License
-
IBM 파운데이션 모델은 IBM Cloud 서비스의 일부로 간주됩니다. watsonx.ai 제공되는 granite-7b-lab foundation model 사용하는 경우 IBM 면책과 관련된 계약상 보호가 적용됩니다. IBM 고객 관계 계약 및 IBM watsonx.ai 서비스 설명을 참조하세요.
- 자세히 알아보기
다음 리소스를 읽어보세요:
granite-8b-japanese
granite-8b-japanese 모델은 IBM 제공합니다. granite-8b-japanese foundation model 사전 학습된 Granite 베이스 80억 일본어 모델에서 초기화된 인스트럭트 변형으로, 일본어 텍스트를 이해하고 생성하도록 학습되었습니다.
- 사용
분류, 추출, 질의 응답, 일본어와 영어 간의 언어 번역과 같은 일본어의 일반적인 목적 작업에 유용합니다.
- 크기
80억 개의 매개변수
- API 가격 책정 계층
클래스 1. 가격 책정에 대한 자세한 내용은 표 2를 참조하세요.
- 가용성
도쿄 데이터 센터의 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 사용해 보기
샘플로 실험해 보세요:
- 토큰 한도
컨텍스트 창 길이(입력 + 출력): 4,096
- 지원되는 자연어
영어, 일본어
- 인스트럭션 튜닝 정보
Granite 모델 제품군은 인터넷, 학술, 코드, 법률, 금융 등 5가지 영역의 기업 관련 데이터 세트를 학습합니다. granite-8b-japanese 모델은 1조 개의 영어 토큰과 0.5 개의 일본어 텍스트로 사전 학습되었습니다.
- 모델 아키텍처
해독기
- License
-
IBM 파운데이션 모델은 IBM Cloud 서비스의 일부로 간주됩니다. IBM 면책과 관련된 계약상 보호에 대한 자세한 내용은 IBM 고객 관계 계약 및 IBM watsonx.ai 서비스 설명을 참조하세요.
- 자세히 알아보기
다음 리소스를 읽어보세요:
granite-20b-multilingual
IBM Granite 제품군의 foundation model. ' granite-20b-multilingual ' foundation model '는 ' Granite 200억 기본 모델을 기반으로 하며 영어, 독일어, 스페인어, 프랑스어, 포르투갈어로 텍스트를 이해하고 생성하도록 학습되었습니다.
- 사용
- 영어, 독일어, 스페인어, 프랑스어 및 포르투갈어의 폐쇄형 도메인 질문 답변, 요약, 생성, 추출 및 분류를 지원합니다.
- 크기
200억 개의 매개변수
- API 가격 책정 계층
클래스 1. 가격 책정에 대한 자세한 내용은 표 2를 참조하세요.
- 가용성
멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 사용해 보기
- 토큰 한도
컨텍스트 창 길이(입력 + 출력): 8,192
- 지원되는 자연어
영어, 독일어, 스페인어, 프랑스어, 포르투갈어
- 인스트럭션 튜닝 정보
Granite 모델 제품군은 인터넷, 학술, 코드, 법률, 금융 등 5가지 영역의 기업 관련 데이터 세트를 학습합니다. 모델 학습에 사용되는 데이터는 먼저 IBM 데이터 거버넌스 검토를 거치고, IBM HAP 필터를 통해 혐오, 욕설, 욕설로 플래그가 지정된 텍스트를 필터링합니다. IBM 사용된 교육 방법과 데이터 세트에 대한 정보를 공유합니다.
- 모델 아키텍처
해독기
- License
-
IBM 파운데이션 모델은 IBM Cloud 서비스의 일부로 간주됩니다. IBM 면책과 관련된 계약상 보호에 대한 자세한 내용은 IBM 고객 관계 계약 및 IBM watsonx.ai 서비스 설명을 참조하세요.
- 자세히 알아보기
다음 리소스를 읽어보세요:
granite-3-8b-base
Granite 8b foundation model IBM Granite 모델 제품군에 속하는 기본 모델입니다. 이 모델은 다양한 도메인에서 공급되는 10조 개의 토큰으로 학습한 다음, 특정 작업에서 모델의 성능을 향상시키기 위해 신중하게 선택한 2조 개의 고품질 데이터로 추가 학습을 거칩니다.
- 사용
Granite 3.0 기본 foundation model 특정 애플리케이션 시나리오에 맞는 특수 모델을 만들기 위해 사용자 지정할 수 있는 기본 모델입니다.
- 사용 가능한 크기
80억 개의 매개변수
- API 가격 책정 계층
가격 책정에 대한 자세한 내용은 표 4를 참조하세요.
- 가용성
전용 사용을 위해 온디맨드 방식으로 배포하세요.
- 토큰 한도
컨텍스트 창 길이(입력 + 출력): 4,096
- 지원되는 자연어
영어, 독일어, 스페인어, 프랑스어, 일본어, 포르투갈어, 아랍어, 체코어, 이탈리아어, 한국어, 네덜란드어, 중국어(간체).
- 모델 아키텍처
해독기
- License
-
IBM 파운데이션 모델은 IBM Cloud 서비스의 일부로 간주됩니다. IBM 면책과 관련된 계약상 보호에 대한 자세한 내용은 IBM 고객 관계 계약 및 IBM watsonx.ai 서비스 설명을 참조하세요.
- 자세히 알아보기
다음 리소스를 읽어보세요:
Granite Instruct 모델
' Granite Instruct ' 파운데이션 모델은 IBM Granite 모델군에 속합니다. granite-3-2b-instruct 및 granite-3-8b-instruct 기초 모델은 요약, 생성, 코딩 등과 같은 작업을 위한 3세대 인스트럭트 조정 언어 모델입니다. 기본 모델은 GPT 스타일의 디코더 전용 아키텍처를 채택하고 있으며, IBM 연구 및 오픈 커뮤니티의 혁신이 더해졌습니다.
- 사용
Granite Instruct 기초 모델은 요약, 문제 해결, 텍스트 번역, 추론, 코드 작업, 함수 호출 등과 같은 지침을 따르는 작업에 탁월하도록 설계되었습니다.
- 사용 가능한 크기
- 20억 개의 매개변수
- 80억 개의 매개변수
- API 가격 책정 계층
- 2b: 클래스 C1
- 8b: 클래스 12
가격 책정에 대한 자세한 내용은 표 2를 참조하세요.
- 가용성
멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 사용해 보기
샘플로 실험해 보세요:
- 토큰 한도
컨텍스트 창 길이(입력 + 출력)
- 2b: 131,072
- 8b: 131,072
요청당 foundation model 생성되는 토큰을 의미하는 최대 신규 토큰은 8,192개로 제한됩니다.
- 지원되는 자연어
영어, 독일어, 스페인어, 프랑스어, 일본어, 포르투갈어, 아랍어, 체코어, 이탈리아어, 한국어, 네덜란드어, 중국어(간체).
- 지원되는 프로그래밍 언어
' Granite Instruct ' 모델은 116개 프로그래밍 언어로 작성된 코드로 학습됩니다.
- 인스트럭션 튜닝 정보
' Granite Instruct ' 모델은 허가된 오픈 소스 및 독점 명령어 데이터의 조합으로 12조 개가 넘는 토큰으로 학습된 미세 조정된 ' Granite Instruct ' 기본 모델입니다.
- 모델 아키텍처
해독기
- License
-
IBM 파운데이션 모델은 IBM Cloud 서비스의 일부로 간주됩니다. IBM 면책과 관련된 계약상 보호에 대한 자세한 내용은 IBM 고객 관계 계약 및 IBM watsonx.ai 서비스 설명을 참조하세요.
- 자세히 알아보기
다음 리소스를 읽어보세요:
Granite Guardian 모델
' Granite Guardian ' 파운데이션 모델은 IBM Granite 모델군에 속합니다. granite-guardian-3-2b 및 granite-guardian-3-8b 기초 모델은 프롬프트 및 응답에서 위험을 감지하도록 설계된 3.0 세대 ' Granite Instruct ' 모델입니다. 기초 모델은 AI 위험 아틀라스의 여러 주요 차원에 따른 위험 탐지를 지원합니다.
- 사용
Granite Guardian 기초 모델은 프롬프트 텍스트 또는 모델 응답(가드레일 역할) 내에서 유해 관련 위험을 감지하도록 설계되었으며, 검색 증강 생성 사용 사례에서 문맥 관련성(검색된 문맥이 쿼리와 관련이 있는지 여부), 근거성(응답이 정확하고 제공된 맥락에 충실한지 여부), 답변 관련성(응답이 사용자의 쿼리를 직접적으로 다루는지 여부)을 평가하는 데 사용할 수 있습니다.
- 사용 가능한 크기
- 20억 개의 매개변수
- 80억 개의 매개변수
- API 가격 책정 계층
- 2b: 클래스 C1
- 8b: 클래스 12
가격 책정에 대한 자세한 내용은 표 2를 참조하세요.
- 가용성
멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 사용해 보기
샘플로 실험해 보세요:
- 토큰 한도
컨텍스트 창 길이(입력 + 출력)
- 2b: 8,192
- 8b: 8,192
- 지원되는 자연어
영어
- 인스트럭션 튜닝 정보
' Granite Guardian ' 모델은 사람의 주석이 달린 데이터와 합성 데이터의 조합으로 학습된 미세 조정된 ' Granite Instruct ' 모델입니다.
- 모델 아키텍처
해독기
- License
-
IBM 파운데이션 모델은 IBM Cloud 서비스의 일부로 간주됩니다. IBM 면책과 관련된 계약상 보호에 대한 자세한 내용은 IBM 고객 관계 계약 및 IBM watsonx.ai 서비스 설명을 참조하세요.
- 자세히 알아보기
다음 리소스를 읽어보세요:
Granite Code 모델
IBM Granite 제품군의 파운데이션 모델. ' Granite Code 기반 모델은 사람의 명령어와 오픈소스 합성으로 생성된 코드 명령어 데이터셋을 결합한 Git 커밋을 사용하여 미세 조정된 명령어 추종 모델입니다.
granite-8b-code-instruct v2.0.0 foundation model 컨텍스트 창 길이를 늘려 더 큰 프롬프트를 처리할 수 있습니다.
- 사용
다음 ' Granite Code ' 기초 모델은 코딩 관련 지침에 응답하도록 설계되었으며 코딩 어시스턴트를 구축하는 데 사용할 수 있습니다:
- granite-3b-code-instruct
- granite-8b-code-instruct
- granite-20b-code-instruct
- granite-34b-code-instruct
다음 ' Granite Code 기초 모델은 텍스트-SQL 생성 작업을 위해 설계된 granite-20b-code-base foundation model 인스트럭션 조정 버전입니다.
- granite-20b-code-base-schema-linking
- granite-20b-code-base-sql-gen
- 사용 가능한 크기
- 30억 개의 매개변수
- 80억 개의 매개변수
- 200억 개의 매개변수
- 340억 개의 매개변수
- API 가격 책정 계층
클래스 1.
코드 모델에 대한 자세한 가격 정보는 표 2를 참조하세요.
텍스트-SQL 모델에 대한 가격 세부 정보는 표 4를 참조하세요.
- 가용성
Granite Code 모델: 모델: 멀티테넌트 하드웨어에 배포된 IBM 제공.
텍스트-SQL 코드 모델: 전용 사용을 위해 온디맨드 방식으로 배포하세요.
- 사용해 보기
샘플로 실험해 보세요:
- 토큰 한도
컨텍스트 창 길이(입력 + 출력)
granite-3b-code-instruct: 128,000
요청당 foundation model 생성되는 토큰을 의미하는 최대 신규 토큰은 8,192개로 제한됩니다.
granite-8b-code-instruct: 128,000
요청당 foundation model 생성되는 토큰을 의미하는 최대 신규 토큰은 8,192개로 제한됩니다.
granite-20b-code-instruct: 8,192
요청당 foundation model 생성되는 토큰을 의미하는 최대 신규 토큰은 4,096개로 제한됩니다.
granite-20b-code-base-schema-linking: 8,192
granite-20b-code-base-sql-gen: 8,192
granite-34b-code-instruct: 8,192
- 지원되는 자연어
영어
- 지원되는 프로그래밍 언어
' Granite Code ' 파운데이션 모델은 Python, Javascript, Java, C++, Go, Rust 등 116개의 프로그래밍 언어를 지원합니다. 전체 목록은 IBM 파운데이션 모델을 참조하세요.
- 인스트럭션 튜닝 정보
이 모델은 논리적 추론과 문제 해결 능력 등 교육에 대한 추종 능력을 향상시키기 위해 ' Granite Code 기본 모델에서 허가된 교육 데이터를 조합하여 미세 조정했습니다.
- 모델 아키텍처
해독기
- License
-
IBM 파운데이션 모델은 IBM Cloud 서비스의 일부로 간주됩니다. IBM 면책과 관련된 계약상 보호에 대한 자세한 내용은 IBM 고객 관계 계약 및 IBM watsonx.ai 서비스 설명을 참조하세요.
- 자세히 알아보기
다음 리소스를 읽어보세요:
jais-13b-chat
jais-13b-chat foundation model 대화형 작업을 지원하도록 미세 조정된 아랍어와 영어의 이중 언어 대규모 언어 모델입니다.
- 사용
- 아랍어로 된 Q&A, 요약, 분류, 생성, 추출 및 번역을 지원합니다.
- 크기
- 130억 개의 매개변수
- API 가격 책정 계층
- 클래스 2. 가격 책정에 대한 자세한 내용은 표 3을 참조하세요.
- 가용성
- 프랑크푸르트 데이터 센터의 멀티테넌트 하드웨어에 구축된 IBM 제공합니다.
- 사용해 보기
- 샘플 프롬프트: 아랍어 채팅
- 토큰 한도
- 컨텍스트 창 길이(입력 + 출력): 2,048
- 지원되는 자연어
- 아랍어(현대 표준 아랍어) 및 영어
- 인스트럭션 튜닝 정보
- Jais-13b-chat 1,160억 개의 아랍어 토큰과 2,790억 개의 영어 토큰으로 학습된 foundation model Jais-13b 모델을 기반으로 합니다. Jais-13b-chat 4백만 개의 아랍어와 6백만 개의 영어 프롬프트 및 응답 쌍으로 엄선된 세트로 미세 조정되어 있습니다.
- 모델 아키텍처
- 해독기
- License
- Apache 2.0 라이선스
- 자세히 알아보기
- 다음 리소스를 읽어보세요:
Llama 3.3 70B Instruct
' Meta Llama 3.3 다국어 대규모 언어 모델(LLM)은 사전 학습 및 인스트럭션 튜닝된 생성 모델(텍스트 입력/텍스트 출력)로 700억 개의 매개변수가 있습니다.
llama-3-3-70b-instruct 인기 있는 Llama 3.1 70B 인스트럭트 foundation model 개정판입니다. Llama 3.3 foundation model 코딩, 단계별 추론 및 도구 호출에 더 효과적입니다. 크기가 더 작음에도 불구하고 Llama 3.3 모델의 성능은 Llama 3.1 405b 모델과 비슷하여 개발자에게 훌륭한 선택이 될 수 있습니다.
- 사용
챗봇처럼 다국어 대화창 출력을 생성합니다. 모델별 프롬프트 형식을 사용합니다.
- 사용 가능한 크기
700억 개의 매개변수
- API 가격 책정 계층
클래스 2
가격 책정에 대한 자세한 내용은 표 3을 참조하세요.
- 가용성
정량화된 버전의 모델은 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
두 가지 버전의 모델을 온디맨드 방식으로 배포하여 전용으로 사용할 수 있습니다:
- llama-3-3-70b-instruct-hf: 메타의 Hugging Face 원본 버전이 게시되었습니다.
- llama-3-3-70b-instruct: 4개가 아닌 2개의 GPU로 배포할 수 있는 정량화된 버전의 모델입니다.
- 사용해 보기
샘플로 실험해 보세요:
- 토큰 한도
컨텍스트 창 길이(입력 + 출력): 131,072
- 지원되는 자연어
영어, 독일어, 프랑스어, 이탈리아어, 포르투갈어, 힌디어, 스페인어, 태국어
- 인스트럭션 튜닝 정보
Llama 3.3은 공개적으로 사용 가능한 소스에서 15조 개의 토큰으로 사전 학습되었습니다. 미세 조정 데이터에는 공개적으로 사용 가능한 인스트럭션 데이터 세트와 합성으로 생성된 2,500만 개 이상의 예제가 포함되어 있습니다.
- 모델 아키텍처
디코더 전용
- License
- 자세히 알아보기
다음 리소스를 읽어보세요:
Llama 3.2 Instruct
' Meta Llama 32 파운데이션 모델 컬렉션은 ' Meta'에서 제공합니다. llama-3-2-1b-instruct 및 llama-3-2-3b-instruct 모델은 모바일 기기에 장착할 수 있는 가장 작은 Llama 3.2 모델입니다. 이 모델은 고도로 개인화된 온디바이스 상담원을 구축하는 데 사용할 수 있는 가벼운 텍스트 전용 모델입니다.
예를 들어 모델에게 최근 받은 메시지 10개를 요약해 달라고 요청하거나 다음 달 일정을 요약해 달라고 요청할 수 있습니다.
- 사용
챗봇처럼 대화창 출력을 생성합니다. 모델별 프롬프트 형식을 사용합니다. 크기가 작고 컴퓨팅 리소스 및 메모리 요구 사항이 크지 않아 모바일 및 기타 에지 디바이스를 포함한 대부분의 하드웨어에서 로컬로 실행할 수 있는 Llama 32 Instruct 모델입니다.
- 사용 가능한 크기
- 10억 개의 매개변수
- 30억 개의 매개변수
- API 가격 책정 계층
- 1b: 클래스 C1
- 3b: 클래스 8
가격 책정에 대한 자세한 내용은 표 3을 참조하세요.
가격 책정에 대한 자세한 내용은 생성 AI 자산에 대한 청구 세부 정보를 참조하세요.
- 가용성
- 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 사용해 보기
- 토큰 한도
컨텍스트 창 길이(입력 + 출력)
- 1b: 131,072
- 3b: 131,072
요청당 재단 모델에서 생성되는 토큰을 의미하는 최대 신규 토큰은 8,192개로 제한됩니다.
- 지원되는 자연어
영어, 독일어, 프랑스어, 이탈리아어, 포르투갈어, 힌디어, 스페인어, 태국어
- 인스트럭션 튜닝 정보
공개적으로 사용 가능한 소스로부터 최대 9조 개의 토큰 데이터를 사전 학습합니다. 모델 개발의 사전 학습 단계에 Llama 3.1 8B 및 70B 모델의 로짓이 통합되었으며, 이 대규모 모델의 출력(로짓)이 토큰 수준의 타깃으로 사용되었습니다. 사후 학습에서는 감독 미세 조정(SFT), 거부 샘플링(RS), 직접 선호도 최적화(DPO)를 사용하여 사전 학습된 모델을 정렬합니다.
- 모델 아키텍처
디코더 전용
- License
- 자세히 알아보기
다음 리소스를 읽어보세요:
Llama 3.2 Vision Instruct
' Meta Llama 32 파운데이션 모델 컬렉션은 ' Meta'에서 제공합니다. llama-3-2-11b-vision-instruct 및 llama-3-2-90b-vision-instruct 모델은 문서 수준의 이해, 차트 및 그래프 해석, 이미지 캡션과 같은 이미지 인, 텍스트 아웃 사용 사례를 위해 제작되었습니다.
- 사용
챗봇처럼 대화 출력을 생성하고 분류, 물체 감지 및 식별, 이미지-텍스트 변환(필기 포함), 상황별 Q&A, 데이터 추출 및 처리, 이미지 비교 및 개인 시각 지원 등의 컴퓨터 비전 작업을 수행할 수 있습니다. 모델별 프롬프트 형식을 사용합니다.
- 사용 가능한 크기
- 110억 개의 매개변수
- 900억 개의 매개변수
- API 가격 책정 계층
- 11b: 클래스 9
- 90b: 클래스 10
가격 책정에 대한 자세한 내용은 표 3을 참조하세요.
- 가용성
멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 사용해 보기
- 토큰 한도
컨텍스트 창 길이(입력 + 출력)
- 11b: 131,072
- 90b: 131,072
요청당 재단 모델에서 생성되는 토큰을 의미하는 최대 신규 토큰은 8,192개로 제한됩니다. 모델에 제출하는 이미지에 대해 계산되는 토큰은 컨텍스트 창 길이에 포함되지 않습니다.
- 지원되는 자연어
영어, 독일어, 프랑스어, 이탈리아어, 포르투갈어, 힌디어, 스페인어, 태국어(텍스트만 입력 가능)를 지원합니다. 입력에 이미지가 포함된 경우에만 영어로 표시됩니다.
- 인스트럭션 튜닝 정보
Llama 3.2 Vision 모델은 핵심 대규모 언어 모델 가중치와는 별도로 학습된 이미지 추론 어댑터 가중치를 사용합니다. 이렇게 분리하면 모델에 대한 일반적인 지식이 보존되고 사전 학습 시간과 실행 시간 모두에서 모델의 효율성이 높아집니다. ' Llama 3.2 Vision ' 모델은 60억 개의 이미지와 텍스트 쌍으로 사전 학습되었기 때문에 Llama 3.1 70B foundation model 사전 학습하는 데 필요한 것보다 훨씬 적은 컴퓨팅 리소스가 필요했습니다. 또한 Llama 3.2 모델은 입력이 필요할 때만 이미지 추론에 더 많은 컴퓨팅 리소스를 활용할 수 있기 때문에 효율적으로 실행됩니다.
- 모델 아키텍처
디코더 전용
- License
- 자세히 알아보기
다음 리소스를 읽어보세요:
llama-guard-3-11b-vision
' Meta Llama 32 파운데이션 모델 컬렉션은 ' Meta'에서 제공합니다. llama-guard-3-11b-vision 텍스트 전용 Llama-Guard-3 모델을 멀티 모드로 발전시킨 것입니다. 이 모델은 사용자 입력(프롬프트 분류)의 이미지 및 텍스트 콘텐츠를 안전 또는 안전하지 않은 것으로 분류하는 데 사용할 수 있습니다.
- 사용
이 모델을 사용하여 이미지-텍스트 프롬프트에서 이미지와 텍스트의 안전성을 확인합니다.
- 크기
- 110억 개의 매개변수
- API 가격 책정 계층
클래스 9. 가격 책정에 대한 자세한 내용은 표 3을 참조하세요.
- 가용성
멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 사용해 보기
- 토큰 한도
컨텍스트 창 길이(입력 + 출력): 131,072
요청당 재단 모델에서 생성되는 토큰을 의미하는 최대 신규 토큰은 8,192개로 제한됩니다. 모델에 제출하는 이미지에 대해 계산되는 토큰은 컨텍스트 창 길이에 포함되지 않습니다.
- 지원되는 자연어
영어, 독일어, 프랑스어, 이탈리아어, 포르투갈어, 힌디어, 스페인어, 태국어(텍스트만 입력 가능)를 지원합니다. 입력에 이미지가 포함된 경우에만 영어로 표시됩니다.
- 인스트럭션 튜닝 정보
콘텐츠 안전 분류를 위해 미세 조정된 사전 학습된 모델입니다. 안전하지 않은 것으로 분류되는 콘텐츠 유형에 대한 자세한 내용은 모델 카드를 참조하세요.
- 모델 아키텍처
디코더 전용
- License
- 자세히 알아보기
다음 리소스를 읽어보세요:
Llama 3.1 8b
' Meta Llama 3.1 파운데이션 모델 컬렉션은 ' Meta'에서 제공합니다. Llama 3.1 기본 foundation model 도구 사용을 지원하는 다국어 모델이며 전반적으로 더 강력한 추론 기능을 갖추고 있습니다.
- 사용
- 긴 형식의 텍스트 요약과 다국어 대화 에이전트 또는 코딩 도우미에 사용하세요.
- 사용 가능한 크기
- 80억 개의 매개변수
- API 가격 책정 계층
- 가격 책정에 대한 자세한 내용은 표 5를 참조하세요.
- 가용성
- 전용 사용을 위해 온디맨드 방식으로 배포하세요.
- 토큰 한도
- 컨텍스트 창 길이(입력 + 출력): 131,072
- 지원되는 자연어
- 영어, 독일어, 프랑스어, 이탈리아어, 포르투갈어, 힌디어, 스페인어, 태국어
- 모델 아키텍처
- 디코더 전용
- License
- 자세히 알아보기
- 다음 리소스를 읽어보세요:
Llama 3.1 Instruct
' Meta Llama 3.1 파운데이션 모델 컬렉션은 ' Meta'에서 제공합니다. Llama 3.1 기초 모델은 다국어 대화 사용 사례에 최적화된 사전 학습 및 인스트럭션 조정된 텍스트 전용 생성 모델입니다. 이 모델은 인간의 피드백과 함께 감독된 미세 조정 및 강화 학습을 사용하여 유용성과 안전성에 대한 인간의 선호도에 맞춰 조정합니다.
llama-3-405b-instruct 모델은 현재까지 ' Meta'의 가장 큰 오픈소스 foundation model. 이 foundation model 합성 데이터 생성기, 훈련 후 데이터 순위 판정자 또는 추론 친화적인 파생 모델에서 전문 역량을 향상시킬 수 있는 모델 교사/감독자로도 사용할 수 있습니다.
- 사용
챗봇처럼 대화창 출력을 생성합니다. 모델별 프롬프트 형식을 사용합니다.
- 사용 가능한 크기
- 80억 개의 매개변수
- 700억 개의 매개변수
- 4,050억 개의 매개변수
- API 가격 책정 계층
- 8b: 클래스 1
- 70b: 클래스 2
- 405b: 클래스 3(입력), 클래스 7(출력)
- 가용성
- 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 전용 사용을 위해 온디맨드 방식으로 llama-3-1-8b-instruct foundation model 배포합니다.
- 사용해 보기
- 토큰 한도
컨텍스트 창 길이(입력 + 출력)
8b 및 70b: 131,072명
405b: 16,384
- 이 모델은 131,072의 컨텍스트 창 길이를 지원하지만, 모델이 응답을 생성하는 데 걸리는 시간을 줄이기 위해 창을 16,384로 제한합니다.
요청당 재단 모델에서 생성되는 토큰을 의미하는 최대 신규 토큰은 4,096개로 제한됩니다.
- 지원되는 자연어
영어, 독일어, 프랑스어, 이탈리아어, 포르투갈어, 힌디어, 스페인어, 태국어
- 인스트럭션 튜닝 정보
Llama 3.1은 공개적으로 사용 가능한 소스에서 15조 개의 토큰으로 사전 학습되었습니다. 미세 조정 데이터에는 공개적으로 사용 가능한 인스트럭션 데이터 세트와 합성으로 생성된 2,500만 개 이상의 예제가 포함되어 있습니다.
- 모델 아키텍처
디코더 전용
- License
- 자세히 알아보기
다음 리소스를 읽어보세요:
Llama 3 Instruct
' Meta Llama 3 파운데이션 모델 제품군은 ' Meta Llama 3 구축되고 Hugging Face' Meta '에서 제공하는 액세스 가능한 개방형 대형 언어 모델입니다. Llama 3 기초 모델은 다양한 사용 사례를 지원할 수 있는 인스트럭션이 미세 조정된 언어 모델입니다.
- 사용
챗봇처럼 대화창 출력을 생성합니다.
- 사용 가능한 크기
- 80억 개의 매개변수
- 700억 개의 매개변수
- API 가격 책정 계층
- 8b: 클래스 1
- 70b: 클래스 2
- 가용성
- 멀티테넌트 하드웨어에 배포된 IBM 제공합니다.
- 전용 사용을 위해 온디맨드 방식으로 배포하세요.
- 사용해 보기
- 토큰 한도
컨텍스트 창 길이(입력 + 출력)
- 8b: 8,192
- 70b: 8,192
참고: 요청당 재단 모델에서 생성되는 토큰을 의미하는 최대 신규 토큰은 4,096개로 제한됩니다.
- 지원되는 자연어
영어
- 인스트럭션 튜닝 정보
Llama 3 잘못된 거부율을 줄이고, 정렬을 개선하며, foundation model 출력의 다양성을 높이는 사후 훈련 절차가 개선된 것이 특징입니다. 그 결과 추론, 코드 생성 및 명령어 추종 기능이 향상됩니다. Llama 3 더 많은 훈련 토큰15T이 있어 언어 이해력이 향상됩니다.
- 모델 아키텍처
디코더 전용
- License
- 자세히 알아보기
다음 리소스를 읽어보세요:
Llama 2 Chat
Llama 2 Chat 모델은 Hugging Face' Meta '에서 제공합니다. 미세 조정된 모델은 채팅 생성에 유용합니다. 이 모델은 공개적으로 사용 가능한 온라인 데이터로 사전 학습되고 사람의 피드백을 통해 강화 학습을 사용하여 미세 조정됩니다.
130억 개 매개변수 또는 700억 개 매개변수 버전의 모델을 사용하도록 선택할 수 있습니다.
- 사용
- 챗봇처럼 대화창 출력을 생성합니다. 모델별 프롬프트 형식을 사용합니다.
- 크기
- 130억 개의 매개변수
- 700억 개의 매개변수
- API 가격 책정 계층
- 클래스 1. 가격 책정에 대한 자세한 내용은 표 3 및 표 5를 참조하세요.
- 가용성
- 13b
- 멀티테넌트 하드웨어에 배포된 IBM 제공
- 전용 사용을 위해 온디맨드 배포
- 70b
- 전용 사용을 위해 온디맨드 배포
- 13b
- 사용해 보기
- 샘플로 실험해 보세요:
- 토큰 한도
- 컨텍스트 창 길이(입력 + 출력)
- 13b: 4,096
- 70b: 4,096
- 지원되는 자연어
- 영어
- 인스트럭션 튜닝 정보
- Llama 2 공개적으로 사용 가능한 소스에서 2조 개의 토큰으로 사전 학습되었습니다. 미세 조정 데이터에는 공개적으로 사용 가능한 지침 데이터 세트와 사람이 주석을 단 백만 개 이상의 새로운 예제가 포함되어 있습니다.
- 모델 아키텍처
- 디코더 전용
- License
- License
- 자세히 알아보기
- 다음 리소스를 읽어보세요:
mistral-large
Mistral Large 2 ' Mistral AI'에서 개발한 대형 언어 모델입니다. mistral-large foundation model 영어, 프랑스어, 스페인어, 독일어, 이탈리아어의 문법과 문화적 맥락을 유창하게 구사하고 이해합니다. foundation model 수십 개의 다른 언어도 이해할 수 있습니다. 이 모델에는 큰 컨텍스트 창이 있으므로 검색 증강 생성(RAG) 사용 사례를 위해 제출하는 프롬프트에 컨텍스트 정보로 대용량 문서를 추가할 수 있습니다. mistral-large foundation model 코드 생성, 검토, 주석 달기, 함수 호출과 같은 프로그래밍 작업에 효과적이며 JSON 형식의 결과를 생성할 수 있습니다.
더 자세한 시작하기 정보는 ' Mistral AI ' 웹사이트의 watsonx.ai 페이지를 참조하세요.
- 사용
텍스트 이해, 변환, 코드 생성 등 복잡한 다국어 추론 작업에 적합합니다. 모델의 컨텍스트 창이 크기 때문에 모델에 메시지를 표시할 때 최대 토큰 매개변수를 사용하여 토큰 제한을 지정하세요.
- API 가격 책정 계층
Mistral Large 모델의 가격은 승수로 책정되지 않습니다. 다음과 같은 특별 가격 계층이 사용됩니다:
- 입력 계층: Mistral Large 입력
- 출력 계층: Mistral Large
가격 책정에 대한 자세한 내용은 표 3을 참조하세요.
- 사용해 보기
- 토큰 한도
컨텍스트 창 길이(입력 + 출력): 128,000
참고:
- 이 모델은 128,000개의 컨텍스트 창 길이를 지원하지만, 모델이 응답을 생성하는 데 걸리는 시간을 줄이기 위해 창을 32,768개로 제한합니다.
- 요청당 foundation model 생성되는 토큰을 의미하는 최대 신규 토큰은 16,384개로 제한됩니다.
- 지원되는 자연어
영어, 프랑스어, 독일어, 이탈리아어, 스페인어, 중국어, 일본어, 한국어, 포르투갈어, 네덜란드어, 폴란드어 및 기타 수십 개의 언어가 지원됩니다.
- 지원되는 프로그래밍 언어
mistral-large 모델은 Python, 자바, C, C++, JavaScript,, 배쉬, 스위프트, Fortran 등 80개 이상의 프로그래밍 언어에 대해 학습을 마쳤습니다.
- 인스트럭션 튜닝 정보
mistral-large foundation model 다양한 도메인의 텍스트, 코드베이스, 수학 데이터 등 다양한 데이터 세트에 대해 사전 학습을 거쳤습니다.
- 모델 아키텍처
디코더 전용
- License
면책 한도와 관련된 계약상 보호에 관한 정보를 포함한 이용약관은 이용약관을 참조하세요.
- 자세히 알아보기
다음 리소스를 읽어보세요:
mistral-nemo-instruct-2407
mistral-nemo-instruct-2407 기반 모델은 ' Mistral AI '의 120억 개의 파라미터 모델로, ' NVIDIA'와 협력하여 구축되었습니다. Mistral NeMo '은 추론, 세계 지식, 코딩 정확도에서 특히 비슷한 크기의 모델에 비해 매우 뛰어난 성능을 보입니다.
- 사용
- ' Mistral NeMo ' 모델은 다국어이며 함수 호출에 대해 학습됩니다.
- 크기
- 120억 개의 매개변수
- API 가격 책정 계층
- 가격 책정에 대한 자세한 내용은 표 5를 참조하세요.
- 가용성
- 전용 사용을 위해 온디맨드 방식으로 배포하세요.
- 토큰 한도
- 컨텍스트 창 길이(입력 + 출력): 131,072
- 지원되는 자연어
- 여러 언어를 지원하며 특히 영어, 프랑스어, 독일어, 스페인어, 이탈리아어, 포르투갈어, 중국어, 일본어, 한국어, 아랍어, 힌디어에 강합니다.
- 지원되는 프로그래밍 언어
- ' Mistral NeMo ' 모델은 여러 프로그래밍 언어에 대해 학습되었습니다.
- 인스트럭션 튜닝 정보
- Mistral NeMo 고급 미세 조정 및 정렬 단계를 거쳤습니다.
- License
- Apache 2.0 라이선스
- 자세히 알아보기
- 다음 리소스를 읽어보세요:
mixtral-8x7b-base
mixtral-8x7b-base foundation model ' Mistral AI'에서 제공합니다. mixtral-8x7b-base foundation model 모델 파라미터를 그룹화한 다음 각 토큰에 대해 토큰을 처리할 그룹의 하위 집합( 전문가라고 함)을 선택하는 생성적 희소 혼합 전문가 네트워크입니다. 결과적으로 각 토큰은 470억 개의 파라미터에 액세스할 수 있지만, 추론에는 130억 개의 활성 파라미터만 사용하므로 비용과 지연 시간이 줄어듭니다.
- 사용
분류, 요약, 생성, 코드 생성 및 변환, 언어 번역 등 다양한 작업에 적합합니다.
- 크기
46.46.7 개의 매개변수
- API 가격 책정 계층
가격 책정에 대한 자세한 내용은 표 5를 참조하세요.
- 가용성
전용 사용을 위해 온디맨드 방식으로 배포하세요.
- 토큰 한도
컨텍스트 창 길이(입력 + 출력): 32,768
참고: 요청당 foundation model 생성되는 토큰을 의미하는 최대 신규 토큰은 16,384개로 제한됩니다.
- 지원되는 자연어
영어, 프랑스어, 독일어, 이탈리아어, 스페인어
- 모델 아키텍처
디코더 전용
- License
- 자세히 알아보기
다음 리소스를 읽어보세요:
mixtral-8x7b-instruct-v01
mixtral-8x7b-instruct-v01 foundation model ' Mistral AI'에서 제공합니다. mixtral-8x7b-instruct-v01 foundation model 사전 학습된 생성적 희소 전문가 혼합 네트워크이며, 모델 파라미터를 그룹화한 다음 각 토큰에 대해 토큰을 처리할 그룹의 하위 집합( 전문가라고 함)을 선택합니다. 결과적으로 각 토큰은 470억 개의 파라미터에 액세스할 수 있지만, 추론에는 130억 개의 활성 파라미터만 사용하므로 비용과 지연 시간이 줄어듭니다.
- 사용
분류, 요약, 생성, 코드 생성 및 변환, 언어 번역 등 다양한 작업에 적합합니다. 모델의 컨텍스트 창이 비정상적으로 크기 때문에 모델에 메시지를 표시할 때 최대 토큰 매개 변수를 사용하여 토큰 제한을 지정하세요.
- 크기
46.46.7 개의 매개변수
- API 가격 책정 계층
클래스 1. 가격 책정에 대한 자세한 내용은 표 3을 참조하세요.
- 사용해 보기
- 토큰 한도
컨텍스트 창 길이(입력 + 출력): 32,768
참고: 요청당 foundation model 생성되는 토큰을 의미하는 최대 신규 토큰은 16,384개로 제한됩니다.
- 지원되는 자연어
영어, 프랑스어, 독일어, 이탈리아어, 스페인어
- 인스트럭션 튜닝 정보
Mixtral foundation model 인터넷 데이터에 대해 사전 학습됩니다. Mixtral 8x7B Instruct 스트럭트 foundation model 지침을 따르도록 미세 조정되었습니다.
- 모델 아키텍처
디코더 전용
- License
- 자세히 알아보기
다음 리소스를 읽어보세요:
mt0-xxl-13b
mt0-xxl-13b 모델은 Hugging Face BigScience 제공합니다. 이 모델은 영어, 영어 이외의 언어 및 다국어 프롬프트가 포함된 언어 생성 및 번역 작업을 지원하도록 최적화되어 있습니다.
사용법: 일반적으로 ' zero- ' 또는 ' few-shot 프롬프트와 함께 사용합니다. 번역 작업의 경우 마침표를 넣어 번역하려는 텍스트의 끝을 표시하거나 모델이 문장을 번역하지 않고 계속 진행할 수 있습니다.
- 크기
- 130억 개의 매개변수
- API 가격 책정 계층
- 클래스 2. 가격 책정에 대한 자세한 내용은 표 5를 참조하세요.
- 가용성
- 전용 사용을 위해 온디맨드 방식으로 배포됩니다.
- 사용해 보기
- 다음 샘플로 실험해 보세요:
- 지원되는 자연어
- 다국어
- 토큰 한도
- 컨텍스트 창 길이(입력 + 출력): 4,096
- 지원되는 자연어
- 이 모델은 108개 언어의 다국어 데이터로 사전 학습되고 46개 언어의 다국어 데이터로 미세 조정되어 다국어 작업을 수행할 수 있습니다.
- 인스트럭션 튜닝 정보
- BigScience 코드와 데이터 세트에 대한 세부 정보를 게시합니다.
- 모델 아키텍처
- 인코더-디코더
- License
- Apache 2.0 라이선스
- 자세히 알아보기
- 다음 리소스를 읽어보세요:
pixtral-12b
픽스트랄 12B 미스트랄 알에서 개발한 멀티모달 모델입니다. pixtral-12b foundation model 자연 이미지와 문서를 모두 이해하도록 학습되어 자연 해상도와 종횡비로 이미지를 수집할 수 있으며, 이미지 처리에 사용되는 토큰 수에 대한 유연성을 제공합니다. foundation model 긴 컨텍스트 창에서 여러 이미지를 지원합니다. 이 모델은 이미지 입력, 텍스트 출력 멀티모달 작업에 효과적이며 지시 사항을 따르는 데 탁월합니다.
- 사용
- 차트 및 그림 이해, 문서 질문 답변, 멀티모달 추론, 지시 사항 따르기
- 크기
- 120억 개의 매개변수
- API 가격 책정 계층
- 클래스 9. 가격 책정에 대한 자세한 내용은 표 3을 참조하세요.
가용성
- 사용해 보기
- 토큰 한도
컨텍스트 창 길이(입력 + 출력): 128,000
요청당 재단 모델에서 생성되는 토큰을 의미하는 최대 신규 토큰은 8,192개로 제한됩니다.
- 지원되는 자연어
영어
- 인스트럭션 튜닝 정보
pixtral-12b 모델은 인터리브 이미지 및 텍스트 데이터로 학습되며, 처음부터 4억 개의 파라미터 비전 인코더가 학습된 미스트랄 네모(Mistral Nemo) 모델을 기반으로 합니다.
- 모델 아키텍처
디코더 전용
- License
- 자세히 알아보기
다음 리소스를 읽어보세요:
더 이상 사용되지 않는 파운데이션 모델은 사용되지 않는 경고 아이콘( )으로 강조 표시됩니다. foundation model 철회 날짜를 포함하여 사용 중단에 대한 자세한 내용은 파운데이션 모델 수명 주기를 참조하세요.
자세히 알아보기
상위 주제: 제너레이티브 AI 솔루션 개발