이 다용도 foundation model 다양한 작업을 수행하는 데 어떻게 도움이 되는지 알아보려면 watsonx.ai IBM granite-13b-chat-v2 foundation model 추론하는 실험을 해보세요.
granite-13b-chat-v2 foundation model 비즈니스 사용자의 업무 수행을 돕기 위해 설계된 130억 개의 파라미터가 포함된 대규모 언어 모델입니다. IBM Granite 시리즈의 기초 모델은 기업 전문 데이터세트를 기반으로 학습되었기 때문에 다양한 산업의 전문 언어와 전문 용어에 익숙하며 관련 업계 지식에 기반한 콘텐츠를 보다 쉽게 생성할 수 있습니다.
버전 번호 및 인스트럭션 튜닝 세부 정보 등 granite-13b-chat-v2 foundation model 대한 자세한 내용은 모델 카드를 참조하세요.
granite-13b-chat-v2 foundation model 다음 사용 사례에 최적화되어 있습니다:
모델을 다른 유스 케이스에 사용할 수 있으므로 최상의 결과를 얻으려면 모델 매개변수 및 시스템 프롬프트를 조정해야 합니다.
granite-13b-chat-v2 와 대화
granite-13b-chat-v2 foundation model 채팅할 때 최상의 결과를 얻으려면 먼저 다음 권장 사항을 따르고 원하는 결과를 얻기 위해 실험해 보세요.
다음 표에는 대화형 작업을 위해 granite-13b-chat-v2 foundation model 메시지를 표시하는 데 권장되는 모델 매개변수가 나와 있습니다.
매개변수 | 권장 값 또는 범위 | 설명 |
---|---|---|
디코딩 | 샘플링 | 샘플링 디코딩은 챗봇의 응답에 관심과 성격을 추가하는 데 도움이 되는 보다 창의적인 텍스트를 생성합니다. 그러나 이로 인해 예측할 수 없는 출력이 발생할 수도 있습니다. 다음 모델 매개변수 세트를 사용하여 창의성의 정도를 제어할 수 있습니다. |
최상위 P: 0.85 최상위 K: 50 온도: 0.7 |
이러한 샘플링 디코딩 매개변수는 모두 함께 작동합니다. 모델은 출력에 포함할 토큰을 선택할 토큰의 서브세트를 선택합니다. 서브세트에는 가장 가능성이 높은 50개의 토큰 (상위 K) 또는 확률 점수가 합산될 때 총 점수 0.85 (상위 P) 에 도달하는 토큰이 포함됩니다. 0.7 의 상대적으로 낮은 온도 값은 토큰 점수의 차이를 증폭합니다. 그 결과 컷을 작성하는 토큰은 일반적으로 가장 가능성이 높은 토큰입니다. 반응의 창조성과 다양성을 높이려면 온도 값을 늘리십시오. 모델이 보이지 않으면 온도 값을 낮추십시오. |
|
반복 페널티 | 1.05 | 단어 또는 구문을 반복하여 챗봇이 로봇 소리를 내지 않도록 하려면 페널티를 이 낮은 값으로 설정하십시오. |
난수 시드 | – | 테스트 중이고 검정에서 요인으로 임의성을 제거하려는 경우에만 이 설정에 대한 값을 지정하십시오. 예를 들어, 온도를 변경하여 출력에 미치는 영향을 확인하려면 동일한 입력을 반복적으로 제출하고 매번 온도 값만 변경하십시오. 또한 5 와 같은 숫자를 모델 출력에도 영향을 주는 랜덤 토큰 선택을 제거할 때마다 랜덤 시드로 지정하십시오. 매번 동일한 숫자를 지정하는 한 숫자 자체는 중요하지 않습니다. |
최대 토큰 | 900 | 입력 토큰과 출력 토큰을 모두 포함하는 granite-13b-chat-v2 foundation model 최대 컨텍스트 창 길이는 8192입니다. 토큰에 대한 자세한 정보는 토큰 및 토큰화를 참조하십시오. 각 후속 질문과 함께 대화 히스토리는 모델 프롬프트의 일부로 포함됩니다. granite-13b-chat-v2 foundation model 일반적으로 최대 5턴까지 또는 입력된 토큰의 길이가 4,000토큰에 도달할 때까지 대화를 지속할 수 있습니다. |
모델 매개변수에 대한 자세한 정보는 프롬프트를 위한 모델 매개변수를 참조하십시오.
granite-13b-chat-v2 foundation model 채팅 작업을 요청하려면 다음 단계를 시도하세요:
채팅 모드의 프롬프트 랩에서 granite-13b-chat-v2 foundation model 선택합니다.
대화 모드에는 더 높은 최대 토큰 값을 포함하여 대화식 교환에 최적화된 기본 프롬프트 매개변수 값이 있습니다.
모델 매개변수 패널에서 표 1의 권장 모델 매개변수 값을 적용하십시오.
대화 모드에서 입력 텍스트를 형식화하지 않고 사용자 입력을 제출할 수 있습니다.
대화 모드는 프롬프트 텍스트에 권장되는 형식을 적용합니다. 텍스트 아이콘 ' '을 클릭하면 텍스트 서식이 어떻게 지정되는지 확인할 수 있습니다.
자유 양식 모드에서 동일한 프롬프트를 제출하려면 시스템 프롬프트를 설정해야 합니다.
지시사항을 추가하십시오. 예를 들어, 다음 지시사항 텍스트는 모델을 훈련하는 데 사용되었으므로 모델에 익숙합니다.
IBM에서 개발한 AI 언어 모델인 Granite Chat입니다. 당신은 조심스러운 조수입니다. 지시사항을 주의깊게 따르십시오. 독자 분은 도움이 되고 해롭지 않으며, 윤리적인 가이드라인을 따르고 긍정적인 행동을 장려합니다. 항상 인사말 (예: 안녕하세요, 안녕하세요, 하루, 아침, 오후, 저녁, 밤, 무슨 일이 있어요, 만나서 반갑습니다, 섭) 에 " 안녕하세요! IBM에서 작성한 Granite 대화입니다. 오늘은 어떻게 도와드릴까요? " 라고요. 다른 말을 하지 말고 대화를 시작하지 마십시오.
권장되는 시스템 프롬프트 텍스트를 복사하려면 다음 코드 스니펫에서 클립보드에 복사 아이콘을 클릭하십시오.
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation.
대화를 시작하십시오.
대화 태스크에 사용되는 프롬프트에 대한 최적의 구조는 다음과 같습니다. 프롬프트에는 다음과 같은 프롬프트 세그먼트를 식별하는 구문이 포함되어 있습니다.
<|system|>
': foundation model 시스템 프롬프트라고도 하는 명령을 식별합니다.<|user|>
: 응답할 조회 텍스트입니다.<|assistant|>
: 생성된 응답이 예상됨을 표시하는 프롬프트의 끝에 있는 큐입니다.
자유 양식 모드로 프롬프트 랩에서 프롬프트를 제출할 때 예상되는 프롬프트 형식을 사용하십시오.
<|system|> You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation. <|user|> {PROMPT} <|assistant|>
대화를 계속 진행하려면 후속 질문을 하십시오.
여러 대화 턴이 있는 대화에 사용되는 프롬프트에 대한 최적의 구조는 다음과 같습니다. 프롬프트 랩에서 자유 양식 모드로 프롬프트를 제출하는 경우 이 프롬프트 형식을 사용하십시오.
<|system|> You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation. <|user|> {ROUND1_PROMPT} <|assistant|> {MODEL_RESPONSE} <|user|> {ROUND2_PROMPT} <|assistant|>
대화 유스 케이스를 설명하는 다른 샘플 프롬프트는 샘플: granite-13b-chat-v2를 참조하십시오.
프롬프트 랩에서 대화 모드 사용에 대한 자세한 정보는 프롬프트 랩을 참조하십시오.
대화식 태스크에 대해 granite-13b-chat-v2 를 프롬프트하기 위한 팁
후속 질문에서 대명사를 피하십시오. 예를 들어, " 변수가 나타내는 것은 무엇입니까? " it 가 나타내는 것은 무엇입니까?
foundation model 테이블 형식으로 응답을 생성하도록 하려면 마크다운으로 생성된 테이블을 반환하도록 모델에 명시적으로 요청하세요.
RAG 패턴을 사용하여 사실적 응답 리턴
granite-13b-chat-v2 foundation model 사실에 입각한 답변을 반환하도록 안내하려면 검색 증강 생성 패턴을 사용하세요. 검색 기능이 보강된 생성은 모델에 제출하는 입력을 논의할 주제에 대한 실제 정보와 함께 기반으로 합니다. 자세한 정보는 RAG (Retrieval-augment Generation)를 참조하십시오.
granite-13b-chat-v2 foundation model 사실에 입각한 답변을 반환하려면 다음 권장 사항을 따르세요.
다음 표에는 검색 증강 생성 작업을 위해 granite-13b-chat-v2 foundation model 메시지를 표시하는 데 권장되는 모델 매개변수가 나와 있습니다.
매개변수 | 권장 값 또는 범위 | 설명 |
---|---|---|
디코딩 | 그리디 | 그리디 디코딩은 가장 가능성이 높은 옵션에서만 토큰을 선택하며, 이는 실제 응답을 원하는 경우에 가장 적합합니다. |
반복 페널티 | 1 | 가장 낮은 값을 사용하십시오. 목표가 사실에 입각한 답변일 때 반복은 허용 가능합니다. |
최대 토큰 | 500 | 모델은 가능한 한 완벽하게 질문에 답할 수 있습니다. 입력 토큰과 출력 토큰을 모두 포함하는 granite-13b-chat-v2 foundation model 최대 컨텍스트 창 길이는 8192라는 것을 기억하세요. 프롬프트를 접지하기 위해 추가하는 문서를 포함하여 해당 한계 내에서 입력을 유지하십시오. 토큰에 대한 자세한 정보는 토큰 및 토큰화를 참조하십시오. |
중지 기준 | < |endoftext | > | granite-13b-chat-v2 foundation model 유용한 기능은 각 응답 끝에 <|endoftext|>라는 이름의 특수 토큰을 포함시키는 것입니다. 일부 생성 모델이 허용되는 최대 수보다 적은 토큰으로 입력에 대한 응답을 리턴하는 경우 입력에서 패턴을 반복할 수 있습니다. 이 모델은 프롬프트에 대한 신뢰할 수 있는 중지 시퀀스를 통합하여 이러한 반복을 방지합니다. |
모델 매개변수에 대한 자세한 정보는 프롬프트를 위한 모델 매개변수를 참조하십시오.
검색 증강 생성 작업을 위해 granite-13b-chat-v2 foundation model 메시지를 표시하려면 다음 단계를 시도하세요:
모델에서 논의할 주제 및 사용 권한이 있는 주제에 대한 실제 정보가 있는 신뢰할 수 있는 자원을 찾으십시오. 문서의 발췌 부분을 나중에 액세스할 수 있는 텍스트 편집기 또는 기타 도구로 복사하십시오.
예를 들어, 자원은 사용자 회사 웹 사이트 또는 제품 문서의 제품 정보일 수 있습니다.
프롬프트 랩에서 자유 양식 모드를 열어 프롬프트를 구성할 수 있습니다. granite-13b-chat-v2 foundation model 선택합니다.
모델 매개변수 패널에서 표 2의 권장 모델 매개변수를 설정하십시오.
프롬프트에서 시스템 프롬프트, 사용자 입력 및 모델의 출력이 이동해야 하는 위치를 명확하게 정의하십시오.
예를 들어, 다음 프롬프트 구조는 granite-13b-chat-v2 foundation model 관련 정보를 반환하는 데 도움이 될 수 있습니다.
<|system|> You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. <|user|> You are an AI language model designed to function as a specialized Retrieval Augmented Generation (RAG) assistant. When generating responses, prioritize correctness, i.e., ensure that your response is grounded in context and user query. Always make sure that your response is relevant to the question. Answer Length: {ANSWER_LENGTH} [Document] {DOCUMENT1_TITLE} {DOCUMENT1_CONTENT} [End] [Document] {DOCUMENT2_TITLE} {DOCUMENT2_CONTENT} [End] [Document] {DOCUMENT3_TITLE} {DOCUMENT3_CONTENT} [End] {QUERY} <|assistant|>
참고: 문서 컨텐츠의 시작과 끝은 특수 태그
[Document]
및[End]
로 표시됩니다. 프롬프트에서 컨텐츠 유형 또는 서브섹션 헤더를 식별하는 특수 태그를 추가하려면 유사한 구문을 사용하십시오. granite-13b-chat-v2 foundation model 만들 때 다음과 같은 특수 태그를 처리하도록 학습되었습니다:<|system|>
': foundation model 시스템 프롬프트라고도 하는 명령을 식별합니다.<|user|>
: 응답할 조회 텍스트입니다.<|assistant|>
: 생성된 응답이 예상됨을 표시하는 프롬프트의 끝에 있는 큐입니다.
사용자 정의 태그에 대해 동일한
<|tagname|>
구문을 사용하지 마십시오. 그렇지 않으면 모델을 혼동할 수 있습니다.이 프롬프트 템플리트를 복사하는 경우 프롬프트 랩 편집기에 붙여넣은 후 플레이스홀더 변수를 대체하십시오.
표 2a: RAG 템플리트 플레이스홀더 변수 플레이스홀더 변수 설명 예 {ANSWER_LENGTH}
선택사항. 응답의 예상 응답 길이를 정의합니다. 옵션에는 다음이 포함됩니다 (가장 짧은 응답에서 가장 긴 응답까지). single word
,concise
,narrative
{DOCUMENTn_TITLE}
실제 정보가 있는 발췌가 수행되는 문서의 제목입니다. 둘 이상의 문서에서 컨텐츠를 포함할 수 있습니다. 제품 브로셔 {DOCUMENTn_CONTENT}
모델이 지식을 기반으로 토론할 수 있기를 원하는 사실 정보가 포함된 텍스트 발췌입니다. 마케팅 브로셔, 제품 문서, 회사 웹 사이트 또는 기타 신뢰할 수 있는 자원의 텍스트입니다. {QUERY}
질문은 사실적으로 응답해야 합니다. 문서에서 설명하는 주제에 대한 질문입니다. 팁: 또는 프롬프트를 재사용할 수 있고 매번 컨텐츠를 동적으로 바꿀 수 있도록 문서에 대한 프롬프트 변수를 정의하고 사용할 수 있습니다. 자세한 정보는 재사용 가능 프롬프트 빌드를 참조하십시오.
검색 기능이 보강된 생성 프롬프트 예제
다음 프롬프트는 granite-13b-chat-v2 foundation model 사용하여 프롬프트 튜닝에 대한 질문에 답변합니다.
참고: 문서 컨텐츠는 기본 모델 튜닝 방법 주제에서 가져옵니다.
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
You are an AI language model designed to function as a specialized Retrieval Augmented Generation (RAG) assistant. When generating responses, prioritize correctness, i.e., ensure that your response is grounded in context and user query. Always make sure that your response is relevant to the question.
Answer length: concise
[Document]
How prompt-tuning works
Foundation models are sensitive to the input that you give them. Your input, or how you prompt the model, can introduce context that the model will use to tailor its generated output. Prompt engineering to find the right prompt often works well. However, it can be time-consuming, error-prone, and its effectiveness can be restricted by the context window length that is allowed by the underlying model.
Prompt-tuning a model in the Tuning Studio applies machine learning to the task of prompt engineering. Instead of adding words to the input itself, prompt-tuning is a method for finding a sequence of values that, when added as a prefix to the input text, improve the model's ability to generate the output you want. This sequence of values is called a prompt vector.
Normally, words in the prompt are vectorized by the model. Vectorization is the process of converting text to tokens, and then to numbers defined by the model's tokenizer to identify the tokens. Lastly, the token IDs are encoded, meaning they are converted into a vector representation, which is the input format that is expected by the embedding layer of the model. Prompt-tuning bypasses the model's text-vectorization process and instead crafts a prompt vector directly. This changeable prompt vector is concatenated to the vectorized input text and the two are passed as one input to the embedding layer of the model. Values from this crafted prompt vector affect the word embedding weights that are set by the model and influence the words that the model chooses to add to the output.
To find the best values for the prompt vector, you run a tuning experiment. You demonstrate the type of output that you want for a corresponding input by providing the model with input and output example pairs in training data. With each training run of the experiment, the generated output is compared to the training data output. Based on what it learns from differences between the two, the experiment adjusts the values in the prompt vector. After many runs through the training data, the model finds the prompt vector that works best.
[End]
How does prompt tuning work?
<|assistant|>
granite-13b-chat-v2 foundation model 입력과 함께 제공된 문서 콘텐츠의 정보를 기반으로 즉각적인 튜닝이 어떻게 작동하는지에 대한 정확한 요약을 생성합니다.
출력은 다음과 같습니다.
프롬프트 튜닝은 프롬프트 벡터라고 하는 값의 시퀀스를 조정하여 특정 출력을 생성하는 모델의 기능을 개선하는 방법입니다. 입력에 단어를 직접 추가하는 대신 프롬프트 튜닝은 모델에 의해 설정된 단어 임베드 가중치에 직접 영향을 주는 프롬프트 벡터를 작성합니다. 이는 입력 텍스트를 벡터화하고 토큰 ID를 벡터 표시로 인코딩하여 수행되며, 그런 다음 의도적으로 만든 프롬프트 벡터와 연결되어 모델의 임베딩 계층에 하나의 입력으로 전달됩니다. 실험은 훈련 데이터 예제에서 생성된 출력과 원하는 출력 사이의 차이를 기반으로 프롬프트 벡터의 값을 조정합니다. 훈련 데이터를 여러 번 실행하는 동안 모델은 가장 잘 작동하는 프롬프트 벡터를 찾습니다.
NLP 태스크
분류 및 추출과 같은 자연어 처리 작업에 granite-13b-chat-v2 foundation model 사용할 수 있습니다. granite-13b-chat-v2 모델을 만들 때 이러한 유형의 자연어 처리 작업을 수행하도록 학습시켰습니다.
모델의 훈련 중에 모델을 훈련하는 데 사용된 프롬프트는 태스크 유형당 특정 형식을 따릅니다. 모델을 사용하여 이러한 태스크 중 하나를 수행하는 경우 제출하는 프롬프트에서 설정된 형식을 모방하십시오.
분류
granite-13b-chat-v2 foundation model 사용하여 정보를 분류하려면 다음 권장 사항을 따르세요.
다음 표에는 분류 작업을 위해 granite-13b-chat-v2 foundation model 메시지를 표시하는 데 권장되는 모델 매개변수가 나와 있습니다.
매개변수 | 권장 값 또는 범위 | 설명 |
---|---|---|
디코딩 | 그리디 | 그리디 디코딩은 가장 가능성이 높은 옵션에서만 토큰을 선택합니다. 이 옵션은 텍스트를 분류할 때 가장 적합합니다. |
반복 페널티 | 1 | 가장 낮은 값을 사용하십시오. 반복이 예상됩니다. |
최대 토큰 | 다양함 | 가장 긴 클래스 레이블의 토큰 수를 포함하는 값을 사용하십시오 (예: 5 또는 10 ). 토큰을 제한하면 모델이 적절한 클래스 레이블만 리턴하고 그 외에는 아무 것도 리턴하지 않도록 합니다. |
중지 기준 | 지원되는 각 클래스 레이블을 중지 순서로 추가하십시오. | 클래스를 중지 시퀀스로 추가하면 클래스가 입력에 지정된 후 모델이 강제로 텍스트 생성을 중지합니다. |
granite-13b-chat-v2 foundation model 분류 작업을 요청하려면 다음 단계를 시도하세요:
모델이 입력에 지정할 클래스 또는 분류 레이블을 식별하십시오. 프롬프트의 명령어 세그먼트에 이러한 클래스 레이블을 나열해야 합니다.
예를 들어, 고객 제품 검토를 긍정적 또는 부정적으로 분류하려는 경우 두 개의 클래스 레이블 (
Postitive
및Negative
) 을 정의할 수 있습니다.모델에서 분류할 입력 텍스트 유형의 대표적인 예를 두 개 또는 세 개 수집하십시오.
프롬프트 랩에서 자유 형식 모드의 granite-13b-chat-v2 foundation model 작업하여 프롬프트를 구성할 수 있습니다.
모델 매개변수 패널에서 표 3의 권장 모델 매개변수를 설정하십시오.
프롬프트에서 시스템 프롬프트, 사용자 입력 및 모델의 출력이 이동해야 하는 위치를 명확하게 식별하십시오.
예를 들어, granite-13b-chat-v2 foundation model 학습시켜 텍스트를 분류할 때 다음과 같은 프롬프트 구조가 사용되었습니다:
<|system|> You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. <|user|> {INSTRUCTION} Your response should only include the answer. Do not provide any further explanation. Here are some examples, complete the last one: {INPUT_LABEL}: {ICL_INPUT_1} {OUTPUT_LABEL}: {ICL_OUTPUT_1} {INPUT_LABEL}: {ICL_INPUT_2} {OUTPUT_LABEL}: {ICL_OUTPUT_2} {INPUT_LABEL}: {TEST_INPUT} {OUTPUT_LABEL}: <|assistant|>
유사한 구조를 사용하여 모델의 훈련을 활용할 수 있습니다. 프롬프트 템플리트에서 플레이스홀더 변수를 바꾸기만 하면 됩니다.
표 3a: 분류 템플리트 플레이스홀더 변수 플레이스홀더 변수 설명 예 {INSTRUCTION}
태스크에 대한 설명입니다. 모델이 입력에 지정할 클래스 목록을 포함하십시오. 각 제품 검토에 대해 검토가 긍정적인지 부정적인지 여부를 표시하십시오. {INPUT_LABEL}
분류할 텍스트의 짧은 레이블입니다. Input
,Customer review
,Feedback
,Comment
{OUTPUT_LABEL}
분류 값을 나타내는 짧은 레이블입니다. Class
{ICL_INPUT_N}
선택사항. 분류할 입력 텍스트의 예입니다. 컨텍스트 내 학습을 지원하기 위해 몇 번의 프롬프트를 사용하려는 경우 예제를 추가하십시오. The service representative did not listen to a word I said. It was a waste of my time.
{ICL_OUTPUT_N}
해당 입력 텍스트 예제에 지정된 클래스 레이블이 있는 예제 출력입니다. Positive
,Negative
분류 프롬프트 예제
다음 프롬프트는 고객이 지원 센터 직원에 대해 공유하는 피드백을 분류합니다.
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
For each feedback, specify whether the content is Positive or Negative. Your response should only include the answer. Do not provide any further explanation.
Here are some examples, complete the last one:
Feedback:
Carol, the service rep was so helpful. She answered all of my questions and explained things beautifully.
Class:
Positive
Feedback:
The service representative did not listen to a word I said. It was a waste of my time.
Class:
Negative
Feedback:
Carlo was so helpful and pleasant. He was able to solve a problem that I've been having with my software for weeks now.
Class:
<|assistant|>
이 프롬프트가 제출될 때 granite-13b-chat-v2 foundation model 생성되는 출력은 ' Positive
'입니다.
추출
granite-13b-chat-v2 foundation model 사용하여 정보를 추출하려면 다음 권장 사항을 따르세요.
다음 표에는 추출 작업을 위해 granite-13b-chat-v2 foundation model 메시지를 표시하는 데 권장되는 모델 매개변수가 나와 있습니다.
매개변수 | 권장 값 또는 범위 | 설명 |
---|---|---|
디코딩 | 그리디 | 그리디 디코딩은 가장 가능성이 높은 옵션에서만 토큰을 선택합니다. 이 옵션은 텍스트를 추출할 때 가장 적합합니다. |
최대 토큰 | 다양함 | 추출하려는 정보 유형에 대한 가장 긴 멘션의 토큰 수를 포함하는 값을 사용하십시오 (예: 5 또는 10 ). 토큰을 제한하면 모델이 적절한 클래스 레이블만 리턴하고 그 외에는 아무 것도 리턴하지 않도록 합니다. |
중지 기준 | 지원되는 각 클래스 레이블을 중지 순서로 추가하십시오. | 클래스를 중지 시퀀스로 추가하면 클래스가 입력에 지정된 후 모델이 강제로 텍스트 생성을 중지합니다. |
granite-13b-chat-v2 foundation model 추출 작업을 요청하려면 다음 단계를 시도하세요:
모델이 입력에서 추출할 정보 유형을 식별하십시오. 프롬프트의 명령어 세그먼트에 이러한 정보 유형 레이블을 나열해야 합니다.
예를 들어, 회사의 US Securities and Exchange Commission 10-K양식에서 주요 정보를 추출하려는 경우
Line Of Credit Facility Maximum Borrowing Capacity
와 같은 정보 유형을 식별할 수 있습니다.모델에서 추출할 정보 유형을 사용하여 2또는 3개의 대표적인 입력 텍스트 예제를 수집하십시오.
프롬프트 랩에서 자유 형식 모드의 granite-13b-chat-v2 foundation model 작업하여 프롬프트를 구성할 수 있습니다.
모델 매개변수 패널에서 표 4의 권장 모델 매개변수를 설정하십시오.
시스템 프롬프트, 사용자 입력 및 모델의 출력이 이동해야 하는 위치를 명확하게 식별하십시오.
예를 들어, 텍스트에서 정보를 추출하기 위해 granite-13b-chat-v2 foundation model 학습시킬 때 다음과 같은 프롬프트 구조가 사용되었습니다:
<|system|> You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. <|user|> {INSTRUCTION} Your response should only include the answer. Do not provide any further explanation. Here are some examples, complete the last one: {INPUT_LABEL}: {ICL_INPUT_1} {OUTPUT_LABEL}: {ICL_OUTPUT_1} {INPUT_LABEL}: {ICL_INPUT_2} {OUTPUT_LABEL}: {ICL_OUTPUT_2} {INPUT_LABEL}: {TEST_INPUT} {OUTPUT_LABEL}: <|assistant|>
유사한 구조를 사용하여 모델의 훈련을 활용할 수 있습니다. 프롬프트 템플리트에서 플레이스홀더 변수를 바꾸기만 하면 됩니다.
표 4a: 추출 템플리트 플레이스홀더 변수 플레이스홀더 변수 설명 {INSTRUCTION}
태스크에 대한 설명입니다. 모델이 입력에서 추출할 정보 유형 목록을 포함하십시오. {INPUT_LABEL}
분류할 텍스트의 짧은 레이블입니다. {OUTPUT_LABEL}
추출된 값을 나타내는 짧은 레이블입니다. {ICL_INPUT_N}
선택사항. 추출할 정보 유형이 있는 입력 텍스트의 예입니다. 컨텍스트 내 학습을 지원하기 위해 몇 번의 프롬프트를 사용하려는 경우 예제를 추가하십시오. {ICL_OUTPUT_N}
해당 입력에서 추출된 정보 유형이 있는 예제 출력입니다.
추출 프롬프트 예제
다음 프롬프트는 회사의 SEC 10-K양식에서 신용 한도 최대 빌려오기 용량 값을 추출합니다.
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
Extract the Line Of Credit Facility Maximum Borrowing Capacity from the 10K sentences.
Your response should only include the answer. Do not provide any further explanation.
Here are some examples, complete the last one:
10K Sentence:
The credit agreement also provides that up to $500 million in commitments may be used for letters of credit.
Line Of Credit Facility Maximum Borrowing Capacity:
$500M
10K Sentence:
In March 2020, we upsized the Credit Agreement by $100 million, which matures July 2023, to $2.525 billion.
Line Of Credit Facility Maximum Borrowing Capacity:
$2.525B
10K Sentence:
We prepared our impairment test as of October 1, 2022 and determined that the fair values of each of our reporting units exceeded net book value by more than 50%. Among our reporting units, the narrowest difference between the calculated fair value and net book value was in our Principal Markets segment's Canada reporting unit, whose calculated fair value exceeded its net book value by 53%. Future developments related to macroeconomic factors, including increases to the discount rate used, or changes to other inputs and assumptions, including revenue growth, could reduce the fair value of this and/or other reporting units and lead to impairment. There were no goodwill impairment losses recorded for the nine months ended December 31, 2022. Cumulatively, the Company has recorded $469 million in goodwill impairment charges within its former EMEA ($293 million) and current United States ($176 million) reporting units. Revolving Credit Agreement In October 2021, we entered into a $3.15 billion multi-currency revolving credit agreement (the "Revolving Credit Agreement") for our future liquidity needs. The Revolving Credit Agreement expires, unless extended, in October 2026. Interest rates on borrowings under the Revolving Credit Agreement are based on prevailing market interest rates, plus a margin, as further described in the Revolving Credit Agreement. The total expense recorded by the Company for the Revolving Credit Agreement was not material in any of the periods presented. We may voluntarily prepay borrowings under the Revolving Credit Agreement without premium or penalty, subject to customary "breakage" costs. The Revolving Credit Agreement includes certain customary mandatory prepayment provisions. Interest on Debt Interest expense for the three and nine months ended December 31, 2022 was $27 million and $65 million, compared to $18 million and $50 million for the three and nine months ended December 31, 2021. Most of the interest for the pre-Separation period presented in the historical Consolidated Income Statement reflects the allocation of interest expense associated with debt issued by IBM from which a portion of the proceeds benefited Kyndryl.
Line Of Credit Facility Maximum Borrowing Capacity:
<|assistant|>
이 프롬프트가 제출될 때 granite-13b-chat-v2 foundation model 생성되는 출력은 ' $3.15B
'입니다.
자세히 알아보기
granite-13b-chat-v2 foundation model 대해 자세히 알아보려면 다음 리소스를 참조하세요:
상위 주제: IBM Foundation 모델