watsonx.aiで IBM granite-13b-chat-v2 foundation modelの推論を試し、この多用途foundation modelが様々なタスクの達成にどのように役立つかを見てみましょう。
granite-13b-chat-v2 foundation modelは、130億パラメータを持つ大規模言語モデルであり、ビジネス・ユーザーが仕事をこなすのを助けるように設計されている。 IBM Graniteシリーズの基盤モデルは、企業に特化したデータセットで学習される。つまり、モデルは様々な業界の専門用語や専門言語に精通しており、関連する業界知識に基づいたコンテンツをより容易に生成することができる。
granite-13b-chat-v2 foundation modelのバージョン番号やインストラクションチューニングの詳細については、モデルカードを参照してください。
granite-13b-chat-v2 foundation modelは、以下のユースケースに最適化されています:
このモデルはさまざまなユースケースに使用できるため、最良の結果を得るためには、モデル・パラメーターとシステム・プロンプトを調整する必要がある。
granite-13b-chat-v2との会話
granite-13b-chat-v2 foundation modelでチャットをする際、最良の結果を得るためには、まずこれらの推奨事項に従い、そしてあなたが望む結果を得るために実験してください。
次の表は、granite-13b-chat-v2 foundation modelモデルに会話タスクを促すための推奨モデルパラメータの一覧です。
パラメーター | 推奨値または範囲 | 説明 |
---|---|---|
デコード | サンプリング | サンプリングデコーディングは、より創造的なテキストを生成し、チャットボットからの応答に興味と個性を加えるのに役立つ。 しかし、予測不可能なアウトプットにつながる可能性もある。 次のモデル・パラメーターのセットで、創造性の度合いをコントロールすることができる。 |
トップP:0.85 トップK:50 温度:0.7 |
これらのサンプリングデコーディングパラメーターはすべて連動している。 このサブセットには、最も可能性の高い50個のトークン(Top K)、または確率スコアの合計が0.85になるトークン(Top P)が含まれます。 0.7という比較的低い温度値が、トークンのスコアの差を増幅させている。 その結果、カットされたトークンは、通常、最も可能性の高いトークンである。 - To increase the creativity and diversity of responses, increase the temperature value. • モデルが幻覚を見るようなら、温度値を下げる。 |
|
反復ペナルティ | 1.05 | 単語やフレーズを繰り返すことで、チャットボットがロボットのように聞こえるのを防ぐために、ペナルティをこの低い値に設定します。 |
ランダム・シード | – | 例えば、温度を変えて出力にどのような影響を与えるかを確認したい場合、同じ入力を繰り返し送信し、毎回温度の値だけを変えます。 また、ランダムなトークンの選択がモデルの出力にも影響しないように、毎回 5 のような数値をランダムシードとして指定します。 毎回同じ数字を指定する限り、数字自体は問題ではない。 |
最大トークン数 | 900 | granite-13b-chat-v2 foundation model(入力と出力トークンの両方を含む)の最大コンテキストウィンドウ長は8192である。 トークンの詳細については、トークンとトークン化を参照してください。 各フォローアップ質問では、会話履歴がモデルプロンプトの一部として含まれます。 granite-13b-chat-v2の foundation modelは、通常5ターンまで、あるいは入力が4,000トークンに達するまで会話を続けることができる。 |
モデル・パラメータの詳細については、プロンプトのモデル・パラメータを参照してください。
granite-13b-chat-v2 foundation modelモデルにチャットタスクを促すには、以下の手順を試してください:
チャットモードのプロンプト・ラボから、granite-13b-chat-v2 foundation modelを選択する。
チャットモードでは、より高い最大トークン値を含む、会話のやりとりに最適化されたデフォルトのプロンプトパラメータ値があります。
モデルパラメータパネルから、表1の推奨モデルパラメータ値を適用する。
チャットモードでは、入力テキストをフォーマットせずにユーザー入力を送信できます。
チャットモードでは、推奨される書式がプロンプトのテキストに適用されます。 テキストアイコン「クリックすると、テキストの書式を確認できます。
フリーフォームモードで同じプロンプトを送信するには、システムプロンプトを設定する必要がある。
指示を加える。 例えば、次のような指示文はモデルの訓練に使われたもので、モデルにとっては馴染み深いものである。
あなたはGraniteチャット、IBMが開発したAI言語モデルです。 あなたは慎重なアシスタントだ。 あなたは注意深く指示に従う。 あなたは親切で無害であり、倫理的なガイドラインに従い、前向きな行動を促進する。 挨拶(例えば、hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup)には必ず「こんにちは」と返す! 私はIBMによって作られたGraniteチャットです。 今日はどうされましたか? それ以上何も言わず、会話を始めないでください。
推奨されるシステム・プロンプト・テキストをコピーするには、次のコード・スニペットからクリップボードにコピーアイコンをクリックします。
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation.
会話を始める。
チャットタスクに使われるプロンプトの最適な構造は以下の通りである。 プロンプトには、プロンプトの以下のセグメントを識別する構文が含まれる:
<|system|>
:foundation modelの システムプロンプトとしても知られる命令を識別する。<|user|>
:答えとなるクエリーテキスト。<|assistant|>
:プロンプトの最後で、生成された答えが期待されていることを示す合図。
自由形式モードでプロンプトラボからプロンプトを送信する場合は、予想されるプロンプト形式を使用してください。
<|system|> You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation. <|user|> {PROMPT} <|assistant|>
会話を続けるために、フォローアップの質問をする。
複数のダイアログターンを持つチャットに使用されるプロンプトの最適な構造は以下の通りである。 自由形式モードでプロンプトラボからプロンプトを送信する場合は、このプロンプト形式を使用してください。
<|system|> You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation. <|user|> {ROUND1_PROMPT} <|assistant|> {MODEL_RESPONSE} <|user|> {ROUND2_PROMPT} <|assistant|>
チャットの使用例を示す別のサンプルプロンプトについては、サンプルを参照してください:granite-13b-chat-v2 と会話する。
プロンプト・ラボでのチャットモードの使用については、プロンプト・ラボを参照してください。
granite-13b-chat-v2 を会話タスクのプロンプトにするヒント
フォローアップの質問では、代名詞を避ける。 例えば、"その変数は何を表しているのか?"と尋ねる ではなく、「それは何を表しているのか?
foundation modelモデルにテーブル形式のレスポンスを生成させたい場合、プロンプトで明示的に、マークダウンで生成されたテーブルを返すようモデルに要求します。
RAGパターンで事実に基づいた回答を返す
granite-13b-chat-v2 foundation modelモデルが事実に基づいた答えを返すように導くには、検索補強型生成パターンを使用する。 検索-補強された生成は、議論されるトピックに関する事実情報をモデルに提出する入力を根拠づける。 詳しくは、検索補強世代(RAG)を参照。
granite-13b-chat-v2 foundation modelから事実に基づいた回答を返したい場合は、以下の推奨事項に従ってください。
次の表は、granite-13b-chat-v2 foundation modelを検索支援生成タスクにプロンプトするための推奨モデルパラメータの一覧である。
パラメーター | 推奨値または範囲 | 説明 |
---|---|---|
デコード | 欲張り | 貪欲なデコーディングは、最も可能性の高い選択肢のみからトークンを選択する。 |
反復ペナルティ | 1 | 最も低い値を使用する。 事実に基づいた回答が目的であれば、繰り返しは許容される。 |
最大トークン数 | 500 | モデルは可能な限り完全に質問に答えることができる。 granite-13b-chat-v2 foundation modelの最大コンテキストウィンドウ長(入力と出力の両方のトークンを含む)は8192であることを覚えておいてください。 入力は、プロンプトの根拠となる文書を追加することも含めて、その制限内に収まるようにしてください。 トークンの詳細については、トークンとトークン化を参照してください。 |
停止基準 | エンドテキスト | granite-13b-chat-v2 foundation modelモデルの有用な特徴は、各レスポンスの最後に<|endoftext|>という特別なトークンが含まれていることです。 生成モデルの中には、許容される最大数よりも少ないトークンで入力に対する応答を返すものがある場合、入力からパターンを繰り返すことができる。 このモデルでは、プロンプトに信頼性の高いストップシーケンスを組み込むことで、このような繰り返しを防いでいる。 |
モデル・パラメータの詳細については、プロンプトのモデル・パラメータを参照してください。
granite-13b-chat-v2 foundation modelを検索支援生成タスクに使うには、以下のステップを試す:
モデルに議論させたいトピックについて、事実に基づいた情報が掲載され、使用許可を得ている信頼できる資料を探す。 文書やドキュメントの抜粋を、後でアクセスできるテキストエディタなどにコピーする。
例えば、自社のウェブサイトや製品ドキュメントの製品情報などです。
プロンプトラボからフリーフォームモードを開き、プロンプトを構成できるようにします。 granite-13b-chat-v2の foundation modelをお選びください。
モデルパラメータパネルから、表2の推奨モデルパラメータを設定します。
プロンプトでは、システムプロンプト、ユーザー入力、モデルの出力先を明確に定義する。
例えば、次のようなプロンプト構造は、granite-13b-chat-v2 foundation modelモデルが関連情報を返すのに役立つ。
<|system|> You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. <|user|> You are an AI language model designed to function as a specialized Retrieval Augmented Generation (RAG) assistant. When generating responses, prioritize correctness, i.e., ensure that your response is grounded in context and user query. Always make sure that your response is relevant to the question. Answer Length: {ANSWER_LENGTH} [Document] {DOCUMENT1_TITLE} {DOCUMENT1_CONTENT} [End] [Document] {DOCUMENT2_TITLE} {DOCUMENT2_CONTENT} [End] [Document] {DOCUMENT3_TITLE} {DOCUMENT3_CONTENT} [End] {QUERY} <|assistant|>
注意:文書内容の開始と終了は、特別なタグ
[Document]
と[End]
で示されます。 プロンプトにコンテンツタイプやサブセクションのヘッダーを識別する特別なタグを追加する場合も、同様の構文を使用します。 granite-13b-chat-v2 foundation modelが作成されたとき、以下の特別なタグを扱うように訓練された:<|system|>
:foundation modelの システムプロンプトとしても知られる命令を識別する。<|user|>
:答えとなるクエリーテキスト。<|assistant|>
:プロンプトの最後で、生成された答えが期待されていることを示す合図。
カスタムタグに同じ
<|tagname|>
構文を使わないでください。このプロンプトテンプレートをコピーした場合は、プロンプトラボエディタに貼り付けた後、プレースホルダ変数を置き換えてください。
表 2a: RAGテンプレートのプレースホルダー変数 プレースホルダ変数 説明 例 {ANSWER_LENGTH}
オプション。 回答に期待される長さを定義します。 選択肢は以下の通り(短い回答から長い回答へ): single word
、concise
、narrative
{DOCUMENTn_TITLE}
事実情報を含む抜粋が引用されている文書のタイトル。 複数の文書の内容を含めることができます。 製品パンフレット {DOCUMENTn_CONTENT}
モデルに知識を持って議論してもらいたい事実情報を抜粋した文章。 マーケティングパンフレット、製品資料、企業ウェブサイト、その他信頼できるリソースからのテキスト。 {QUERY}
事実に基づいて答えるべき質問。 文書で取り上げられているトピックに関する質問。 ヒント:別の方法として、プロンプトを再利用し、内容を毎回動的に置き換えることができるように、ドキュメントにプロンプト変数を定義して使用することもできる。 詳細については、再利用可能なプロンプトを作成するを参照してください。
検索機能付き生成プロンプトの例
次のプロンプトでは、granite-13b-chat-v2 foundation modelを使用して、プロンプトのチューニングに関する質問に答えている。
注意: この文書の内容は、基礎モデルのチューニング方法トピックから引用しています。
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
You are an AI language model designed to function as a specialized Retrieval Augmented Generation (RAG) assistant. When generating responses, prioritize correctness, i.e., ensure that your response is grounded in context and user query. Always make sure that your response is relevant to the question.
Answer length: concise
[Document]
How prompt-tuning works
Foundation models are sensitive to the input that you give them. Your input, or how you prompt the model, can introduce context that the model will use to tailor its generated output. Prompt engineering to find the right prompt often works well. However, it can be time-consuming, error-prone, and its effectiveness can be restricted by the context window length that is allowed by the underlying model.
Prompt-tuning a model in the Tuning Studio applies machine learning to the task of prompt engineering. Instead of adding words to the input itself, prompt-tuning is a method for finding a sequence of values that, when added as a prefix to the input text, improve the model's ability to generate the output you want. This sequence of values is called a prompt vector.
Normally, words in the prompt are vectorized by the model. Vectorization is the process of converting text to tokens, and then to numbers defined by the model's tokenizer to identify the tokens. Lastly, the token IDs are encoded, meaning they are converted into a vector representation, which is the input format that is expected by the embedding layer of the model. Prompt-tuning bypasses the model's text-vectorization process and instead crafts a prompt vector directly. This changeable prompt vector is concatenated to the vectorized input text and the two are passed as one input to the embedding layer of the model. Values from this crafted prompt vector affect the word embedding weights that are set by the model and influence the words that the model chooses to add to the output.
To find the best values for the prompt vector, you run a tuning experiment. You demonstrate the type of output that you want for a corresponding input by providing the model with input and output example pairs in training data. With each training run of the experiment, the generated output is compared to the training data output. Based on what it learns from differences between the two, the experiment adjusts the values in the prompt vector. After many runs through the training data, the model finds the prompt vector that works best.
[End]
How does prompt tuning work?
<|assistant|>
granite-13b-chat-v2 foundation modelは、入力とともに提供された文書内容からの情報に基づいて、プロンプト・チューニングがどのように機能するかについての正確な要約を生成する。
出力は次のようになる:
プロンプトチューニングは、プロンプトベクトルと呼ばれる一連の値を調整することで、特定の出力を生成するモデルの能力を向上させる方法です。 プロンプトチューニングでは、入力に直接単語を追加するのではなく、プロンプトベクトルを作成し、モデルによって設定される単語埋め込み重みに直接影響を与える。 これは、入力テキストをベクトル化し、トークンIDをベクトル表現にエンコードすることで達成される。このベクトルは、細工されたプロンプトベクトルと連結され、モデルの埋め込みレイヤーに1つの入力として渡される。 この実験では、生成された出力と訓練データ例における所望の出力との差に基づいて、プロンプトベクトルの値を調整する。 トレーニングデータを何度も実行するうちに、モデルは最適なプロンプトベクトルを見つける。
NLPタスク
granite-13b-chat-v2 foundation modelは、分類や抽出などの自然言語処理タスクに使用できます。 granite-13b-chat-v2モデルが作成されたとき、この種の自然言語処理タスクを実行するように訓練された。
モデルのトレーニングでは、タスクの種類ごとに決められたプロンプトが使用された。 これらのタスクのいずれかを実行するためにモデルを使用する場合は、提出するプロンプトで確立された形式を模倣してください。
機密区分
granite-13b-chat-v2 foundation modelを使用して情報を分類するには、以下の推奨事項に従ってください。
次の表は、granite-13b-chat-v2 foundation modelモデルに分類タスクを促すための推奨モデルパラメータの一覧です。
パラメーター | 推奨値または範囲 | 説明 |
---|---|---|
デコード | 欲張り | 貪欲なデコーディングは、最も可能性の高い選択肢のみからトークンを選択するため、テキストを分類したい場合に最適である。 |
反復ペナルティ | 1 | 最も低い値を使用する。 繰り返しが期待される。 |
最大トークン数 | 状況による | 5 や10 のように、最長クラスラベルのトークン数をカバーする値を使用してください。 トークンを制限することで、モデルが適切なクラスラベルだけを返し、それ以外は返さないようにする。 |
停止基準 | サポートされている各クラスラベルを停止シーケンスとして追加する。 | 停止シーケンスとしてクラスを追加すると、入力にクラスが割り当てられた後、モデルはテキストの生成を停止します。 |
granite-13b-chat-v2 foundation modelモデルに分類タスクを促すには、以下の手順を試してください:
モデルに入力に割り当てさせたいクラスまたは分類ラベルを特定する。 プロンプトのインストラクション・セグメントには、必ずこれらのクラス・ラベルを記載してください。
例えば、顧客の商品レビューを肯定的か否定的かに分類したい場合、2つのクラスラベルを定義することができます:
Postitive
とNegative
です。モデルに分類させたいタイプの入力テキストの代表例を2つか3つ集める。
プロンプト・ラボのgranite-13b-chat-v2 foundation modelを自由形式モードで使用し、プロンプトを構成できるようにします。
モデルパラメータパネルから、表3から推奨されるモデルパラメータを設定します。
プロンプトでは、システムプロンプト、ユーザー入力、モデルの出力の行き先を明確にします。
例えば、granite-13b-chat-v2 foundation modelがテキストを分類するために学習されたとき、以下のプロンプト構造が使用された:
<|system|> You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. <|user|> {INSTRUCTION} Your response should only include the answer. Do not provide any further explanation. Here are some examples, complete the last one: {INPUT_LABEL}: {ICL_INPUT_1} {OUTPUT_LABEL}: {ICL_OUTPUT_1} {INPUT_LABEL}: {ICL_INPUT_2} {OUTPUT_LABEL}: {ICL_OUTPUT_2} {INPUT_LABEL}: {TEST_INPUT} {OUTPUT_LABEL}: <|assistant|>
同様の構造を使って、モデルのトレーニングを活用することができる。 プロンプトテンプレートのプレースホルダ変数を置き換えるだけでよい。
表 3a: 分類テンプレートのプレースホルダー変数 プレースホルダ変数 説明 例 {INSTRUCTION}
タスクの説明。 モデルに入力に割り当ててほしいクラスのリストを含めます。 各製品のレビューについて、そのレビューが肯定的か否定的かを示してください。 {INPUT_LABEL}
分類するテキストの短いラベル。 Input
,Customer review
,Feedback
,Comment
{OUTPUT_LABEL}
分類値を表す短いラベル。 Class
{ICL_INPUT_N}
オプション。 分類される入力テキストの例。 インコンテクスト学習をサポートするために、数発のプロンプトを使用したい場合は、例を追加します。 The service representative did not listen to a word I said. It was a waste of my time.
{ICL_OUTPUT_N}
対応する入力テキスト例にクラスラベルを割り当てた出力例。 Positive
,Negative
分類プロンプトの例
次のプロンプトは、顧客がサポートセンターのスタッフについて共有するフィードバックを分類したものです。
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
For each feedback, specify whether the content is Positive or Negative. Your response should only include the answer. Do not provide any further explanation.
Here are some examples, complete the last one:
Feedback:
Carol, the service rep was so helpful. She answered all of my questions and explained things beautifully.
Class:
Positive
Feedback:
The service representative did not listen to a word I said. It was a waste of my time.
Class:
Negative
Feedback:
Carlo was so helpful and pleasant. He was able to solve a problem that I've been having with my software for weeks now.
Class:
<|assistant|>
このプロンプトが送信されたときにgranite-13b-chat-v2 foundation modelによって生成される出力は'Positive
である。
抽出
granite-13b-chat-v2 foundation modelを使用して情報を抽出するには、以下の推奨事項に従ってください。
次の表は、granite-13b-chat-v2 foundation modelモデルに抽出タスクを促すための推奨モデルパラメータの一覧です。
パラメーター | 推奨値または範囲 | 説明 |
---|---|---|
デコード | 欲張り | 貪欲なデコーディングは、最も可能性の高い選択肢のみからトークンを選択するため、テキストを抽出したい場合に最適である。 |
最大トークン数 | 状況による | 5 や10 のように、抽出したい情報タイプの最も長い言及のトークン数をカバーする値を使用します。 トークンを制限することで、モデルが適切なクラスラベルだけを返し、それ以外は返さないようにする。 |
停止基準 | サポートされている各クラスラベルを停止シーケンスとして追加する。 | 停止シーケンスとしてクラスを追加すると、入力にクラスが割り当てられた後、モデルはテキストの生成を停止します。 |
granite-13b-chat-v2 foundation modelモデルに抽出タスクを促すには、以下の手順を試してください:
モデルに入力から抽出させたい情報タイプを特定する。 これらの情報タイプのラベルは、プロンプトの指示セグメントに必ず記載してください。
例えば、ある企業の米国証券取引委員会(SEC)の10-Kフォームから重要な情報を抽出したい場合、
Line Of Credit Facility Maximum Borrowing Capacity
のような情報タイプを特定するかもしれません。モデルに抽出させたい情報のタイプを持つ入力テキストの代表的な例を2つか3つ集める。
プロンプト・ラボのgranite-13b-chat-v2 foundation modelを自由形式モードで使用し、プロンプトを構成できるようにします。
モデルパラメータパネルから、表4から推奨されるモデルパラメータを設定します。
システムプロンプト、ユーザー入力、モデルの出力先を明確にする。
例えば、granite-13b-chat-v2 foundation modelがテキストから情報を抽出するために学習されたとき、以下のプロンプト構造が使用された:
<|system|> You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. <|user|> {INSTRUCTION} Your response should only include the answer. Do not provide any further explanation. Here are some examples, complete the last one: {INPUT_LABEL}: {ICL_INPUT_1} {OUTPUT_LABEL}: {ICL_OUTPUT_1} {INPUT_LABEL}: {ICL_INPUT_2} {OUTPUT_LABEL}: {ICL_OUTPUT_2} {INPUT_LABEL}: {TEST_INPUT} {OUTPUT_LABEL}: <|assistant|>
同様の構造を使って、モデルのトレーニングを活用することができる。 プロンプトテンプレートのプレースホルダ変数を置き換えるだけでよい。
表 4a: 抽出テンプレートのプレースホルダー変数 プレースホルダ変数 説明 {INSTRUCTION}
タスクの説明。 モデルに入力から抽出させたい情報タイプのリストを含める。 {INPUT_LABEL}
分類するテキストの短いラベル。 {OUTPUT_LABEL}
抽出された値を表す短いラベル。 {ICL_INPUT_N}
オプション。 抽出される情報タイプを持つ入力テキストの例。 インコンテクスト学習をサポートするために、数発のプロンプトを使用したい場合は、例を追加します。 {ICL_OUTPUT_N}
対応する入力から情報タイプを抽出した出力例。
抽出プロンプトの例
次のプロンプトは、ある企業の SEC 10-K フォームから Line Of Credit Facility Maximum Borrowing Capacity の値を抽出したものです。
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
Extract the Line Of Credit Facility Maximum Borrowing Capacity from the 10K sentences.
Your response should only include the answer. Do not provide any further explanation.
Here are some examples, complete the last one:
10K Sentence:
The credit agreement also provides that up to $500 million in commitments may be used for letters of credit.
Line Of Credit Facility Maximum Borrowing Capacity:
$500M
10K Sentence:
In March 2020, we upsized the Credit Agreement by $100 million, which matures July 2023, to $2.525 billion.
Line Of Credit Facility Maximum Borrowing Capacity:
$2.525B
10K Sentence:
We prepared our impairment test as of October 1, 2022 and determined that the fair values of each of our reporting units exceeded net book value by more than 50%. Among our reporting units, the narrowest difference between the calculated fair value and net book value was in our Principal Markets segment's Canada reporting unit, whose calculated fair value exceeded its net book value by 53%. Future developments related to macroeconomic factors, including increases to the discount rate used, or changes to other inputs and assumptions, including revenue growth, could reduce the fair value of this and/or other reporting units and lead to impairment. There were no goodwill impairment losses recorded for the nine months ended December 31, 2022. Cumulatively, the Company has recorded $469 million in goodwill impairment charges within its former EMEA ($293 million) and current United States ($176 million) reporting units. Revolving Credit Agreement In October 2021, we entered into a $3.15 billion multi-currency revolving credit agreement (the "Revolving Credit Agreement") for our future liquidity needs. The Revolving Credit Agreement expires, unless extended, in October 2026. Interest rates on borrowings under the Revolving Credit Agreement are based on prevailing market interest rates, plus a margin, as further described in the Revolving Credit Agreement. The total expense recorded by the Company for the Revolving Credit Agreement was not material in any of the periods presented. We may voluntarily prepay borrowings under the Revolving Credit Agreement without premium or penalty, subject to customary "breakage" costs. The Revolving Credit Agreement includes certain customary mandatory prepayment provisions. Interest on Debt Interest expense for the three and nine months ended December 31, 2022 was $27 million and $65 million, compared to $18 million and $50 million for the three and nine months ended December 31, 2021. Most of the interest for the pre-Separation period presented in the historical Consolidated Income Statement reflects the allocation of interest expense associated with debt issued by IBM from which a portion of the proceeds benefited Kyndryl.
Line Of Credit Facility Maximum Borrowing Capacity:
<|assistant|>
このプロンプトが送信されたときにgranite-13b-chat-v2 foundation modelによって生成される出力は'$3.15B
である。
詳細情報
granite-13b-chat-v2 foundation modelの詳細については、以下のリソースをお読みください:
Parent topic: IBM Foundation models