0 / 0
Go back to the English version of the documentation
Analiza składni
Last updated: 30 paź 2023
Analiza składni

Blok komend przetwarzania języka naturalnego Watson zawiera funkcje analizy składni.

Nazwy bloków

  • syntax_izumo_<language>_stock
  • syntax_izumo_<language>_stock-dp (tylko środowisko wykonawcze 23.1 )

Obsługiwane języki

Blok analizy składni jest dostępny dla następujących języków. Listę kodów języków i odpowiadających im języków zawiera sekcja Kody języków.

Kody języków dla modelu syntax_izumo_<language>_stock: af, ar, bs, ca, cs, da, de, el, en, es, fi, fr, he, hi, hr, it, ja, ko, nb, nl, nn, pl, pt, ro, ru, sk, sr, sv, tr, zh_cn, zh_tw

Kody języków dla modelu syntax_izumo_<language>_stock-dp: af, ar, bs, ca, cs, da, de, el, en, es, fi, fr, he, hi, hr, it, ja, ko, nb, nl, nn, pl, pt, ro, ru, sk, sr, sv, tr, zh

Lista obsługiwanych języków dla każdego zadania składni
Zadanie Obsługiwane kody języków
Tokenizacja af, ar, bs, ca, cs, da, de, el, en, es, fi, fr, he, hi, hr, it, ja, ko, nb, nl, nn, pl, pt, ro, ru, sk, sr, sv, tr, zh_cn, zh_tw, zh
Oznaczanie części mowy af, ar, bs, ca, cs, da, de, nl, nn, el, en, es, fi, fr, he, hi, hr, it, ja, ko, nb, pl, pt, ro, ru, sk, sr, sv, tr, zh_cn, zh_tw, zh
Lematyzacja af, ar, bs, ca, cs, da, de, el, en, es, fi, fr, he, hi, hr, it, ja, ko, nb, nl, nn, pl, pt, ro, ru, sk, sr, sv, tr, zh_cn, zh_tw, zh
Wykrywanie zdań af, ar, bs, ca, cs, da, de, el, en, es, fi, fr, he, hi, hr, it, ja, ko, nb, nl, nn, pl, pt, ro, ru, sk, sr, sv, tr, zh_cn, zh_tw, zh
Wykrywanie akapitu af, ar, bs, ca, cs, da, de, el, en, es, fi, fr, he, hi, hr, it, ja, ko, nb, nl, nn, pl, pt, ro, ru, sk, sr, sv, tr, zh_cn, zh_tw, zh
Analizowanie zależności af, ar, bs, cs, da, de, en, es, fi, fr, hi, hr, it, ja, nb, nl, nn, pt, ro, ru, sk, sr, sv

Możliwości

Ten blok służy do wykonywania zadań, takich jak wykrywanie zdań, dzielenie na leksemy, oznaczanie części mowy, lematyzacja i analizowanie zależności w różnych językach. W przypadku większości zadań prawdopodobnie będzie potrzebne tylko wykrywanie zdań, dzielenie na leksemy i oznaczanie części mowy. W takich przypadkach należy użyć modelu syntax_model_xx_stock . Aby uruchomić analizowanie zależności w środowisku wykonawczym 23.1, należy użyć modelu syntax_model_xx_stock-dp . W środowisku wykonawczym 22.2analizowanie zależności jest uwzględniane w modelu syntax_model_xx_stock .

Analiza oznaczania i zależności części mowy (POS) jest zgodna z zestawem znaczników Universal Parts of Speech (uniwersalne znaczniki POS) i zestawem znaczników Universal Dependencies v2 (Uniwersalne relacje zależności).

W poniższej tabeli przedstawiono możliwości każdego zadania na podstawie tego samego przykładu i wyniku analizy.

Możliwości każdego zadania składni na podstawie przykładu
Możliwości Przykłady Atrybuty analizatora składni
Tokenizacja "Nie lubię poniedziałków" -- > "I", "do", "n' t", "like", "Mondays" znacznik
Wykrywanie części mowy "Nie lubię poniedziałków" -- > "I" \POS_PRON, "do "\POS_AUX, "n' t" \POS_PART, "like "\POS_VERB," poniedziałki " \POS_PROPN część_mowy
Lematyzacja "Nie lubię poniedziałków" -- > "I", "do", "nie", "jak", "poniedziałek" lemat
Analizowanie zależności "Nie lubię poniedziałków" -- > "I" -SUBJECT-> "like" < -OBJECT-"poniedziałki" informacje o
Wykrywanie zdań "Nie lubię poniedziałków" -- > zwraca to zdanie Zdanie
Wykrywanie akapitów (Obecnie wykrywanie akapitów jest nadal eksperymentalne i zwraca podobne wyniki do wykrywania zdań). "Nie lubię poniedziałków" -- > zwraca to zdanie jako akapit Zdanie

Zależności od innych bloków

Brak

Przykład kodu

import watson_nlp

# Load Syntax for English
syntax_model = watson_nlp.load('syntax_izumo_en_stock')

# Detect tokens, lemma and part-of-speech
text = 'I don\'t like Mondays'
syntax_prediction = syntax_model.run(text, parsers=('token', 'lemma', 'part_of_speech'))

# Print the syntax result
print(syntax_prediction)

Dane wyjściowe przykładowego kodu:

{
  "text": "I don't like Mondays",
  "producer_id": {
    "name": "Izumo Text Processing",
    "version": "0.0.1"
  },
  "tokens": [
    {
      "span": {
        "begin": 0,
        "end": 1,
        "text": "I"
      },
      "lemma": "I",
      "part_of_speech": "POS_PRON"
    },
    {
      "span": {
        "begin": 2,
        "end": 4,
        "text": "do"
      },
      "lemma": "do",
      "part_of_speech": "POS_AUX"
    },
    {
      "span": {
        "begin": 4,
        "end": 7,
        "text": "n't"
      },
      "lemma": "not",
      "part_of_speech": "POS_PART"
    },
    {
      "span": {
        "begin": 8,
        "end": 12,
        "text": "like"
      },
      "lemma": "like",
      "part_of_speech": "POS_VERB"
    },
    {
      "span": {
        "begin": 13,
        "end": 20,
        "text": "Mondays"
      },
      "lemma": "Monday",
      "part_of_speech": "POS_PROPN"
    }
  ],
  "sentences": [
    {
      "span": {
        "begin": 0,
        "end": 20,
        "text": "I don't like Mondays"
      }
    }
  ],
  "paragraphs": [
    {
      "span": {
        "begin": 0,
        "end": 20,
        "text": "I don't like Mondays"
      }
    }
  ]
}

Temat nadrzędny: Watson Katalog zadań przetwarzania języka naturalnego

Generative AI search and answer
These answers are generated by a large language model in watsonx.ai based on content from the product documentation. Learn more