0 / 0
Go back to the English version of the documentation
Známé problémy a omezení
Last updated: 09. 11. 2023
Známé problémy a omezení

Na produkt Cloud Pak for Data as a Servicese vztahují následující omezení a známé problémy.

Seznam problémů s produktem Watson Knowledge Catalog

Seznam problémů s tokem Masking

Seznam problémů s Data Refinery

Seznam problémů s produktem Watson Query

Seznam problémů s notebooky

Seznam problémů se strojovým učením

Seznam problémů s Cognos Dashboard Embedded

Seznam problémů s produktem Watson OpenScale

Seznam problémů s produktem SPSS Modeler

Problémy s Cloud Object Storage

  • Seznam problémů se strojovým učením
    • Chyba aktiv používajících Watson Machine Learning v projektech uvádějících Cloud Object Storage s povolenou funkcí Key Protect .
    • Automatická umělá inteligence
    • Federovat učení
    • Watson Pipelines
  • Seznam problémů s produktem SPSS Modeler
    • Nelze uložit model do projektu uvedením Cloud Object Storage s povolenou Key Protect .
  • Seznam problémů s notebooky
    • Nelze uložit model do projektu uvedením Cloud Object Storage s povolenou Key Protect .

Watson Knowledge Catalog

Používáte-li Watson Knowledge Catalog, můžete při používání katalogů narazit na tyto známé problémy a omezení.

Synchronizovat mezipaměti kategorie služby DPS (Data Policy Service)

Pro účely výkonu uchovává služba DPS (Data Policy Service) kopii kategorií slovníčku v mezipaměti. Když jsou kategorie vytvořeny, aktualizovány nebo odstraněny, služba slovníčku publikuje události RabbitMQ , aby odrážela tyto změny. DPS naslouchá těmto událostem a aktualizuje mezipaměti. V některých vzácných případech však může dojít ke ztrátě zprávy v případě, že je služba RabbitMQ vypnutá nebo příliš zaneprázdněná. Server DPS poskytuje obslužný program rozhraní REST API pro aktualizaci mezipaměti.

Můžete spustit následující obslužný program REST API během prostoje, který nemá žádné změny kategorie, abyste se vyhnuli neočekávaným výsledkům vynucení během spuštění a také se vyhnuli nepřesným aktualizacím mezipaměti:

curl -v -k -X GET --header "Content-Type: application/json"
  --header "Accept: application/json"
  --header "Authorization: Bearer ${token}"
    "${uri}/v3/enforcement/governed_items/sync/category"

Toto rozhraní REST API je k dispozici ve službě Watson Knowledge Catalog .

Maskovaná data nejsou ve vizualizacích dat podporována.

Maskovaná data nejsou ve vizualizacích dat podporována. Pokusíte-li se pracovat s maskovanými daty při generování grafu na kartě Vizualizace datového aktiva v projektu, bude přijata následující chybová zpráva: Bad Request: Failed to retrieve data from server. Masked data is not supported.

Data nejsou maskována v některých projektových nástrojích

Když přidáte připojené datové aktivum, které obsahuje maskované sloupce z katalogu do projektu, sloupce zůstanou maskované, když zobrazíte data a upřesníte data v nástroji Data Refinery . Jiné nástroje v projektech však nezachovávají maskování, když přistupují k datům prostřednictvím připojení. Když například načtete připojená data do zápisníku, toku DataStage , panelu dashboard nebo jiných projektových nástrojů, přistoupíte k datům prostřednictvím přímého připojení a vynecháte maskování.

Předdefinované artefakty regulace nemusí být k dispozici

Pokud nevidíte žádné předdefinované klasifikace nebo třídy dat, znovu inicializujte tenanta pomocí následujícího volání rozhraní API:

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

Přidat spolupracovníky s malými e-mailovými adresami

Při přidávání spolupracovníků do katalogu zadejte e-mailové adresy se všemi malými písmeny. Smíšené e-mailové adresy nejsou podporovány.

Omezení připojení Object Storage

Když se podíváte na připojení Cloud Object Storage (S3 API) nebo Cloudant , samotná složka se zobrazí jako podřízené aktivum.

Může selhat více souběžných operací připojení

Při souběžném spouštění operací připojení více uživatelů může dojít k chybě. Chybová zpráva se může lišit.

Nelze povolit vynucení pravidla ochrany dat po vytvoření katalogu

Po vytvoření katalogu nemůžete povolit vynucení pravidel ochrany dat. Chcete-li použít pravidla ochrany dat na aktiva v katalogu, musíte povolit vynucení během vytváření katalogu.

Aktiva jsou blokována, pokud se vyhodnocení nezdaří

Následující omezení platí pro datová aktiva v katalogu s vynucenými zásadami: Datová aktiva založená na souborech, která mají záhlaví, nemohou mít v názvu sloupce duplicitní názvy sloupců, tečku (.) nebo apostrof (').

Pokud se vyhodnocení nezdaří, aktivum bude blokováno pro všechny uživatele kromě vlastníka aktiva. Všichni ostatní uživatelé uvidí chybovou zprávu, že datové aktivum nelze zobrazit, protože vyhodnocení se nezdařilo a aktivum je blokováno.

Pouze tlačítko Zpět prohlížeče vás přenese zpět na aktivum obohacení metadat ze stránky Výchozí nastavení

Když otevřete stránku Výchozí nastavení z aktiva obohacení metadat, nemůžete se k aktivu vrátit pomocí tlačítka v uživatelském rozhraní produktu nebo v navigační cestě ke stránce. Chcete-li přejít zpět na aktivum, použijte tlačítko Zpět prohlížeče.

Pouze filtr tříd dat ve výsledcích obohacení metadat rozlišuje velikost písmen

Když filtrujete výsledky obohacení metadat na kartě Sloupec , rozlišují se velká a malá písmena pouze položky Datové třídy . Položky ve filtrech Obchodní podmínky, Schémataa Aktiva jsou malá písmena bez ohledu na skutečnou velikost písmen hodnoty.

Volby filtru ve výsledcích obohacení metadat nemusí být okamžitě aktualizovány

Když přidáte aktiva, přiřadíte nové datové třídy nebo obchodní podmínky nebo odeberete obchodní podmínky, příslušné filtry se okamžitě neaktualizují. Jako náhradní řešení aktualizujte prohlížeč, aby se zobrazily aktualizované seznamy filtrů.

Podrobnosti obohacení pro aktivum nemusí odrážet nastavení použitá při posledním spuštění obohacení

Poté, co upravíte volby obohacení pro obohacení metadat, které bylo spuštěno alespoň jednou, mohou podrobnosti aktiva zobrazit aktualizované volby namísto voleb použitých v posledním spuštění obohacení.

Nelze přistupovat k jednotlivým stránkám v aktivu obohacení metadat přímo

Pokud počet aktiv nebo sloupců v aktivu obohacení metadat zahrnuje několik stránek, nemůžete přejít přímo na specifickou stránku. Rozevírací seznam čísel stránek je zakázán. Místo toho použijte tlačítka Další stránka a Předchozí stránka .

Neúplné podrobnosti pro přiřazenou datovou třídu ve výsledcích obohacení sloupce

Klepnete-li na přiřazenou datovou třídu na kartě Regulace podrobností sloupce ve výsledcích obohacení metadat, zobrazí se náhled podrobností datové třídy. Podrobnosti jsou však neúplné.

V některých případech se vám nemusí zobrazit úplný protokol úlohy obohacení metadat spuštěné v uživatelském rozhraní.

Pokud je seznam chyb v běhu obohacení metadat výjimečně dlouhý, v uživatelském rozhraní se může zobrazit pouze část protokolu úlohy.

Řešení: Stáhněte celý protokol a analyzujte jej v externím editoru.

Při filtrování výsledků obohacení mohou chybět informace o schématu.

Když filtrujete aktiva nebo sloupce ve výsledcích obohacení na informace o zdroji, nemusí být informace o schématu k dispozici.

Náhradní řešení: Znovu spusťte úlohu obohacení a znovu použijte filtr Zdroj .

Pravidla spuštěná na sloupcích typu čas v datových aktivech ze zdroje dat Amazon Redshift nevracejí správné výsledky

Pro datová aktiva ze zdrojů dat Amazon Redshift se sloupce typu time importují s časovým razítkem typu. Pro tyto sloupce nelze použít pravidla kvality dat specifická pro čas.

Zápis výstupu obohacení metadat do dřívější verze produktu Apache Hive než 3.0.0

Chcete-li zapsat výstup kvality dat generovaný obohacením metadat do databáze Apache Hive ve starší verzi softwaru než 3.0.0, nastavte na serveru Apache Hive následující konfigurační parametry:

set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true;   # (not required for version 2)

set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true;   # might not be available depending on the version
set hive.compactor.worker.threads=1;

Další informace viz Hive Transactions.

Maskování toku

Používáte-li tok Masking, můžete se při privatizaci dat setkat s těmito známými problémy a omezeními.

Úlohy maskování toku mohou selhat

Během úlohy maskování toku se může Spark pokusit načíst celý zdroj dat do paměti. Chyby se mohou vyskytnout, když není dostatek paměti pro podporu úlohy. Největší objem dat, který se vejde do největšího implementovaného uzlu zpracování Spark, je přibližně 12GBs.

Nelze uložit změny znaku Masking

Když vytvoříte nové nebo upravíte existující pravidlo ochrany dat pro redakci sloupců s třídou dat, může dojít k potížím s uložením změn z výchozího maskovacího znaku X na jakýkoli jiný znak.

Pokud klepnete na tlačítko Vytvořit (nebo Aktualizovat), abyste uložili své pravidlo dříve, než se nový znak zobrazí pod sloupcem Po v sekci Vzorová data , vaše změna Maskovacího znaku se neuloží.

Náhradní řešení pro uložení pravidla s novým maskovacím znakem:
Počkejte asi 3 sekundy, dokud data ve sloupci Po v sekci Vzorová data nebudou znovu označena novým maskovacím znakem, pak můžete klepnutím na tlačítko Vytvořit (nebo Aktualizovat) uložit pravidlo s novým znakem.

Data Refinery

Používáte-li produkt Data Refinery, můžete se při upřesňování dat setkat s těmito známými problémy a omezeními.

Nelze zobrazit úlohy v toku Data Refinery v uživatelském rozhraní nových projektů

Pokud pracujete v uživatelském rozhraní nových projektů, nemáte možnost zobrazit úlohy z nabídky voleb v Data Refinery rafinérie dat.

Náhradní řešení: Chcete-li zobrazit úlohy v tocích Data Refinery, otevřete tok Data Refinery , klepněte na ikonu Úlohy Ikona spuštění nebo plánování úlohya vyberte volbu Uložit a zobrazit úlohy. Seznam všech úloh v projektu můžete zobrazit na kartě Úlohy .

Problémy zápisníku

Některé z těchto problémů se mohou vyskytnout, když začínáte pracovat s notebooky a používáte je.

Duplikování zápisníku nevytvoří jedinečný název v uživatelském rozhraní nových projektů

Když duplikujete zápisník v uživatelském rozhraní nových projektů, duplicitní zápisník se nevytvoří s jedinečným názvem.

Nelze vytvořit aktiva ve starších účtech

Pokud pracujete v instanci produktu Watson Studio , která byla aktivována před listopadem 2017, možná nebudete moci vytvářet provozní aktiva, jako např. notebooky. Pokud tlačítko Vytvořit zůstane šedé a zakázané, musíte přidat službu Watson Studio do svého účtu z katalogu služeb.

Při spouštění produktu Watson Studio došlo k interní chybě serveru 500.

Při spouštění produktu Watson Studiose může zřídka vyskytnout interní chyba serveru HTTP (500). Příčinou může být soubor cookie s vypršenou platností uložený v prohlížeči. Chcete-li potvrdit, že chyba byla způsobena zastaralým souborem cookie, zkuste spustit produkt Watson Studio v soukromé relaci prohlížení (inkognito) nebo pomocí jiného prohlížeče. Pokud se můžete úspěšně spustit v novém prohlížeči, chyba byla způsobena souborem cookie s vypršenou platností. Máte na výběr z usnesení:

  1. Chcete-li resetovat soubor cookie, ukončete aplikaci prohlížeče úplně. Musíte zavřít a restartovat aplikaci, ne jen zavřít okno prohlížeče. Restartujte aplikaci prohlížeče a spuštěním produktu Watson Studio resetujte soubor cookie relace.
  2. Vymažte soubory cookie IBM z dat procházení a spusťte produkt Watson Studio. Podívejte se na údaje o prohlížení nebo možnosti zabezpečení v prohlížeči vymazat soubory cookie. Mějte na paměti, že vymazání všech souborů cookie IBM může mít vliv na ostatní aplikace IBM .

Pokud 500 chyb přetrvává i po provedení jednoho z těchto řešení, zkontrolujte stavovou stránku pro incidenty IBM Cloud ovlivňující produkt Watson Studio. Dále můžete otevřít případ podpory na adrese IBM Cloud portál podpory.

Chyba během přihlášení

Můžete získat tuto chybovou zprávu při pokusu o přihlášení k produktu Watson Studio: "Access Manager WebSEAL nemohl dokončit váš požadavek kvůli neočekávané chybě." Zkuste se znovu přihlásit. Obvykle druhý pokus o přihlášení funguje.

Ruční instalace některých tenzorových knihoven není podporována

Některé knihovny toku tenzoru jsou předinstalovány, ale pokud se pokusíte nainstalovat další knihovny toku tenzoru sami, obdržíte chybu.

Připojení k jádru zápisníku trvá po spuštění kódové buňky déle, než se očekávalo.

Pokud se pokusíte znovu připojit k jádru a okamžitě spustit kódovou buňku (nebo pokud došlo k opětovnému připojení jádra během provádění kódu), zápisník se znovu nepřipojí k jádru a pro kódovou buňku se nezobrazí žádný výstup. Musíte se ručně znovu připojit k jádru klepnutím na volbu Jádro > Znovu připojit. Až bude jádro připraveno, můžete zkusit spustit buňku kódu znovu.

Použití předdefinovaného objektu sqlContext ve více zápisnících způsobí chybu.

Pokud použijete předdefinovaný objekt sqlContext ve více zápisnících, můžete obdržet chybu Apache Spark . Vytvořte nový objekt sqlContext pro každý zápisník. Viz toto vysvětlení přetečení zásobníku.

Zpráva o selhání připojení

Pokud se jádro zastaví, zápisník se již automaticky neuloží. Chcete-li jej uložit, klepněte na volbu Soubor > Uložit ručně a v oblasti informací o jádru, která se zobrazuje před verzí produktu Spark, byste měli zobrazit zprávu Notebook uložen . Pokud obdržíte zprávu, že se jádro nezdařilo, znovu připojte zápisník k jádru klepnutím na volbu Jádro > Znovu připojit. Pokud jádro znovu nespustíte a zápisník nelze uložit, můžete jej stáhnout a uložit změny klepnutím na volbu Soubor > Stáhnout jako > Zápisník (.ipynb). Poté je třeba vytvořit nový zápisník na základě staženého souboru zápisníku.

Nelze se připojit k jádru zápisníku

Pokud se pokusíte spustit zápisník a zobrazí se zpráva Connecting to Kernelnásledovaná zprávou Connection failed. Reconnecting a nakonec chybovou zprávou o selhání připojení, příčinou může být, že brána firewall blokuje spuštění zápisníku.

Pokud je produkt Watson Studio nainstalován za bránou firewall, musíte přidat připojení WebSocket wss://dataplatform.cloud.ibm.com do nastavení brány firewall. Povolení tohoto připojení WebSocket je vyžadováno, pokud používáte notebooky a RStudio.

Chyba nedostatku dostupných prostředků při otevírání nebo úpravě zápisníku

Pokud se při otevírání nebo úpravě zápisníku zobrazí následující zpráva, běhové prostředí prostředí přidružené k zápisníku má problémy s prostředky:

Insufficient resources available
A runtime instance with the requested configuration can't be started at this time because the required hardware resources aren't available.
Try again later or adjust the requested sizes.

Chcete-li zjistit příčinu, zkuste zkontrolovat stavovou stránku pro incidenty IBM Cloud ovlivňující Watson Studio. Dále můžete otevřít případ podpory na portálu podpory IBM Cloud .

Problémy se strojovým učením

Při práci s nástroji pro strojové učení se můžete setkat s některými z těchto problémů.

Požadavky na oblast

Instanci služby Watson Machine Learning můžete přidružit ke svému projektu pouze v případě, že se instance služby Watson Machine Learning a instance Watson Studio nacházejí ve stejném regionu.

Přístup k odkazům, pokud vytvoříte instanci služby během přidružení služby k projektu

Když přidružujete službu Watson Machine Learning k projektu, máte možnost vytvořit novou instanci služby. Pokud se rozhodnete vytvořit novou službu, odkazy na stránce služby nemusí fungovat. Chcete-li získat přístup k podmínkám služby, rozhraním API a dokumentaci, klepněte pravým tlačítkem myši na odkazy a otevřete je v nových oknech.

Aktiva federovaného učení nelze prohledávat ve všech aktivech, výsledcích hledání ani ve výsledcích filtrování v uživatelském rozhraní nových projektů.

Nemůžete prohledávat aktiva sdruženého učení z pohledu Všechna aktiva , výsledky hledání nebo výsledky filtru vašeho projektu.

Řešení: Klepnutím na aktivum federovaného učení otevřete nástroj.

Problémy s implementací

  • Nasazení, které je neaktivní (bez skóre) pro nastavený čas (24 hodin pro volný plán nebo 120 hodin pro placený plán), je automaticky hibernováno. Když je odeslán nový požadavek na přidělení skóre, nasazení je znovu aktivováno a požadavek na skóre je obsloužen. Očekávejte krátkou prodlevu 1 až 60 sekund pro první požadavek na skóre po aktivaci, v závislosti na rámci modelu.
  • U některých rámců, například modeláře SPSS , může první požadavek na skóre pro implementovaný model po hibernaci vést k chybě 504. Pokud k tomu dojde, odešlete požadavek znovu; následné požadavky by měly být úspěšné.

Známá omezení AutoAI

  • Experimenty AutoAI v současné době nepodporují dvoubajtové znakové sady. AutoAI podporuje pouze soubory CSV se znaky ASCII. Uživatelé musí převést jakékoli znaky jiné než ASCII v názvu souboru nebo obsahu a poskytnout vstupní data jako CSV, jak je definováno v tomto standardu CSV.

  • Chcete-li programově interaktivně spolupracovat s modelem AutoAI , použijte místo klienta Python rozhraní REST API. Rozhraní API pro klienta Python požadovaná pro podporu AutoAI nejsou v tuto chvíli obecně k dispozici.

Datový modul nebyl nalezen v produktu IBM Federated Learning

Popisovač dat pro produkt IBM Federated Learning se pokouší extrahovat datový modul z knihovny FL, ale nemůže jej najít. Může se zobrazit následující chybová zpráva:

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

Problém může být výsledkem použití zastaralé DataHandler. Zkontrolujte a aktualizujte DataHandler tak, aby odpovídal nejnovějším specifikacím. Zde je odkaz na nejnovější popisovač dat MNIST nebo se ujistěte, že jsou vaše ukázkové verze aktuální.

Náhled maskovaných datových aktiv je blokován v prostoru implementace * *

Náhled datového aktiva může selhat s touto zprávou: This asset contains masked data and is not supported for preview in the Deployment Space

Prostory implementace momentálně nepodporují maskování dat, takže náhled pro maskovaná aktiva byl zablokován, aby se zabránilo úniku dat.

Dávkové úlohy implementace, které používají velký vložený informační obsah, se mohou zablokovat v starting nebo running stavu

Pokud pro vloženou dávkovou implementaci poskytnete velký asynchronní informační obsah, může to vést k tomu, že proces správce běhového prostředí vyjde z paměti haldy.

V následujícím příkladu bylo vloženo 92 MB informačního obsahu do dávkové implementace, což vedlo k nedostatku paměti v haldě.

Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
	at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
	at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
	at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
	at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
   ...

To může vést k zablokování souběžných úloh ve stavu starting nebo running . Stav starting lze vymazat pouze po odstranění implementace a vytvoření nové implementace. Stav running lze vymazat bez odstranění implementace.

Jako náhradní řešení použijte odkazy na data namísto vložených odkazů pro velké informační obsahy, které jsou poskytovány pro dávkové implementace.

Problémy s Cognos Dashboard Embedded

Některé z těchto problémů se mohou vyskytnout při práci s Cognos Dashboard Embedded.

Soubory CSV obsahující duplicitní názvy sloupců nejsou podporovány

Cognos Dashboard Embedded nepodporuje soubory CSV, které obsahují duplicitní názvy sloupců. Duplikáty nerozlišují velká a malá písmena. Například BRANCH_NAME, branch_namea Branch_Name jsou považovány za duplicitní názvy sloupců.

Panely dashboard Cognos mohou používat pouze datová připojení vytvořená s pověřením jména uživatele a hesla

Cognos Dashboard Embedded vyžaduje, aby databázová připojení a připojená datová aktiva přidaná jako zdroje dat do panelu dashboard obsahovala pověření jména uživatele a hesla.

Nejsou-li tato pověření určena v připojení a místo toho je použit token nebo klíč rozhraní API, nemůže Cognos Dashboard Embedded použít toto připojení nebo připojené datové aktivum jako zdroj dat.

Pro aktiva s upřesněnými daty byl zobrazen nesprávný datový typ.

Pokud po importu souboru CSV klepnete na importovaný soubor na stránce Přehled datových aktiv , typy některých sloupců se nemusí zobrazit správně. Například datová sada sestavy společnosti se sloupcem s názvem Revenue , který obsahuje výnosy společnosti, se může zobrazit jako typ String, namísto číselně orientovaného datového typu, který je logičtější.

Nepodporované speciální znaky v souborech CSV

Název zdrojového souboru CSV může obsahovat jiné než alfanumerické znaky. Název souboru CSV však nesmí obsahovat speciální znaky / : & < . \ ". Pokud název souboru obsahuje tyto znaky, jsou odebrány z názvu tabulky.

Důležité: Názvy sloupců tabulky ve zdrojovém souboru CSV nemohou obsahovat žádný z nepodporovaných speciálních znaků. Tyto znaky nelze odebrat, protože název v modulu dat se musí shodovat s názvem sloupce ve zdrojovém souboru. V tomto případě odeberte speciální znaky v názvech sloupců, abyste povolili použití dat v řídicím panelu.

Řetězcové hodnoty v souborech CSV jsou omezeny na 128 znaků

Řetězcové hodnoty ve sloupci ve zdrojovém souboru CSV mohou mít délku pouze 128 znaků. Pokud má váš soubor CSV řetězcové sloupce s hodnotami, které jsou delší, zobrazí se chybová zpráva.

Omezení formátu data v souborech CSV

Pro soubory CSV používané ve vizualizacích existují omezení formátu data. Podrobnosti naleznete v tématu Řešení problémů při používání dat ze souborů CSV v komponentě Cognos Dashboard Embedded.

Nelze nahradit datovou tabulku ve vizualizaci

Když přidáte vizualizaci do panelu dashboard, nemůžete do vizualizace přidat datovou tabulku, pokud jste již dříve přidali (a poté odebrali) datová pole z jiné datové tabulky. Toto omezení platí pro Db2, tabulky CSV a další zdroje dat.

Funkce Cognos Analytics , které nejsou podporovány

Následující funkce produktu IBM Cognos Analytics nejsou v panelech dashboard podporovány:

  • Seskupení dat
  • Vlastní palety barev
  • Vlastní vizualizace
  • Asistent
  • Prognózování
  • Náhledy ve vizualizaci
  • Vizualizace zápisníku Jupyter
  • Pokročilé analýzy dat

Problémy s produktem Watson OpenScale

V produktu Watson OpenScalese můžete setkat s následujícími problémy:

Konfigurace Drift je spuštěna, ale nikdy neskončí

Konfigurace Drift je spuštěna, ale nikdy neskončí a pokračuje v zobrazení ikony spinner. Pokud uvidíte, že spinner běží déle než 10 minut, je možné, že systém zůstane v nekonzistentním stavu. Existuje náhradní řešení tohoto chování: Upravte konfiguraci driftu. Tak si ji uložte. Systém může vyjít z tohoto stavu a dokončit konfiguraci. Pokud drift rekonfigurace situaci nenapraví, obraťte se na podporu IBM .

Problémy s produktem SPSS Modeler

Při práci v produktu SPSS Modelerse můžete setkat s některými z těchto problémů.

Běhová omezení produktu SPSS Modeler

Produkt Watson Studio nezahrnuje funkce SPSS v Peru, Ekvádoru, Kolumbii a Venezuele.

Chyba při pokusu o zastavení spuštěného toku

Při spuštění toku SPSS Modeler můžete narazit na chybu, pokud se pokusíte zastavit tok ze stránky Prostředí pod kartou Spravovat vašeho projektu. Chcete-li zcela zastavit běhové prostředí SPSS Modeler a spotřebu CUH, zavřete karty prohlížeče, kde máte otevřený tok.

Importované uzly exportu datových aktiv někdy selhávají při spuštění

Když vytvoříte nový tok naimportováním proudu SPSS Modeler (soubor .str), migrujte uzel exportu a pak spusťte výsledný uzel exportu datového aktiva, spuštění může selhat. Chcete-li tento problém obejít: spusťte uzel znovu, změňte název výstupu a změňte volbu Pokud datová sada již existuje ve vlastnostech uzlu, spusťte uzel znovu.

Náhled dat může selhat, pokud se změní metadata tabulky

V některých případech při použití uzlu importu datového aktiva k importu dat z připojení může náhled dat vrátit chybu, pokud se změnila metadata základní tabulky (datový model). Znovu vytvořte uzel Datové aktivum, abyste vyřešili problém.

Nelze zobrazit výstup po spuštění uzlu výstupu rozšíření

Při spuštění uzlu výstupu rozšíření s vybranou volbou Výstup do souboru vrátí výsledný výstupní soubor chybu, když se jej pokusíte otevřít z panelu Výstupy.

Nelze zobrazit náhled dat aplikace Excel z připojení IBM Cloud Object Storage

Momentálně nemůžete zobrazit náhled dat .xls nebo .xlsx z připojení IBM Cloud Object Storage .

Čísla interpretovaná jako řetězec

Jakékoli číslo s přesností větší nebo rovnou 32 a měřítkem rovným 0 bude interpretováno jako řetězec. Potřebujete-li toto chování změnit, můžete použít uzel Filler k přetypování pole na reálné číslo pomocí výrazu to_real (@FIELD).

SuperNode obsahující uzly importu

Pokud má váš tok uzel SuperNode , který obsahuje uzel importu, nemusí být vstupní schéma správně nastaveno při ukládání modelu s volbou Scoring branch . Chcete-li tento problém obejít, před uložením rozbalte uzel SuperNode .

Export do souboru SAV

Při použití uzlu exportu datového aktiva pro export do souboru SAV SPSS Statistics (.sav) volba Nahradit datové aktivum nebude fungovat, pokud vstupní schéma neodpovídá výstupnímu schématu. Schéma existujícího souboru, který chcete nahradit, se musí shodovat.

Migrace uzlů importu

Pokud importujete proud (.str) do toku, který byl vytvořen na pracovní ploše SPSS Modeler a obsahuje jeden nebo více nepodporovaných uzlů importu, budete vyzváni k migraci uzlů importu na datová aktiva. Pokud proud obsahuje více uzlů importu, které používají stejný datový soubor, musíte nejprve přidat tento soubor do projektu jako datové aktivum před migrací, protože migrace nemůže odeslat stejný soubor do více než jednoho uzlu importu. Po přidání datového aktiva do projektu znovu otevřete tok a pokračujte v migraci pomocí nového datového aktiva.

Nastavení analýzy textu se neuloží

Po zavření pracovní plochy analýzy textu se všechna nastavení filtru nebo nastavení sestavení kategorie, která jste upravili, neuloží do uzlu tak, jak by měla být.

Sloučit znaky uzlu a unicode

Uzel sloučení zachází s následujícími velmi podobnými japonskými znaky jako se stejným znakem.
japonské znaky

Známé problémy Watson Pipelines

Problémy se týkají Watson Pipelines.

Vnoření smyček více než 2 úrovně může vést k chybě propojení procesů

Vnoření smyček více než 2 úrovně může vést k chybě při spuštění propojení procesů, jako např. Chyba při načítání spuštění. Přezkoumání protokolů může zobrazit chybu, jako např. text in text not resolved: neither pipeline_input nor node_output. Pokud cyklujete s výstupem ze skriptu Bash, může protokol vypsat chybu podobnou této: PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output). Chcete-li problém vyřešit, nevnořujte smyčky více než 2 úrovně.

Prohlížeč aktiv neodráží vždy počet pro celkový počet typů aktiv

Při výběru aktiva v prohlížeči aktiv, jako je například výběr zdroje pro uzel kopie, uvidíte, že některá aktiva uvádějí celkový počet dostupných typů aktiv, ale notebooky ne. To je aktuální omezení.

Nelze odstranit verze propojení procesů

V současné době nemůžete odstranit uložené verze kanálů, které již nepotřebujete.

Odstranění experimentu AutoAI se za určitých podmínek nezdaří.

Použití uzlu Odstranit AutoAI experiment k odstranění experimentu AutoAI , který byl vytvořen z uživatelského rozhraní projektů, neodstraní aktivum AutoAI . Zbytek toku však může být úspěšně dokončen.

Mezipaměť se zobrazí jako povolená, ale není povolena

Pokud je volba Kopírovat aktiva Režim kopírování uzlu plynovodů nastavena na hodnotu Overwrite, mezipaměť se zobrazí jako povolená, ale zůstane zakázána.

Omezení Watson Pipelines

Tato omezení se vztahují na Watson Pipelines.

Jednotlivé limity propojení procesů

Toto omezení platí pro jedno propojení procesů bez ohledu na konfiguraci.

  • Každé jednotlivé propojení procesů nemůže obsahovat více než 120 standardních uzlů.
  • Každé propojení procesů se smyčkou nemůže obsahovat více než 600 uzlů ve všech iteracích (například 60 iterací-10 uzlů).

Omezení podle velikosti konfigurace

Malá konfigurace

Konfigurace SMALL podporuje 600 standardních uzlů (napříč všemi aktivními kolony) nebo 300 uzlů spuštěných ve smyčce. Například:

  • 30 standardních plynovodů s 20 uzly paralelně = 600 standardních uzlů
  • 3 kolony obsahující smyčku s 10 iteracemi a 10 uzly v každé iteraci = 300 uzlů ve smyčce

Střední konfigurace

Konfigurace MEDIUM podporuje 1200 standardních uzlů (napříč všemi aktivními kolony) nebo 600 uzlů spuštěných ve smyčce. Například:

  • 30 standardních plynovodů se 40 uzly běží paralelně = 1200 standardních uzlů
  • 6 kanálů obsahujících smyčku s 10 iteracemi a 10 uzlů v každé iteraci = 600 uzlů ve smyčce

Velká konfigurace

Konfigurace LARGE podporuje 4800 standardních uzlů (napříč všemi aktivními kolony) nebo 2400 uzlů spuštěných ve smyčce. Například:

  • 80 standardních propojení procesů s 60 uzly běží paralelně = 4800 standardních uzlů
  • 24 kolony obsahující smyčku s 10 iteracemi a 10 uzly v každé iteraci = 2400 uzlů ve smyčce

Omezení velikosti vstupu a výstupu

Vstupní a výstupní hodnoty, které zahrnují parametry propojení procesů, uživatelské proměnné a generické vstupy a výstupy uzlů, nemohou překročit 10 kB dat.

Dávkový vstup omezen na datová aktiva

V současné době je vstup pro úlohy dávkového nasazení omezen na datová aktiva. To znamená, že určité typy implementací, které vyžadují vstup JSON nebo více souborů jako vstup, nejsou podporovány. Například modely SPSS a řešení Decision Optimization , která vyžadují více souborů jako vstup, nejsou podporována.

Problémy s Cloud Object Storage

Tento problém se týká práce s produktem Cloud Object Storage.

Problémy s Cloud Object Storage , když je povolena volba Key Protect

Key Protect ve spojení s produktem Cloud Object Storage není podporován pro práci s aktivy Watson Machine Learning . Používáte-li produkt Key Protect, můžete se s těmito problémy setkat při práci s aktivy v produktu Watson Studio.

  • Školení nebo uložení těchto aktiv Watson Machine Learning může selhat:
    • Automatická umělá inteligence
    • Federované učení
    • Watson Pipelines
  • Je možné, že nebudete moci uložit model SPSS nebo model zápisníku do projektu.
Generative AI search and answer
These answers are generated by a large language model in watsonx.ai based on content from the product documentation. Learn more