0 / 0
Go back to the English version of the documentation
Znane problemy i ograniczenia

Znane problemy i ograniczenia

Do produktu Cloud Pak for Data as a Servicemają zastosowanie następujące ograniczenia i znane problemy.

Lista problemów z produktem Watson Knowledge Catalog

Lista problemów z przepływem maskowania

Lista problemów z Data Refinery

Lista problemów z Watson Query

Lista problemów z notatnikami

Lista problemów z uczeniem maszynowym

Lista problemów z Cognos Dashboard Embedded

Lista problemów dotyczących systemu Watson OpenScale

Lista problemów z programem SPSS Modeler

Problemy z produktem Cloud Object Storage

  • Lista problemów z uczeniem maszynowym
    • Błąd dotyczący zasobów korzystających z usługi Watson Machine Learning w projektach, w których określono opcję Cloud Object Storage z włączoną opcją Key Protect .
    • Automatyczna sztuczna inteligencja
    • Stowarzysz nauczanie
    • Watson Pipelines
  • Lista problemów z programem SPSS Modeler
    • Nie można zapisać modelu w projekcie, podając opcję Cloud Object Storage z włączoną opcją Key Protect .
  • Lista problemów z notatnikami
    • Nie można zapisać modelu w projekcie, podając opcję Cloud Object Storage z włączoną opcją Key Protect .

Watson Knowledge Catalog

Jeśli używany jest produkt Watson Knowledge Catalog, podczas korzystania z katalogów mogą wystąpić te znane problemy i ograniczenia.

Synchronizowanie pamięci podręcznych kategorii usługi strategii danych (DPS)

Ze względu na wydajność usługa strategii danych (DPS) przechowuje kopię kategorii glosariusza w pamięciach podręcznych. Podczas tworzenia, aktualizowania lub usuwania kategorii usługa glosariusza publikuje zdarzenia RabbitMQ , aby odzwierciedlić te zmiany. DPS nasłuchuje tych zdarzeń i aktualizuje pamięci podręczne. Jednak w niektórych rzadkich przypadkach komunikat może zostać utracony, gdy usługa RabbitMQ jest wyłączona lub zbyt zajęta. Produkt DPS udostępnia program narzędziowy interfejsu REST API do aktualizowania pamięci podręcznej.

W czasie przestoju, który nie zawiera zmian kategorii, można uruchomić następujący program narzędziowy interfejsu REST API, aby uniknąć nieoczekiwanych wyników wymuszania podczas wykonywania i niedokładnych aktualizacji pamięci podręcznej:

curl -v -k -X GET --header "Content-Type: application/json"
  --header "Accept: application/json"
  --header "Authorization: Bearer ${token}"
    "${uri}/v3/enforcement/governed_items/sync/category"

Ten interfejs API REST jest dostępny w usłudze Watson Knowledge Catalog .

Dane maskowane nie są obsługiwane w wizualizacjach danych

Dane maskowane nie są obsługiwane w wizualizacjach danych. Próba pracy z danymi maskowanymi podczas generowania wykresu na karcie Wizualizacje zasobu danych w projekcie spowoduje wyświetlenie następującego komunikatu o błędzie: Bad Request: Failed to retrieve data from server. Masked data is not supported.

Dane nie są zamaskowane w niektórych narzędziach projektu

Po dodaniu do projektu połączonego zasobu danych, który zawiera zamaskowane kolumny z katalogu, kolumny pozostają zamaskowane podczas wyświetlania danych i podczas doprecyzowania danych w narzędziu Data Refinery . Jednak inne narzędzia w projektach nie zachowują maskowania, gdy uzyskują dostęp do danych za pośrednictwem połączenia. Na przykład po załadowaniu połączonych danych w notatniku, przepływie DataStage , panelu kontrolnego lub innych narzędziach projektowych można uzyskać dostęp do danych za pośrednictwem połączenia bezpośredniego i pominąć maskowanie.

Predefiniowane artefakty zarządzania mogą być niedostępne

Jeśli nie są wyświetlane żadne predefiniowane klasyfikacje ani klasy danych, należy ponownie zainicjować najemcę za pomocą następującego wywołania API:

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

Dodaj współpracowników z małymi literami adresami e-mail

Podczas dodawania współpracowników do katalogu należy wprowadzić adresy e-mail zawierające tylko małe litery. Adresy e-mail z mieszanymi wielkami liter nie są obsługiwane.

Ograniczenia dotyczące połączeń Object Storage

W przypadku połączenia z systemem Cloud Object Storage (S3 API) lub Cloudant sam folder jest wyświetlany jako zasób podrzędny.

Wiele współbieżnych operacji połączenia może zakończyć się niepowodzeniem

Błąd może wystąpić, gdy wielu użytkowników wykonuje współbieżnie operacje połączenia. Komunikat o błędzie może być różny.

Nie można włączyć wymuszania reguł ochrony danych po utworzeniu katalogu

Po utworzeniu katalogu nie można włączyć wymuszania reguł ochrony danych. Aby zastosować reguły ochrony danych do zasobów w katalogu, należy włączyć wymuszanie podczas tworzenia katalogu.

Zasoby są blokowane, jeśli wartościowanie nie powiedzie się

Następujące ograniczenia mają zastosowanie do zasobów danych w katalogu z wymuszonymi strategiami: plikowe zasoby danych, które mają nagłówek, nie mogą mieć zduplikowanych nazw kolumn, kropki (.) ani pojedynczego cudzysłowu (') w nazwie kolumny.

Jeśli ocena nie powiedzie się, zasób jest blokowany dla wszystkich użytkowników z wyjątkiem właściciela zasobu. Wszyscy inni użytkownicy widzą komunikat o błędzie informujący, że nie można wyświetlić zasobu danych, ponieważ wartościowanie nie powiodło się i zasób jest zablokowany.

Tylko przycisk Wstecz przeglądarki powoduje powrót do zasobu aplikacyjnego wzbogacania metadanych ze strony ustawień domyślnych.

Po otwarciu strony Ustawienia domyślne z poziomu zasobu aplikacyjnego wzbogacania metadanych nie można wrócić do zasobu aplikacyjnego przy użyciu przycisku w interfejsie użytkownika produktu ani w ścieżce nawigacyjnej. Użyj przycisku Wstecz przeglądarki, aby wrócić do zasobu aplikacyjnego.

W wynikach wzbogacania metadanych rozróżniana jest wielkość liter tylko w filtrze klasy danych

Podczas filtrowania wyników wzbogacania metadanych na karcie Kolumna wielkość liter jest rozróżniana tylko w pozycjach Klasa danych . Wszystkie wpisy w filtrach terminów biznesowych, schematówi zasobów aplikacyjnych są pisane małymi literami, niezależnie od wielkości liter w wartości.

Opcje filtru w wynikach wzbogacania metadanych mogą nie być aktualizowane natychmiast

Po dodaniu zasobów, przypisaniu nowych klas danych lub warunków biznesowych albo usunięciu warunków biznesowych odpowiednie filtry nie są natychmiast aktualizowane. Aby obejść ten problem, należy odświeżyć przeglądarkę w celu wyświetlenia zaktualizowanych list filtrów.

Szczegóły wzbogacania dla zasobu mogą nie odzwierciedlać ustawień zastosowanych podczas ostatniego uruchomienia wzbogacania

Po edycji opcji wzbogacania metadanych, które zostały uruchomione co najmniej raz, szczegóły zasobu mogą wyświetlać zaktualizowane opcje zamiast opcji zastosowanych w ostatnim uruchomieniu wzbogacania.

Nie można uzyskać bezpośredniego dostępu do poszczególnych stron w zasobie wzbogacania metadanych

Jeśli liczba zasobów lub kolumn w zasobie wzbogacania metadanych obejmuje kilka stron, nie można przejść bezpośrednio do konkretnej strony. Lista rozwijana numerów stron jest wyłączona. Zamiast nich należy używać przycisków Następna strona i Poprzednia strona .

Niekompletne szczegóły przypisanej klasy danych w wynikach wzbogacania kolumny

Po kliknięciu przypisanej klasy danych na karcie Zarządzanie szczegółów kolumny w wynikach wzbogacania metadanych zostanie wyświetlony podgląd szczegółów klasy danych. Szczegóły są jednak niekompletne.

W niektórych przypadkach pełny dziennik zadania wzbogacania metadanych może nie być widoczny w interfejsie użytkownika.

Jeśli lista błędów w przebiegu wzbogacania metadanych jest wyjątkowo długa, w interfejsie użytkownika może być wyświetlana tylko część dziennika zadania.

Obejście: Pobierz cały dziennik i przeanalizuj go w edytorze zewnętrznym.

Podczas filtrowania wyników wzbogacania mogą brakować informacji o schemacie

Podczas filtrowania zasobów lub kolumn w wynikach wzbogacania w informacjach źródłowych informacje o schemacie mogą być niedostępne.

Obejście: Ponownie uruchom zadanie wzbogacania i zastosuj filtr Źródło .

Reguły uruchamiane dla kolumn typu time w zasobach danych ze źródła danych Amazon Redshift nie zwracają poprawnych wyników

W przypadku zasobów danych ze źródeł danych Amazon Redshift kolumny typu czas są importowane z typem datownika. Do takich kolumn nie można stosować reguł jakości danych specyficznych dla czasu.

Zapisywanie danych wyjściowych wzbogacania metadanych do wcześniejszej wersji produktu Apache Hive niż 3.0.0

Aby zapisać dane wyjściowe dotyczące jakości danych wygenerowane przez wzbogacanie metadanych w bazie danych Apache Hive w wersji oprogramowania wcześniejszej niż 3.0.0, należy ustawić następujące parametry konfiguracyjne na serwerze Apache Hive :

set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true;   # (not required for version 2)

set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true;   # might not be available depending on the version
set hive.compactor.worker.threads=1;

Więcej informacji na ten temat zawiera sekcja TransakcjeHive.

Maskowanie przepływu

Jeśli używany jest przepływ maskowania, mogą wystąpić te znane problemy i ograniczenia podczas prywatyzacji danych.

Maskowanie zadań przepływu może się nie powieść

Podczas maskowania zadania przepływu program Spark może próbować wczytać do pamięci wszystkie źródła danych. Błędy mogą wystąpić, gdy nie ma wystarczającej ilości pamięci do obsługi zadania. Największy wolumen danych, który może zmieścić się w największym wdrożonym węźle przetwarzania Spark, wynosi około 12GBs.

Nie można zapisać zmian w znaku maskowania

Podczas tworzenia nowej lub edytowania istniejącej reguły ochrony danych w celu utajnienia kolumn z klasą danych mogą wystąpić problemy z zapisaniem zmian z domyślnego znaku maskowania X na dowolny inny znak.

Jeśli zostanie kliknięty przycisk Utwórz (lub Aktualizuj) w celu zapisania reguły przed wyświetleniem nowego znaku w kolumnie Po w sekcji Dane przykładowe , zmiana na Znak maskowania nie zostanie zapisana.

Obejście w celu zapisania reguły z nowym znakiem maskowania:
Poczekaj około 3 sekund, aż dane w kolumnie Po w sekcji Dane przykładowe zostaną zredagowanie z nowym znakiem maskowania. Następnie kliknij przycisk Utwórz (lub Aktualizuj), aby zapisać regułę z nowym znakiem.

Data Refinery

Jeśli używana jest opcja Data Refinery, mogą wystąpić te znane problemy i ograniczenia podczas precyzowania danych.

Nie można wyświetlić zadań w przepływach Data Refinery w interfejsie użytkownika nowych projektów.

Jeśli użytkownik pracuje w interfejsie użytkownika nowych projektów, nie ma opcji wyświetlania zadań z menu opcji w przepływach Data Refinery.

Obejście: Aby wyświetlić zadania w przepływach Data Refinery, otwórz przepływ Data Refinery , kliknij ikonę Zadania Ikona uruchomienia lub zaplanowania zadania, a następnie wybierz opcję Zapisz i wyświetl zadania . Listę wszystkich zadań w projekcie można wyświetlić na karcie Zadania .

Problemy z notatnikiem

Niektóre z tych problemów mogą wystąpić podczas rozpoczynania pracy z notebookami i korzystania z nich.

Duplikowanie notatnika nie powoduje utworzenia unikalnej nazwy w interfejsie użytkownika nowych projektów

W przypadku duplikowania notatnika w interfejsie użytkownika nowych projektów notatnik ten nie jest tworzony z unikalną nazwą.

Nie można utworzyć zasobów na starszych kontach

Jeśli pracujesz w instancji Watson Studio , która została aktywowana przed listopadem 2017, możesz nie mieć możliwości tworzenia zasobów operacyjnych, takich jak notatniki. Jeśli przycisk Utwórz pozostanie szary i wyłączony, należy dodać usługę Watson Studio do konta z katalogu usług.

Podczas uruchamiania produktu Watson Studio odebrano 500 wewnętrznych błędów serwera.

Rzadko podczas uruchamiania produktu Watson Studiomoże wystąpić wewnętrzny błąd serwera HTTP (500). Przyczyną może być informacja cookie, która utraciła ważność, zapisana w przeglądarce. Aby potwierdzić, że błąd został spowodowany przez nieaktualną informację cookie, spróbuj uruchomić produkt Watson Studio w prywatnej sesji przeglądania (incognito) lub za pomocą innej przeglądarki. Jeśli możliwe jest pomyślne uruchomienie w nowej przeglądarce, błąd został spowodowany przez informację cookie, która utraciła ważność. Dostępne są następujące rozwiązania:

  1. Zakończ całkowicie działanie przeglądarki, aby zresetować informację cookie. Należy zamknąć i zrestartować aplikację, a nie tylko zamknąć okno przeglądarki. Zrestartuj przeglądarkę i uruchom program Watson Studio , aby zresetować informację cookie sesji.
  2. Usuń informacje cookie IBM z danych przeglądania i uruchom produkt Watson Studio. Zajrzyj do danych przeglądania lub opcji bezpieczeństwa w przeglądarce, aby wyczyścić informacje cookie. Należy zauważyć, że usunięcie wszystkich informacji cookie IBM może mieć wpływ na inne aplikacje IBM .

Jeśli błąd 500 nadal występuje po wykonaniu jednego z tych rozwiązań, sprawdź stronę statusu dla incydentów IBM Cloud wpływających na produkt Watson Studio. Dodatkowo można otworzyć przypadek wsparcia w programie IBM Cloud portal wsparcia.

Błąd podczas logowania

Podczas próby zalogowania się do Watson Studiomoże zostać wyświetlony następujący komunikat o błędzie: "Access Manager WebSEAL nie mógł zrealizować żądania z powodu nieoczekiwanego błędu." Spróbuj zalogować się ponownie. Zwykle druga próba logowania działa.

Ręczna instalacja niektórych bibliotek tensor nie jest obsługiwana

Niektóre biblioteki tensor flow są wstępnie zainstalowane, ale próba samodzielnego zainstalowania dodatkowych bibliotek tensor flow powoduje wystąpienie błędu.

Połączenie z jądrem notatnika trwa dłużej niż oczekiwano po uruchomieniu komórki kodu

W przypadku próby ponownego połączenia z jądrem i natychmiastowego uruchomienia komórki kodu (lub ponownego połączenia jądra podczas wykonywania kodu) notatnik nie łączy się ponownie z jądrem i dla komórki kodu nie są wyświetlane żadne dane wyjściowe. Należy ręcznie ponownie połączyć się z jądrem, klikając kolejno opcje Jądro > Połącz ponownie. Gdy jądro będzie gotowe, można ponownie uruchomić komórkę kodu.

Użycie predefiniowanego obiektu sqlContext w wielu notatnikach powoduje błąd

W przypadku używania predefiniowanego obiektu sqlContext w wielu notatnikach może wystąpić błąd Apache Spark . Utwórz nowy obiekt sqlContext dla każdego notatnika. Patrz to wyjaśnienie przepełnienia stosu.

Komunikat o niepowodzeniu połączenia

Jeśli jądro zostanie zatrzymane, notatnik nie będzie już automatycznie zapisywany. Aby go zapisać, należy ręcznie kliknąć opcję Plik > Zapisz . W obszarze informacji o jądrze, który jest wyświetlany przed wersją środowiska Spark, powinien zostać wyświetlony komunikat Zapisany w notatniku . Jeśli zostanie wyświetlony komunikat o niepowodzeniu jądra, należy ponownie podłączyć komputer notebook do jądra, klikając kolejno opcje Jądro > Połącz ponownie. Jeśli nic nie spowoduje restartu jądra i nie będzie można zapisać notatnika, można go pobrać w celu zapisania zmian, klikając opcję Plik > Pobierz jako > Notatnik (.ipynb). Następnie należy utworzyć nowy notatnik na podstawie pobranego pliku notatnika.

Nie można połączyć się z jądrem notebooka

Jeśli podczas próby uruchomienia notatnika zostanie wyświetlony komunikat Connecting to Kernel, po którym następuje Connection failed. Reconnecting , a na końcu komunikat o błędzie niepowodzenia połączenia, może to być spowodowane tym, że firewall blokuje działanie notatnika.

Jeśli produkt Watson Studio jest zainstalowany za firewallem, należy dodać WebSocket wss://dataplatform.cloud.ibm.com do ustawień firewalla. Włączenie tego połączenia WebSocket jest wymagane w przypadku korzystania z notatników i produktu RStudio.

Błąd braku wystarczających zasobów podczas otwierania lub edytowania notatnika

Jeśli podczas otwierania lub edytowania notatnika zostanie wyświetlony następujący komunikat, środowisko wykonawcze powiązane z notatnikiem będzie miało problemy z zasobami:

Insufficient resources available
A runtime instance with the requested configuration can't be started at this time because the required hardware resources aren't available.
Try again later or adjust the requested sizes.

Aby znaleźć przyczynę, sprawdź stronę statusu dla incydentów IBM Cloud wpływających na produkt Watson Studio. Dodatkowo można otworzyć przypadek wsparcia w portalu wsparcia IBM Cloud .

Problemy z uczeniem maszynowym

Niektóre z tych problemów mogą wystąpić podczas pracy z narzędziami do uczenia maszynowego.

Wymagania dotyczące regionu

Instancję usługi Watson Machine Learning można powiązać z projektem tylko wtedy, gdy instancja usługi Watson Machine Learning i instancja Watson Studio znajdują się w tym samym regionie.

Uzyskiwanie dostępu do odsyłaczy w przypadku tworzenia instancji usługi podczas tworzenia powiązania usługi z projektem

Podczas tworzenia powiązania usługi Watson Machine Learning z projektem istnieje możliwość utworzenia nowej instancji usługi. Jeśli zostanie wybrana opcja utworzenia nowej usługi, odsyłacze na stronie usługi mogą nie działać. Aby uzyskać dostęp do warunków usługi, interfejsów API i dokumentacji, kliknij prawym przyciskiem myszy odsyłacze, aby otworzyć je w nowych oknach.

Stowarzyszone zasoby edukacyjne nie mogą być przeszukiwane we wszystkich zasobach, wynikach wyszukiwania ani wynikach filtrowania w interfejsie użytkownika nowych projektów

Zasobów wiedzy stowarzyszonej nie można wyszukiwać w widoku Wszystkie zasoby , wynikach wyszukiwania ani wynikach filtrowania projektu.

Obejście: Kliknij zasób aplikacyjny Stowarzyszona nauka, aby otworzyć narzędzie.

Problemy z wdrażaniem

  • Wdrożenie nieaktywne (bez wyników) przez określony czas (24 godziny dla planu bezpłatnego lub 120 godzin dla planu płatnego) jest automatycznie hibernowane. Po wysłaniu nowego żądania oceny wdrożenie jest ponownie aktywowane i obsługiwane jest żądanie oceny. Oczekiwane jest krótkie opóźnienie od 1 do 60 sekund dla pierwszego żądania oceny po aktywacji, w zależności od struktury modelu.
  • W przypadku niektórych środowisk, takich jak SPSS modeler, pierwsze żądanie oceny wdrożonego modelu po hibernacji może spowodować błąd 504. W takim przypadku należy ponowić żądanie; kolejne żądania powinny zakończyć się powodzeniem.

Znane ograniczenia AutoAI

  • Obecnie eksperymenty AutoAI nie obsługują zestawów znaków dwubajtowych. Opcja AutoAI obsługuje tylko pliki CSV ze znakami ASCII. Użytkownicy muszą dokonać konwersji wszystkich znaków innych niż znaki ASCII w nazwie pliku lub w treści i podać dane wejściowe w formacie CSV zgodnie z definicją w tym standardzie CSV.

  • W celu programowej interakcji z modelem AutoAI należy użyć interfejsu API REST zamiast klienta Python . Interfejsy API dla klienta Python wymagane do obsługi funkcji AutoAI nie są obecnie ogólnie dostępne.

Nie znaleziono modułu danych w IBM Federated Learning

Procedura obsługi danych produktu IBM Federated Learning próbuje wyodrębnić moduł danych z biblioteki FL, ale nie może go znaleźć. Może zostać wyświetlony następujący komunikat o błędzie:

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

Problem prawdopodobnie wynika z użycia nieaktualnej DataHandler. Przejrzyj i zaktualizuj DataHandler , aby była zgodna z najnowszą specyfikacją. Poniżej znajduje się odsyłacz do najnowszej procedury obsługi danych MNIST lub sprawdź, czy przykładowe wersje są aktualne.

Wyświetlanie podglądu zamaskowanych zasobów danych jest blokowane w obszarze wdrażania * *

Podgląd zasobu danych może zakończyć się niepowodzeniem z następującym komunikatem: This asset contains masked data and is not supported for preview in the Deployment Space

Obszary wdrażania obecnie nie obsługują maskowania danych, dlatego podgląd zamaskowanych zasobów został zablokowany, aby zapobiec wyciekom danych.

Zadania wdrożenia wsadowego używające dużego ładunku wstawianego mogą utknąć w stanie starting lub running

Jeśli dla wdrożenia wstawianego zadania wsadowego zostanie podany duży ładunek asynchroniczny, może to spowodować, że proces menedżera środowiska wykonawczego wyczerpał pamięć sterty.

W poniższym przykładzie 92 MB ładunku zostało przekazane bezpośrednio do wdrożenia wsadowego, co spowodowało, że sterta zabrakło pamięci.

Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
	at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
	at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
	at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
	at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
   ...

Może to spowodować, że zadania współbieżne będą zablokowane w stanie starting lub running . Stan starting można wyczyścić tylko po usunięciu wdrożenia i utworzeniu nowego wdrożenia. Stan running można wyczyścić bez usuwania wdrożenia.

Aby obejść ten problem, należy używać odwołań do danych zamiast wstawianych w przypadku dużych ładunków, które są udostępniane we wdrożeniach wsadowych.

Problemy z Cognos Dashboard Embedded

Niektóre z tych problemów mogą wystąpić podczas pracy z Cognos Dashboard Embedded.

Pliki CSV zawierające zduplikowane nazwy kolumn nie są obsługiwane

Cognos Dashboard Embedded nie obsługuje plików CSV, które zawierają zduplikowane nazwy kolumn. W duplikatach nie jest rozróżniana wielkość liter. Na przykład BRANCH_NAME, branch_namei Branch_Name są traktowane jako zduplikowane nazwy kolumn.

Panele kontrolne Cognos mogą używać tylko połączeń danych utworzonych z użyciem nazwy użytkownika i hasła

Cognos Dashboard Embedded wymaga, aby połączenia z bazą danych i połączone zasoby danych dodane do panelu kontrolnego jako źródła danych zawierały nazwę użytkownika i hasło.

Jeśli te referencje nie są określone w połączeniu i zamiast nich używany jest token lub klucz API, wówczas Cognos Dashboard Embedded nie może użyć tego połączenia ani połączonego zasobu danych jako źródła danych.

Dla sprecyzowanych zasobów danych wyświetlany jest niepoprawny typ danych

Po zaimportowaniu pliku CSV po kliknięciu zaimportowanego pliku na stronie przegląd zasobów danych typy niektórych kolumn mogą nie być wyświetlane poprawnie. Na przykład zestaw danych raportu jednostki z kolumną o nazwie Przychód , która zawiera przychód jednostki, może być wyświetlany jako typ Łańcuchzamiast typu danych zorientowanego na liczbę, który jest bardziej logiczny.

Nieobsługiwane znaki specjalne w plikach CSV

Nazwa źródłowego pliku CSV może zawierać znaki inne niż alfanumeryczne. Jednak nazwa pliku CSV nie może zawierać znaków specjalnych / : & < . \ ". Jeśli nazwa pliku zawiera te znaki, zostaną one usunięte z nazwy tabeli.

Ważne: Nazwy kolumn tabeli w źródłowym pliku CSV nie mogą zawierać żadnych nieobsługiwanych znaków specjalnych. Nie można usunąć tych znaków, ponieważ nazwa w module danych musi być zgodna z nazwą kolumny w pliku źródłowym. W takim przypadku należy usunąć znaki specjalne z nazw kolumn, aby umożliwić korzystanie z danych w panelu kontrolnym.

Wartości łańcuchowe w plikach CSV są ograniczone do 128 znaków

Wartości łańcuchowe w kolumnie w źródłowym pliku CSV mogą mieć tylko 128 znaków. Jeśli plik CSV zawiera kolumny łańcuchowe z dłuższymi wartościami, zostanie wyświetlony komunikat o błędzie.

Ograniczenia formatu daty w plikach CSV

Istnieją ograniczenia formatu daty dla plików CSV używanych w wizualizacjach. Szczegółowe informacje na ten temat zawiera sekcja Rozwiązywanie problemów podczas korzystania z danych z plików CSV w programie Cognos Dashboard Embedded.

Nie można zastąpić tabeli danych w wizualizacji

Podczas dodawania wizualizacji do kokpitu nie można dodać tabeli danych do wizualizacji, jeśli wcześniej dodano (a następnie usunięto) pola danych z innej tabeli danych. To ograniczenie dotyczy bazy danych Db2, tabel CSV i innych źródeł danych.

Funkcje Cognos Analytics , które nie są obsługiwane

Następujące funkcje produktu IBM Cognos Analytics nie są obsługiwane w panelach kontrolnych:

  • Grupowanie danych
  • Palety kolorów niestandardowych
  • Wizualizacje niestandardowe
  • Asystent
  • Prognozowanie
  • Spostrzeżenia w wizualizacji
  • Wizualizacja w notatniku Jupyter
  • Zaawansowane analizy danych

Problemy z systemem Watson OpenScale

W systemie Watson OpenScalemogą wystąpić następujące problemy:

Konfiguracja dryftu została uruchomiona, ale nigdy nie została zakończona

Konfiguracja dryftu jest uruchamiana, ale nigdy nie kończy się i nadal wyświetla ikonę pola przewijanego. Jeśli działanie pola przewijanego trwa dłużej niż 10 minut, możliwe, że system pozostanie w stanie niespójnym. Istnieje obejście tego zachowania: należy zmodyfikować konfigurację dryftu. Następnie zapisz go. System może wyjść z tego stanu i zakończyć konfigurację. Jeśli rekonfiguracja dryfu nie rozwiąże problemu, skontaktuj się z działem wsparcia IBM .

Problemy z programem SPSS Modeler

Niektóre z tych problemów mogą wystąpić podczas pracy w programie SPSS Modeler.

Ograniczenia środowiska wykonawczego SPSS Modeler

Watson Studio nie zawiera funkcji SPSS w Peru, Ekwadorze, Kolumbii i Wenezueli.

Błąd podczas próby zatrzymania działającego przepływu

Podczas uruchamiania przepływu SPSS Modeler może wystąpić błąd w przypadku próby zatrzymania przepływu ze strony Środowiska na karcie Zarządzanie projektu. Aby całkowicie zatrzymać środowisko wykonawcze SPSS Modeler i wykorzystanie CUH, należy zamknąć karty przeglądarki, na których jest otwarty przepływ.

Czasami nie można uruchomić zaimportowanych węzłów eksportu zasobów danych

Podczas tworzenia nowego przepływu przez zaimportowanie strumienia SPSS Modeler (plik .str), zmigrowanie węzła eksportu, a następnie uruchomienie wynikowego węzła eksportu zasobów danych może się nie powieść. Aby obejść ten problem: należy ponownie uruchomić węzeł, zmienić nazwę wyniku i zmienić opcję Jeśli zestaw danych już istnieje we właściwościach węzła, a następnie ponownie uruchomić węzeł.

Podgląd danych może się nie powieść, jeśli metadane tabeli uległy zmianie

W niektórych przypadkach, gdy do importowania danych z połączenia używany jest węzeł importu Zasób danych, podgląd danych może zwrócić błąd, jeśli bazowe metadane tabeli (model danych) uległy zmianie. Ponownie utwórz węzeł zasobu danych, aby rozwiązać problem.

Nie można wyświetlić wyników po uruchomieniu węzła wyników rozszerzenia

Po uruchomieniu węzła Rozszerzenie Wynik z wybraną opcją Wynik do pliku wynikowy plik wyjściowy zwraca błąd podczas próby otwarcia go z panelu Wyjścia.

Nie można wyświetlić podglądu danych Excel z połączeń IBM Cloud Object Storage

Obecnie nie można wyświetlić podglądu danych .xls lub .xlsx z połączenia IBM Cloud Object Storage .

Liczby interpretowane jako łańcuch

Każda liczba o precyzji większej lub równej 32 i skali równej 0 będzie interpretowana jako łańcuch. Aby zmienić to zachowanie, można użyć węzła wypełniania w celu rzutowania zmiennej na liczbę rzeczywistą, zamiast tego można użyć wyrażenia to_real (@FIELD).

SuperNode zawierający węzły importu

Jeśli przepływ zawiera SuperNode , który zawiera węzeł importu, schemat wejściowy może nie być poprawnie ustawiony po zapisaniu modelu za pomocą opcji Gałąź oceniania . Aby obejść ten problem, przed zapisaniem rozwiń węzeł SuperNode .

Eksportowanie do pliku SAV

Jeśli do eksportu do pliku SAV SPSS Statistics (.sav) używany jest węzeł eksportu zasobu danych, opcja Zastąp zasób danych nie będzie działać, jeśli schemat wejściowy nie jest zgodny ze schematem wyjściowym. Schemat istniejącego pliku, który ma zostać zastąpiony, musi być zgodny.

Migrowanie węzłów importu

Jeśli strumień (.str) zostanie zaimportowany do przepływu utworzonego w programie SPSS Modeler i zawiera co najmniej jeden nieobsługiwany węzeł importu, zostanie wyświetlone zapytanie o migrację węzłów importu do zasobów danych. Jeśli strumień zawiera wiele węzłów importu, które używają tego samego pliku danych, należy najpierw dodać ten plik do projektu jako zasób danych przed migracją, ponieważ migracja nie może przesłać tego samego pliku do więcej niż jednego węzła importu. Po dodaniu zasobu aplikacyjnego danych do projektu należy ponownie otworzyć przepływ i kontynuować migrację przy użyciu nowego zasobu aplikacyjnego danych.

Ustawienia analizy tekstu nie zostały zapisane

Po zamknięciu środowiska roboczego analizy tekstu zmodyfikowane ustawienia filtru lub ustawienia budowania kategorii nie są zapisywane w węźle w sposób, w jakim powinny.

Znaki węzła scalającego i kodu Unicode

Węzeł łączenia traktuje następujące bardzo podobne znaki japońskie jako ten sam znak.
japońskie
znaki

Znane problemy z systemem Watson Pipelines

Problemy dotyczą systemu Watson Pipelines.

Zagnieżdżanie pętli na więcej niż 2 poziomach może spowodować błąd potoku

Zagnieżdżanie pętli na więcej niż 2 poziomach może spowodować błąd podczas uruchamiania potoku, np. Błąd podczas pobierania przebiegu. Przejrzenie dzienników może spowodować wyświetlenie błędu, takiego jak text in text not resolved: neither pipeline_input nor node_output. Jeśli dane wyjściowe skryptu powłoki Bash są powtarzane, dziennik może zawierać błąd podobny do następującego: PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output). Aby rozwiązać ten problem, nie zagnieżdżaj pętli na więcej niż 2 poziomach.

Przeglądarka zasobów nie zawsze odzwierciedla liczbę dla łącznej liczby typów zasobów

Po wybraniu zasobu aplikacyjnego w przeglądarce zasobów aplikacyjnych, na przykład po wybraniu źródła dla węzła kopii, można zauważyć, że niektóre zasoby aplikacyjne zawierają łączną liczbę dostępnych zasobów danego typu, ale notatniki nie są dostępne. Jest to obecne ograniczenie.

Nie można usunąć wersji potoku

Obecnie nie można usunąć zapisanych wersji potoków, które nie są już potrzebne.

Usuwanie eksperymentu AutoAI w pewnych warunkach kończy się niepowodzeniem

Użycie węzła Usuń eksperyment AutoAI do usunięcia eksperymentu AutoAI utworzonego w interfejsie użytkownika Projekty nie powoduje usunięcia zasobu AutoAI . Jednak pozostała część przepływu może zakończyć się pomyślnie.

Pamięć podręczna jest włączona, ale nie jest włączona

Jeśli Tryb kopiowania węzła Kopiuj zasoby jest ustawiony na Overwrite, pamięć podręczna jest wyświetlana jako włączona, ale pozostaje wyłączona.

Ograniczenia Watson Pipelines

Te ograniczenia mają zastosowanie do systemu Watson Pipelines.

Limity pojedynczego potoku

Te ograniczenia mają zastosowanie do pojedynczego potoku, niezależnie od konfiguracji.

  • Pojedynczy potok nie może zawierać więcej niż 120 węzłów standardowych
  • Każdy potok z pętlą nie może zawierać więcej niż 600 węzłów we wszystkich iteracjach (na przykład 60 iteracji-po 10 węzłów)

Ograniczenia dotyczące wielkości konfiguracji

Mała konfiguracja

Konfiguracja SMALL obsługuje 600 standardowych węzłów (we wszystkich aktywnych potokach) lub 300 węzłów działających w pętli. Na przykład:

  • 30 standardowych rurociągów z 20 węzłami działającymi równolegle = 600 standardowych węzłów
  • 3 potoki zawierające pętlę z 10 iteracjami i 10 węzłami w każdej iteracji = 300 węzłów w pętli

Średnia konfiguracja

Konfiguracja MEDIUM obsługuje 1200 węzłów standardowych (we wszystkich aktywnych potokach) lub 600 węzłów działających w pętli. Na przykład:

  • 30 standardowych rurociągów z 40 węzłami działającymi równolegle = 1200 węzłów standardowych
  • 6 potoków zawierających pętlę z 10 iteracjami i 10 węzłami w każdej iteracji = 600 węzłów w pętli

Duża konfiguracja

Konfiguracja typu LARGE obsługuje 4800 węzłów standardowych (we wszystkich aktywnych potokach) lub 2400 węzłów działających w pętli. Na przykład:

  • 80 standardowych rurociągów z 60 równoległymi węzłami = 4800 standardowych węzłów
  • 24 potoki zawierające pętlę z 10 iteracjami i 10 węzłami w każdej iteracji = 2400 węzłów w pętli

Limity wielkości wejścia i wyjścia

Wartości wejściowe i wyjściowe, które obejmują parametry potoku, zmienne użytkownika oraz ogólne dane wejściowe i wyjściowe węzła, nie mogą przekraczać 10 kB danych.

Wprowadzanie wsadowe ograniczone do zasobów danych

Obecnie dane wejściowe dla zadań wdrożenia wsadowego są ograniczone do zasobów danych. Oznacza to, że niektóre typy wdrożeń, które wymagają danych wejściowych JSON lub wielu plików jako danych wejściowych, nie są obsługiwane. Na przykład nie są obsługiwane modele SPSS i rozwiązania Decision Optimization wymagające wielu plików jako danych wejściowych.

Problemy z produktem Cloud Object Storage

Te problemy dotyczą pracy z produktem Cloud Object Storage.

Problemy z produktem Cloud Object Storage , gdy włączona jest opcja Key Protect

Produkt Key Protect w połączeniu z produktem Cloud Object Storage nie jest obsługiwany w przypadku pracy z zasobami Watson Machine Learning . Jeśli używana jest opcja Key Protect, mogą wystąpić te problemy podczas pracy z zasobami w produkcie Watson Studio.

  • Szkolenie lub zapisanie tych zasobów Watson Machine Learning może się nie powieść:
    • Automatyczna sztuczna inteligencja
    • Nauka stowarzyszona
    • Watson Pipelines
  • Zapisanie modelu SPSS lub modelu notatnika w projekcie może być niemożliwe.
Generative AI search and answer
These answers are generated by a large language model in watsonx.ai based on content from the product documentation. Learn more