0 / 0
영어 버전 문서로 돌아가기
알려진 문제점 및 제한사항

알려진 문제점 및 제한사항

다음 제한사항 및 알려진 문제점은 Cloud Pak for Data as a Service에 적용됩니다.

IBM Knowledge Catalog 문제 목록

마스킹 플로우 문제 목록

Data Virtualization 문제 목록

노트북 문제 목록

기계 학습 문제 목록

기계 학습 제한사항 목록

Cognos Dashboard Embedded 문제 목록

Watson OpenScale 문제 목록

SPSS Modeler 문제 목록

연결 문제 목록

Cloud Object Storage 관련 문제

  • 기계 학습 문제 목록
    • Key Protect 가 사용으로 설정된 Cloud Object Storage 를 지정하는 프로젝트에서 Watson Machine Learning 을 사용하는 자산에 오류가 있습니다.
    • 자동 AI
    • 연합 학습
    • Watson Pipelines
  • SPSS Modeler 문제 목록
    • Key Protect 가 사용으로 설정된 Cloud Object Storage 를 지정하여 프로젝트에 모델을 저장할 수 없습니다.
  • 노트북 문제 목록
    • Key Protect 가 사용으로 설정된 Cloud Object Storage 를 지정하여 프로젝트에 모델을 저장할 수 없습니다.

IBM Knowledge Catalog

IBM Knowledge Catalog를 사용하는 경우 카탈로그를 사용할 때 다음과 같은 알려진 문제 및 제한사항이 발생할 수 있습니다.

Data Refinery 에서 마스크된 자산을 사용할 수 없음

마스크된 자산의 경우 Data Refinery 작업이 실패합니다. 마스킹하기 전에 초기 데이터 자산에 액세스할 수 있는 경우 임시 해결책은 마스크되지 않은 자산과 함께 Data Refinery 를 사용하는 것입니다.

마스크된 데이터는 데이터 시각화에서 지원되지 않습니다.

마스크된 데이터는 데이터 시각화에서 지원되지 않습니다. 프로젝트에 있는 데이터 자산의 시각화 탭에서 차트를 생성하는 동안 마스크된 데이터에 대해 작업하려고 시도하면 다음 오류 메시지가 수신됩니다. Bad Request: Failed to retrieve data from server. Masked data is not supported.

일부 프로젝트 도구에서 데이터가 마스크되지 않음

카탈로그에서 프로젝트로 마스크된 열을 포함하는 연결된 데이터 자산을 추가하는 경우, 데이터를 볼 때와 Data Refinery 도구에서 데이터를 세분화할 때 열이 마스크된 상태로 유지됩니다. 그러나 프로젝트의 다른 도구는 연결을 통해 데이터에 액세스할 때 마스킹을 유지하지 않습니다. 예를 들어, 노트북, DataStage 플로우, 대시보드 또는 기타 프로젝트 도구에서 연결된 데이터를 로드할 때 직접 연결을 통해 데이터에 액세스하고 마스킹을 생략합니다.

사전 정의된 거버넌스 아티팩트를 사용할 수 없습니다.

사전 정의된 분류 또는 데이터 클래스가 표시되지 않으면 다음 API 호출을 사용하여 테넌트를 다시 초기화하십시오.

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

이메일 주소를 소문자로 사용하여 협업자 추가

협업자를 카탈로그에 추가할 때 모두 소문자를 사용하여 이메일 주소를 입력하십시오. 대소문자가 혼용된 이메일 주소는 지원되지 않습니다.

Object Storage 연결 제한사항

Cloud Object Storage(S3 API) 또는 Cloudant 연결을 볼 때 폴더 자체가 하위 자산으로 나열됩니다.

여러 개의 동시 연결 오퍼레이션이 실패할 수 있음

여러 사용자가 동시에 연결 오퍼레이션을 실행하면 오류가 발생할 수 있습니다. 오류 메시지는 다를 수 있습니다.

카탈로그 작성 후 데이터 보호 규칙 적용을 사용할 수 없습니다.

카탈로그를 작성한 후에는 데이터 보호 규칙 적용을 사용할 수 없습니다. 카탈로그의 자산에 데이터 보호 규칙을 적용하려면 카탈로그 작성 중에 적용을 사용해야 합니다.

평가가 실패하면 자산이 차단됨

다음 제한사항은 정책이 적용된 카탈로그의 데이터 자산에 적용됩니다. 헤더가 있는 파일 기반 데이터 자산은 열 이름에 중복 열 이름, 마침표(.) 또는 작은따옴표(')를 가질 수 없습니다.

평가가 실패하면 자산은 자산 소유자를 제외한 모든 사용자에게 차단됩니다. 다른 모든 사용자에게는 평가에 실패하고 자산이 차단되어 데이터 자산을 볼 수 없다는 오류 메시지가 표시됩니다.

메타데이터 보강 결과의 데이터 클래스 필터만 대소문자를 구분합니다.

탭에서 메타데이터 보강 결과를 필터링하면 데이터 클래스 항목만 대소문자를 구분합니다. 비즈니스 용어, 스키마자산 필터의 항목은 값의 실제 케이싱에 관계없이 모두 소문자입니다.

자산에 대한 보강 세부사항은 최신 보강 실행에 적용된 설정을 반영하지 않을 수 있습니다.

한 번 이상 실행된 메타데이터 보강에 대한 보강 옵션을 편집한 후에는 최신 보강 실행에 적용된 옵션 대신 자산 세부사항이 업데이트된 옵션을 표시할 수 있습니다.

메타데이터 보강 자산의 개별 페이지에 직접 액세스할 수 없음

메타데이터 보강 자산의 자산 또는 열 수가 여러 페이지에 걸쳐 있는 경우 특정 페이지로 직접 이동할 수 없습니다. 페이지 번호 드롭 다운 목록을 사용할 수 없습니다. 대신 다음 페이지이전 페이지 단추를 사용하십시오.

일부 경우에는 UI에서 실행된 메타데이터 강화 작업의 전체 로그가 표시되지 않을 수 있습니다.

메타데이터 강화 실행의 오류 목록이 예외적으로 긴 경우 작업 로그의 일부만 UI에 표시될 수 있습니다.

임시 해결책: 전체 로그를 다운로드하여 외부 편집기에서 분석하십시오.

강화 결과를 필터링할 때 스키마 정보가 누락될 수 있음

소스 정보에 대한 강화 결과에서 자산 또는 열을 필터링할 때 스키마 정보를 사용할 수 없습니다.

임시 해결책: 강화 작업을 다시 실행하고 소스 필터를 다시 적용하십시오.

Amazon Redshift 데이터 소스의 데이터 자산에 있는 시간 유형의 열에서 실행되는 규칙이 적절한 결과를 리턴하지 않음

Amazon Redshift 데이터 소스의 데이터 자산의 경우, 시간 유형의 열을 시간소인 유형으로 가져옵니다. 이러한 열에는 시간별 데이터 품질 규칙을 적용할 수 없습니다.

3.0.0 보다 이전 버전의 Apache Hive 에 메타데이터 강화 출력 쓰기

메타데이터 인리치먼트로 생성된 데이터 품질 출력을 3.0.0이전 소프트웨어 버전의 Apache Hive 데이터베이스에 기록하려면 Apache Hive 서버에서 다음 구성 매개변수를 설정하십시오.

set hive.support.concurrency=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.txn.manager=org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
set hive.enforce.bucketing=true;   # (not required for version 2)

set hive.compactor.initiator.on=true;
set hive.compactor.cleaner.on=true;   # might not be available depending on the version
set hive.compactor.worker.threads=1;

자세한 정보는 Hive 트랜잭션을 참조하십시오.

인리치먼트 결과의 비즈니스 용어 필터가 지정 변경사항을 즉시 반영하지 않을 수 있음

비즈니스 용어를 수동으로 지정하거나 지정 해제할 때 비즈니스 용어 필터가 이러한 변경사항을 즉시 반영하지 않을 수 있습니다.

임시 해결책: 새로 고치기 아이콘 새로 고치기 아이콘을 클릭하여 페이지를 새로 고치십시오.

마스킹 플로우

마스킹 플로우를 사용하는 경우 데이터를 비공개화할 때 다음과 같은 알려진 문제 및 제한사항이 발생할 수 있습니다.

Data Refinery 에서 마스크된 자산을 사용할 수 없음

자세한 정보는 Data Refinery에서 마스크된 자산을 사용할 수 없음을 참조하십시오.

마스킹 플로우 작업이 실패할 수 있음

마스킹 플로우 작업 중, Spark는 모든 데이터 소스를 메모리로 읽도록 시도할 수 있습니다. 작업을 지원할 메모리가 부족하면 오류가 발생할 수 있습니다. 배치된 최대 Spark 처리 노드에 맞을 수 있는 최대 데이터 볼륨은 대략 12GB입니다.

노트북 문제

노트북을 시작하고 사용할 때 이러한 문제 중 일부가 발생할 수 있습니다.

노트북 복제가 새 프로젝트 UI에서 고유한 이름을 작성하지 않음

새 프로젝트 UI에서 노트북을 복제할 때 중복 노트북은 고유 이름으로 작성되지 않습니다.

이전 계정에서 자산을 작성할 수 없음

2017년 11월이전에 활성화된 Watson Studio 의 인스턴스에서 작업 중인 경우 노트북과 같은 운영 자산을 작성하지 못할 수 있습니다. 작성 단추가 회색으로 유지되고 사용 불가능한 경우 서비스 카탈로그에서 계정에 Watson Studio 서비스를 추가해야 합니다.

Watson Studio 시작 시 수신된 500 내부 서버 오류

드물게, Watson Studio 시작 시 HTTP 내부 서버 오류(500)를 수신할 수 있습니다. 브라우저에 저장된 만기 쿠키로 발생할 수 있습니다. 시간이 경과된(stale) 쿠키로 발생된 오류를 확인하려면, 개인 찾아보기 세션(incognito) 또는 다른 브라우저를 사용하여 Watson Studio 시작을 시도하십시오. 새 브라우저에서 성공적으로 시작될 수 있는 경우, 만기된 쿠키로 오류가 발생됩니다. 다음 해결 선택사항이 있습니다.

  1. 브라우저 애플리케이션을 완전히 종료하여 쿠키를 재설정하십시오. 브라우저 창만을 닫지 않고 애플리케이션을 닫고 다시 시작해야 합니다. 브라우저 애플리케이션을 다시 시작하고 Watson Studio를 시작하여 세션 쿠키를 재설정합니다.
  2. 데이터 탐색에서 IBM 쿠키를 정리하고 Watson Studio를 시작하십시오. 브라우저에서 데이터 탐색이나 보안 옵션에서 찾아 쿠키를 지우십시오. 모든 IBM 쿠키를 지우면 다른 IBM 애플리케이션에 영향을 줄 수 있습니다.

이러한 해결 중 하나를 수행한 후 500오류가 지속되는 경우 Watson Studio에 영향을 주는 IBM Cloud에 대해 상태 페이지를 확인하십시오. 또한 IBM Cloud 지원 포털에서 지원 케이스를 열 수 있습니다.

로그인 중 오류 발생

Watson Studio에 로그인하는 중에 이 오류 메시지가 표시될 수 있습니다. "Access Manager WebSEAL은 예기치 않은 오류로 인해 요청을 완료할 수 없습니다." 다시 로그인하십시오. 일반적으로 두 번째 로그인 시도가 작동합니다.

Jupyter Notebook 편집기에서 노트북을 HTML로 내보내는 데 실패

Watson Studio이외의 도구에서 작성된 Jupyter Notebook 을 사용하여 작업하는 경우 노트북을 HTML로 내보낼 수 없습니다. 이 문제는 셀 출력이 노출될 때 발생합니다.

임시 해결책

  1. Jupyter Notebook UI에서 편집 으로 이동하고 노트북 메타데이터 편집을 클릭하십시오.

  2. 다음 메타데이터를 제거하십시오.

    "widgets": {
       "state": {},
       "version": "1.1.2"
    }
    
  3. 편집을 클릭하십시오.

  4. Notebook을 저장하십시오.

일부 텐서 라이브러리의 수동 설치는 지원되지 않음

일부 텐서 플로우 라이브러리가 사전 설치되어 있지만 추가 텐서 플로우 라이브러리를 사용자가 직접 설치하려고 하면 오류가 발생합니다.

코드 셀을 실행한 후 노트북 커널에 연결하는 데 예상보다 시간이 오래 소요됨

커널에 다시 연결하고 코드 셀을 즉시 실행하려고 하면(또는 커널 재연결이 코드 실행 중에 발생한 경우), 노트북은 커널에 다시 연결되지 않고 코드 셀에 대한 출력이 표시되지 않습니다. 커널 > 다시 연결을 클릭하여 수동으로 커널에 다시 연결해야 합니다. 커널이 준비되면 코드 셀을 다시 실행할 수 있습니다.

여러 노트북에서 사전 정의된 sqlContext 오브젝트를 사용하면 오류가 발생함

여러 노트북에서 사전 정의된 sqlContext 오브젝트를 사용하면 Apache Spark 오류가 발생할 수 있습니다. 각 노트북에 대한 새 sqlContext 오브젝트를 작성하십시오. this Stack 개요 설명을 참조하십시오.

연결 실패 메시지

커널이 중지되면 노트북은 더 이상 자동으로 저장되지 않습니다. 이를 저장하려면 파일 > 저장을 수동으로 클릭하십시오. 그러면 Spark 버전 이전에 표시되는 커널 정보 영역에 노트북 저장 메시지가 표시되어야 합니다. 커널이 실패했다는 메시지가 표시되면, 노트북을 커널에 다시 연결하려면 커널 > 다시 연결을 클릭하십시오. 아무 작업도 수행하지 않고 커널을 다시 시작하고 노트북을 저장할 수 없는 경우 파일 > 다른 이름으로 다운로드 > 노트북(.ipynb)을 클릭하여 커널을 다운로드하여 변경 사항을 저장할 수 있습니다. 그런 다음 다운로드한 노트북 파일을 기반으로 새 노트북을 작성해야 합니다.

노트북 커널에 연결할 수 없음

노트북을 실행하려고 하고 Connecting to Kernel 메시지가 표시되고 그 뒤에 Connection failed. Reconnecting이(가) 표시되고 마지막으로 연결에 실패한 오류 메시지가 표시되는 경우, 방화벽이 노트북을 실행하지 못하도록 막고 있기 때문일 수 있습니다.

Watson Studio가 방화벽 뒤에 설치된 경우, 방화벽 설정에 WebSocket 연결 wss://dataplatform.cloud.ibm.com을(를) 추가해야 합니다. 노트북 및 RStudio를 사용하는 경우 이 WebSocket 연결을 사용해야 합니다.

노트북을 열거나 편집할 때 사용 가능한 자원 부족 오류

노트북을 열거나 편집할 때 다음 메시지가 표시되면 노트북과 연관된 환경 런타임에 자원 문제가 있는 것입니다.

Insufficient resources available
A runtime instance with the requested configuration can't be started at this time because the required hardware resources aren't available.
Try again later or adjust the requested sizes.

원인을 찾으려면 Watson Studio에 영향을 주는 IBM Cloud 인시던트의 상태 페이지를 확인하십시오. 또한 IBM Cloud 지원 센터 포털에서 지원 케이스를 열 수 있습니다.

기계 학습 문제

기계 학습 도구에 대해 작업할 때 이러한 문제 중 일부가 발생할 수 있습니다.

지역 요구사항

Watson Machine Learning 서비스 인스턴스 및 Watson Studio 인스턴스가 동일한 지역에 있는 경우에만 Watson Machine Learning 서비스 인스턴스를 프로젝트와 연관시킬 수 있습니다.

서비스를 프로젝트와 연관시키는 동안 서비스 인스턴스를 작성하는 경우 링크에 액세스

Watson Machine Learning 서비스를 프로젝트에 연관시키는 동안 새 서비스 인스턴스를 작성하는 옵션이 있습니다. 새 서비스를 작성하도록 선택하는 경우 서비스 페이지의 링크가 작동하지 않을 수 있습니다. 서비스 용어, API및 문서에 액세스하려면 링크를 마우스 오른쪽 단추로 클릭하여 새 창에서 여십시오.

새 프로젝트 UI의 모든 자산, 검색 결과 또는 필터 결과에서 Federated Learning 자산을 검색할 수 없습니다.

모든 자산 보기, 검색 결과 또는 프로젝트의 필터 결과에서 연합 학습 자산을 검색할 수 없습니다.

임시 해결책: 연합 학습 자산을 클릭하여 도구를 여십시오.

배치 문제

  • 정해진 시간(무료 플랜의 경우 24시간, 유료 플랜의 경우 120시간) 동안 비활성(점수 없음) 상태인 배치는 절전 모드로 자동 전환됩니다. 새 스코어링 요청이 제출되면 배치가 다시 활성화되고 스코어 요청이 서비스됩니다. 모델 프레임워크에 따라 활성화 후 첫 번째 스코어 요청에 대해 1 - 60초의 짧은 지연이 예상됩니다.
  • SPSS 모델러와 같은 일부 프레임워크의 경우 최대 절전 모드 후 배치된 모델에 대한 첫 번째 스코어 요청으로 인해 504 오류가 발생할 수 있습니다. 이러한 상황이 발생하면 요청을 다시 제출하십시오. 후속 요청은 성공해야 합니다.

마스크된 데이터 자산 미리보기가 배치 영역에서 차단됨 * *

데이터 자산 미리보기가 다음 메시지와 함께 실패할 수 있습니다. This asset contains masked data and is not supported for preview in the Deployment Space

배치 영역은 현재 데이터 마스킹을 지원하지 않으므로 데이터 누출을 방지하기 위해 마스크된 자산에 대한 미리보기가 차단되었습니다.

대형 인라인 페이로드를 사용하는 일괄처리 배치 작업이 starting 또는 running 상태에 머물러 있을 수 있음

인라인 일괄처리 배치에 대형 비동기 페이로드를 제공하면 런타임 관리자 프로세스에서 힙 메모리가 부족할 수 있습니다.

다음 예제에서는 92MB의 페이로드가 일괄처리 배치에 인라인으로 전달되어 힙의 메모리가 부족하게 되었습니다.

Uncaught error from thread [scoring-runtime-manager-akka.scoring-jobs-dispatcher-35] shutting down JVM since 'akka.jvm-exit-on-fatal-error' is enabled for ActorSystem[scoring-runtime-manager]
java.lang.OutOfMemoryError: Java heap space
	at java.base/java.util.Arrays.copyOf(Arrays.java:3745)
	at java.base/java.lang.AbstractStringBuilder.ensureCapacityInternal(AbstractStringBuilder.java:172)
	at java.base/java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:538)
	at java.base/java.lang.StringBuilder.append(StringBuilder.java:174)
   ...

이로 인해 동시 작업이 starting 또는 running 상태가 될 수 있습니다. starting 상태는 배치가 삭제되고 새 배치가 작성된 경우에만 지울 수 있습니다. 배치를 삭제하지 않고 running 상태를 지울 수 있습니다.

임시 해결책으로 일괄처리 배치에 제공되는 대형 페이로드의 경우 인라인 대신 데이터 참조를 사용하십시오.

Watson Machine Learning 제한사항

알려진 AutoAI 제한사항

  • 현재, AutoAI 실험은 2바이트 문자 세트를 지원하지 않습니다. AutoAI는 ASCII 문자의 CSV 파일만 지원합니다. 사용자는 파일 이름 또는 컨텐츠의 비ASCII 문자를 변환하고 이 CSV 표준에 정의된 대로 입력 데이터를 CSV로 제공해야 합니다.

  • AutoAI 모델과 프로그래밍 방식으로 상호작용하려면 Python 클라이언트 대신 REST API를 사용하십시오. AutoAI를 지원하는 데 필요한 Python 클라이언트용 API는 현재 일반적으로 사용 가능하지 않습니다.

IBM Federated Learning에서 데이터 모듈을 찾을 수 없습니다.

IBM Federated Learning용 데이터 핸들러가 FL 라이브러리에서 데이터 모듈을 추출하려고 시도하지만 찾을 수 없습니다. 다음 오류 메시지가 표시될 수 있습니다.

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

이 문제로 인해 오래된 DataHandler를 사용할 수 있습니다. 최신 사양을 준수하도록 DataHandler를 검토하고 업데이트하십시오. 다음은 최신 MNIST 데이터 핸들러 에 대한 링크이거나 샘플 버전이 최신 버전인지 확인하십시오.

conda yaml 파일에서 환경 변수 설정이 배치에 대해 작동하지 않음

conda yaml 파일에서 환경 변수 설정은 배치에 대해 작동하지 않습니다. 이는 Watson Machine Learning에서 자산을 배치할 때 기존 환경 변수 (예: LD_LIBRARY_PATH) 를 대체할 수 없음을 의미합니다.

임시 해결책으로 Python 함수를 사용하는 경우 기본 매개변수 설정을 고려하십시오. 세부사항은 Python 함수 배치를 참조하십시오.

Cognos Dashboard Embedded 문제

Cognos Dashboard Embedded에 대해 작업할 때 다음 문제 중 일부가 발생할 수 있습니다.

중복 열 이름을 포함하는 CSV 파일은 지원되지 않습니다.

Cognos Dashboard Embedded 는 중복 열 이름이 포함된 CSV 파일을 지원하지 않습니다. 중복은 대소문자를 구분하지 않습니다. 예를 들어, BRANCH_NAME, branch_nameBranch_Name 은 중복 컬럼 이름으로 간주됩니다.

Cognos 대시보드는 사용자 이름 및 비밀번호 신임 정보로 작성된 데이터 연결만 사용할 수 있습니다.

Cognos Dashboard Embedded 에서는 데이터베이스 연결 및 대시보드에 데이터 소스로 추가된 연결된 데이터 자산에 사용자 이름 및 비밀번호 신임 정보가 포함되어야 합니다.

이러한 신임 정보가 연결에 지정되지 않고 토큰 또는 API키가 대신 사용되는 경우 Cognos Dashboard Embedded 는 해당 연결 또는 연결된 데이터 자산을 데이터 소스로 사용할 수 없습니다.

정제된 데이터 자산에 대해 올바르지 않은 데이터 유형 표시됨

CSV 파일을 가져온 후 데이터 자산 개요 페이지에서 가져온 파일을 클릭하면 일부 열의 유형이 올바르게 표시되지 않을 수 있습니다. 예를 들어, 회사의 매출을 포함하는 수익 열이 있는 회사 보고서의 데이터 세트는 더 논리적인 숫자 지향 데이터 유형 대신 문자열 유형으로 표시될 수 있습니다.

CSV 파일에서 지원되지 않는 특수 문자

소스 CSV 파일 이름에는 영숫자가 아닌 문자를 사용할 수 있습니다. 그러나 CSV 파일 이름에는 특수 문자 / : & < . \ "을 사용할 수 없습니다. 파일 이름에 이러한 문자가 포함되어 있으면 테이블 이름에서 제거됩니다.

중요: 소스 CSV 파일의 테이블 열 이름에는 지원되지 않는 특수 문자가 포함될 수 없습니다. 데이터 모듈의 이름이 소스 파일의 열 이름과 일치해야 하므로 해당 문자를 제거할 수 없습니다. 이 경우 열 이름에서 특수 문자를 제거하여 대시보드에서 데이터를 사용할 수 있도록 하십시오.

CSV 파일의 문자열 값은 128자로 제한됨

소스 CSV 파일의 열에 있는 문자열 값은 128자까지만 가능합니다. CSV 파일에 더 긴 값을 가진 문자열 열이 있으면 오류 메시지가 표시됩니다.

CSV 파일에서 날짜 형식 제한사항

시각화에 사용되는 CSV 파일에 날짜 형식 제한사항이 있습니다. 자세한 내용은 Cognos Dashboard Embedded에서 CSV 파일의 데이터를 사용할 때 발생하는 문제점 해결을 참조하십시오.

시각화에서 데이터 테이블을 대체할 수 없음

시각화를 대시보드에 추가할 때 이전에 다른 데이터 테이블에서 데이터 필드를 추가한 다음 제거한 경우 시각화에 데이터 테이블을 추가할 수 없습니다. 이 제한사항은 Db2, CSV 테이블 및 기타 데이터 소스에 적용됩니다.

지원되지 않는 Cognos Analytics 기능

대시보드에서는 IBM Cognos Analytics의 다음 기능이 지원되지 않습니다.

  • 데이터 그룹화
  • 사용자 정의 색상표
  • 사용자 정의 시각화
  • 지원
  • 예측
  • 시각화에서 인사이트
  • Jupyter 노트북 시각화
  • 고급 데이터 분석

Watson OpenScale 문제

Watson OpenScale에서 다음 문제가 발생할 수 있습니다.

드리프트 구성이 시작되었지만 종료되지 않음

드리프트 구성이 시작되었지만 종료되지 않으며 계속 스피너 아이콘을 표시합니다. 10분 이상 스피너가 실행되면 시스템이 불일치 상태일 가능성이 있습니다. 이 동작인 경우 임시 해결책이 제공됩니다. 드리프트 구성을 편집하십시오. 그런 다음 저장하십시오. 시스템이 이 상태를 벗어나고 구성이 완료될 수 있습니다. 드리프트 재구성으로 이 상황이 해결되지 않으면 IBM 지원 센터에 문의하십시오.

SPSS Modeler 문제점

SPSS Modeler 작업 시 다음 문제 중 일부가 발생할 수 있습니다.

SPSS Modeler 런타임 제한사항

Watson Studio는 페루, 에콰도르, 콜롬비아 그리고 베네수엘라에서 SPSS 기능을 포함하지 않습니다.

마이크로초 단위로 측정된 시간소인 데이터

마이크로초 단위로 측정되는 시간소인 데이터가 있는 경우 플로우에서 더 정확한 데이터를 사용할 수 있습니다. 그러나 다음 제한사항 내에서만 데이터를 사용할 수 있습니다.

  • SQL 푸시백을 지원하는 커넥터에서만 마이크로초 단위로 측정되는 데이터를 가져올 수 있습니다. SQL 푸시백을 지원하는 커넥터에 대한 자세한 정보는 SPSS Modeler에 대해 지원되는 데이터 소스를 참조하십시오.
  • 이러한 커넥터에서 데이터를 가져오는 각 데이터 자산 노드를 수동으로 저장해야 합니다. 플로우 특성에서 새 옵션을 사용으로 설정한 후 이 노드를 저장하십시오. 새 옵션 사용에 대한 정보는 플로우의 특성 설정을 참조하십시오.

데이터 자산 노드를 저장하려면 다음을 수행하십시오.

  1. 노드를 두 번 클릭하여 해당 특성을 여십시오.
  2. 저장을 클릭한 후 특성을 닫으십시오.

노드 및 유니코드 문자 병합

병합 노드는 다음과 같은 매우 유사한 일본어 문자를 동일한 문자로 처리합니다.
일본어 문자

연결 문제

연결에 대해 작업할 때 이 문제가 발생할 수 있습니다.

Cloudera Impala 연결이 LDAP 인증에서 작동하지 않음

Cloudera Impala 데이터 소스에 대한 연결을 작성하고 LDAP 인증을 위해 Cloudera Impala 서버가 설정된 경우, Cloud Pak for Data as a Service 의 사용자 이름 및 비밀번호 인증 방법이 작동하지 않습니다.

임시 해결책: Impala 서버에서 LDAP 인증 사용 옵션을 사용 안함으로 설정하십시오. Cloudera 문서에서 LDAP 인증 구성 을 참조하십시오.

Watson Pipelines 알려진 문제

Watson Pipelines과 관련된 문제입니다.

세 개 이상의 레벨로 루프를 중첩하면 파이프라인 오류가 발생할 수 있습니다.

루프를 세 개 이상의 레벨로 중첩하면 파이프라인을 실행할 때 오류 (예: 실행 검색 오류) 가 발생할 수 있습니다. 로그를 검토하면 text in text not resolved: neither pipeline_input nor node_output와 같은 오류가 표시될 수 있습니다. Bash 스크립트의 출력으로 루프를 실행하는 경우 로그에 PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output)와 같은 오류가 나열될 수 있습니다. 이 문제를 해결하려면 루프를 세 레벨 이상 중첩하지 마십시오.

자산 브라우저가 항상 자산 유형의 총 수에 대한 계수를 반영하지는 경우 수 없습니다.

자산 브라우저에서 자산을 선택할 때 (예: 복사 노드의 소스 선택) 일부 자산에 사용 가능한 총 자산 유형 수가 나열되지만 노트북에는 나열되지 않습니다. 이는 현재 제한사항입니다.

파이프라인 버전을 삭제할 수 없음

현재, 더 이상 필요 없는 파이프라인의 저장된 버전을 삭제할 수 없습니다.

일부 조건 하에서 AutoAI 실험 삭제가 실패함

프로젝트 UI에서 작성된 AutoAI 실험을 삭제하기 위해 AutoAI 실험 삭제 노드를 사용하면 AutoAI 자산이 삭제되지 않습니다. 그러나 나머지 플로우는 성공적으로 완료됩니다.

캐시가 사용 가능한 것으로 표시되지만 사용 가능하지 않

자산 복사 파이프라인 노드의 복사 모드Overwrite로 설정된 경우 캐시는 사용으로 표시되지만 사용 안함으로 설정된 상태로 유지됩니다.

Watson Pipelines 제한사항

이러한 제한사항은 Watson Pipelines에 적용됩니다.

단일 파이프라인 한계

이러한 제한사항은 구성에 관계없이 단일 파이프라인에 적용됩니다.

  • 단일 파이프라인에는 120개이상의 표준 노드가 포함될 수 없습니다.
  • 루프가 있는 파이프라인은 모든 반복에서 600개이상의 노드를 포함할 수 없습니다 (예: 60개의 반복-각각 10개의 노드).

구성 크기별 제한사항

소형 구성

SMALL 구성은 600개의 표준 노드 (모든 활성 파이프라인에서) 또는 루프에서 실행되는 300개의 노드를 지원합니다. 예를 들어,

  • 20개의 노드가 있는 30개의 표준 파이프라인이 병렬로 실행됨 = 600개의 표준 노드
  • 각 반복에서 10개의 반복 및 10개의 노드가 있는 루프를 포함하는 3개의 파이프라인 = 루프의 300개 노드

중형 구성

MEDIUM 구성은 1200표준 노드 (모든 활성 파이프라인에서) 또는 600노드가 루프에서 실행되도록 지원합니다. 예를 들어,

  • 40개의 노드가 있는 30개의 표준 파이프라인이 병렬로 실행됨 = 1200표준 노드
  • 각 반복에서 10개의 반복 및 10개의 노드가 있는 루프를 포함하는 6개의 파이프라인 = 루프의 600개 노드

대형 구성

LARGE 구성은 4800표준 노드 (모든 활성 파이프라인에서) 또는 2400노드가 루프에서 실행되도록 지원합니다. 예를 들어,

  • 60개의 노드가 있는 80개의 표준 파이프라인이 병렬로 실행됨 = 4800표준 노드
  • 루프가 포함된 24개의 파이프라인 (각 반복에서 10개의 노드와 10개의 반복이 있는 루프 포함) = 2400개의 노드

입력 및 출력 크기 한계

파이프라인 매개변수, 사용자 변수, 일반 노드 입력 및 출력을 포함하는 입력 및 출력 값은 10KB의 데이터를 초과할 수 없습니다.

일괄처리 입력이 데이터 자산으로 제한됨

현재, 일괄처리 배치 작업에 대한 입력은 데이터 자산으로 제한됩니다. 이는 JSON 입력 또는 다중 파일을 입력으로 필요로 하는 특정 유형의 배치가 지원되지 않음을 의미합니다. 예를 들어, 다중 파일이 입력으로 필요한 SPSS 모델 및 Decision Optimization 솔루션은 지원되지 않습니다.

Cloud Object Storage 관련 문제

이러한 문제는 Cloud Object Storage에 대한 작업에 적용됩니다.

Key Protect 가 사용으로 설정된 경우 Cloud Object Storage 의 문제

Key Protect 를 Cloud Object Storage 와 함께 사용하는 것은 Watson Machine Learning 자산에 대한 작업에 지원되지 않습니다. Key Protect를 사용하는 경우 Watson Studio에서 자산에 대해 작업할 때 다음 문제가 발생할 수 있습니다.

  • 이러한 Watson Machine Learning 자산을 훈련하거나 저장하는 데 실패할 수 있습니다.
    • 자동 AI
    • 연합 학습
    • Watson Pipelines
  • SPSS 모델 또는 노트북 모델을 프로젝트에 저장할 수 없습니다.

watsonx.governance 에 대한 문제

팩시밀리에 프롬프트 템플리트 배치 데이터를 표시하는 지연

프롬프트 템플리트에 대한 배치가 작성되면 배치에 대한 팩트가 즉시 팩시밀리에 추가되지 않습니다. 먼저 배치를 평가하거나 라이프사이클 추적 페이지를 보고 팩시밀리에 팩트를 추가해야 합니다.

패시트의 중복 첨부 파일 링크

팩시밀리는 라이프사이클의 모든 단계에서 자산에 대한 모든 이벤트를 추적합니다. 첨부 파일은 각 단계에 표시되어 패시트에 일부 중복성을 작성합니다.

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기