0 / 0
영어 버전 문서로 돌아가기
알려진 문제점 및 제한사항

알려진 문제점 및 제한사항

다음 제한사항 및 알려진 문제점은 Cloud Pak for Data as a Service에 적용됩니다.

Watson Knowledge Catalog 문제 목록

마스킹 플로우 문제 목록

Data Refinery 문제 목록

Watson Query 문제 목록

Watson Studio 문제 목록

Watson Machine Learning 문제 목록

Cognos Dashboard Embedded 문제 목록

Watson OpenScale 문제 목록

SPSS Modeler 문제 목록

Watson Knowledge Catalog

Watson Knowledge Catalog를 사용하는 경우 카탈로그를 사용할 때 이러한 알려진 문제점 및 제한사항이 발생할 수 있습니다.

데이터 정책 서비스 (DPS) 카테고리 캐시 동기화

성능을 위해 데이터 정책 서비스 (DPS) 는 캐시에 용어집 범주의 사본을 보관합니다. 카테고리가 작성, 업데이트 또는 삭제될 때 용어집 서비스는 이러한 변경사항을 반영하기 위해 RabbitMQ 이벤트를 공개합니다. DPS는 이러한 이벤트를 청취하고 캐시를 업데이트한다. 그러나 가끔은 RabbitMQ 서비스가 작동 중지되거나 너무 바빠 메시지가 유실될 수 있습니다. DPS는 REST API 유틸리티를 제공하여 캐시를 업데이트한다.

실행 중 예기치 않은 시행 결과를 피하고 부정확한 캐시 업데이트를 방지하기 위해 카테고리 변경이 없는 중단 시간 동안 다음 REST API 유틸리티를 실행할 수 있다.

curl -v -k -X GET --header "Content-Type: application/json"
  --header "Accept: application/json"
  --header "Authorization: Bearer ${token}"
    "${uri}/v3/enforcement/governed_items/sync/category"

이 REST API는 Watson Knowledge Catalog 서비스에서 사용 가능합니다.

데이터 시각화에서는 요청된 데이터가 지원되지 않습니다.

데이터 시각화에서는 요청된 데이터가 지원되지 않습니다. 프로젝트에 있는 데이터 자산의 시각화 탭에서 차트를 생성하는 동안 마스크된 데이터에 대한 작업을 시도하면 다음 오류 메시지가 수신됩니다. Bad Request: Failed to retrieve data from server. Masked data is not supported.

일부 프로젝트 도구에서 데이터가 마스크되지 않음

카탈로그에서 프로젝트로 마스크된 컬럼을 포함하는 연결된 데이터 자산을 추가하는 경우, 데이터를 볼 때 및 Data Refinery 도구에서 데이터를 정제할 때 컬럼이 마스크된 채로 남아 있습니다. 그러나 프로젝트의 다른 도구는 연결을 통해 데이터에 액세스할 때 마스킹을 보존하지 않습니다. 예를 들어, 노트북, DataStage 플로우, 대시보드 또는 기타 프로젝트 도구에서 연결된 데이터를 로드하는 경우 직접 연결 및 바이패스 마스킹을 통해 데이터에 액세스합니다.

사전 정의된 거버넌스 아티팩트를 사용할 수 없습니다.

사전 정의된 분류 또는 데이터 클래스가 표시되지 않으면 다음 API 호출을 사용하여 테넌트를 다시 초기화하십시오.

curl -X POST "https://api.dataplatform.cloud.ibm.com/v3/glossary_terms/admin/initialize_content" -H "Authorization: Bearer $BEARER_TOKEN" -k

이메일 주소를 소문자로 사용하여 협업자 추가

협업자를 카탈로그에 추가할 때 모두 소문자를 사용하여 이메일 주소를 입력하십시오. 대소문자가 혼용된 이메일 주소는 지원되지 않습니다.

Object Storage 연결 제한사항

Cloud Object Storage(S3 API) 또는 Cloudant 연결을 볼 때 폴더 자체가 하위 자산으로 나열됩니다.

여러 개의 동시 연결 오퍼레이션이 실패할 수 있음

여러 사용자가 동시에 연결 오퍼레이션을 실행하면 오류가 발생할 수 있습니다. 오류 메시지는 다를 수 있습니다.

카탈로그 작성 후 데이터 보호 규칙 적용을 사용할 수 없습니다.

카탈로그를 작성한 후에는 데이터 보호 규칙 적용을 사용할 수 없습니다. 카탈로그의 자산에 데이터 보호 규칙을 적용하려면 카탈로그 작성 중에 적용을 사용해야 합니다.

평가가 실패하면 자산이 차단됨

다음 제한사항은 정책이 적용된 카탈로그의 데이터 자산에 적용됩니다. 헤더가 있는 파일 기반 데이터 자산은 열 이름에 중복 열 이름, 마침표(.) 또는 작은따옴표(')를 가질 수 없습니다.

평가가 실패하면 자산은 자산 소유자를 제외한 모든 사용자에게 차단됩니다. 다른 모든 사용자에게는 평가에 실패하고 자산이 차단되어 데이터 자산을 볼 수 없다는 오류 메시지가 표시됩니다.

브라우저 이전 단추만 기본 설정 페이지에서 메타데이터 보강 자산으로 다시 이동합니다.

메타데이터 보강 자산에서 기본 설정 페이지를 열면 제품 UI 또는 사이트 이동 경로의 단추를 사용하여 자산으로 돌아갈 수 없습니다. 브라우저의 이전 단추를 사용하여 자산으로 다시 이동하십시오.

메타데이터 보강 결과의 데이터 클래스 필터만 대소문자를 구분합니다.

탭에서 메타데이터 보강 결과를 필터링하면 데이터 클래스 항목만 대소문자를 구분합니다. 비즈니스 용어, 스키마자산 필터의 항목은 값의 실제 케이싱에 관계없이 모두 소문자입니다.

메타데이터 보강 결과의 필터 옵션은 즉시 업데이트되지 않을 수 있습니다.

자산을 추가하거나 새 데이터 클래스 또는 비즈니스 용어를 지정하거나 비즈니스 용어를 제거하면 해당 필터가 즉시 업데이트되지 않습니다. 임시 해결책으로, 업데이트된 필터 목록을 보려면 브라우저를 새로 고치십시오.

자산에 대한 보강 세부사항은 최신 보강 실행에 적용된 설정을 반영하지 않을 수 있습니다.

한 번 이상 실행된 메타데이터 보강에 대한 보강 옵션을 편집한 후에는 최신 보강 실행에 적용된 옵션 대신 자산 세부사항이 업데이트된 옵션을 표시할 수 있습니다.

메타데이터 보강 자산의 개별 페이지에 직접 액세스할 수 없음

메타데이터 보강 자산의 자산 또는 열 수가 여러 페이지에 걸쳐 있는 경우 특정 페이지로 직접 이동할 수 없습니다. 페이지 번호 드롭 다운 목록을 사용할 수 없습니다. 대신 다음 페이지이전 페이지 단추를 사용하십시오.

열의 보강 결과에서 지정된 데이터 클래스에 대한 불완전한 세부사항

메타데이터 보강 결과에서 열 세부사항의 거버넌스 탭에서 지정된 데이터 클래스를 클릭하면 데이터 클래스 세부사항의 미리보기가 표시됩니다. 그러나 자세한 내용은 미완성입니다.

일부 경우에는 UI 에서 메타데이터 보강 작업 실행의 전체 로그가 표시되지 않을 수도 있다.

메타데이터 보강 실행의 오류 목록이 예외적으로 길면 작업 로그의 일부만이 UI에 표시될 수 있다.

문제해결 방법: 전체 로그를 다운로드하여 외부 편집기에서 분석하십시오.

보강 결과를 필터링할 때 스키마 정보가 누락되었을 수 있습니다.

소스 정보의 보강 결과에서 자산 또는 열을 필터링하는 경우 스키마 정보를 사용할 수 없습니다.

문제해결 방법: 보강 작업을 다시 실행하고 소스 필터를 다시 적용하십시오.

Amazon Redshift 데이터 소스의 데이터 자산에 있는 시간 유형의 컬럼에서 실행되는 규칙은 적절한 결과를 리턴하지 않습니다.

Amazon Redshift 데이터 소스의 데이터 자원의 경우, 유형 시간의 컬럼을 유형 시간소인으로 가져옵니다. 이러한 컬럼에 시간별 데이터 품질 규칙을 적용할 수 없습니다.

마스킹 플로우

마스킹 플로우를 사용하는 경우, 데이터를 사유화할 때 이러한 알려진 문제점과 제한사항이 발생할 수 있습니다.

마스킹 플로우 작업이 실패할 수 있음

마스킹 플로우 작업 중, Spark는 모든 데이터 소스를 메모리로 읽도록 시도할 수 있습니다. 작업을 지원할 메모리가 부족하면 오류가 발생할 수 있습니다. 배치된 최대 Spark 처리 노드에 맞을 수 있는 최대 데이터 볼륨은 대략 12GB입니다.

Data Refinery

Data Refinery를 사용하는 경우 데이터를 세분화할 때 이러한 알려진 문제점 및 제한사항이 발생할 수 있습니다.

개인 인증 정보는 Data Refinery에서 연결된 데이터 자산에 대해 지원되지 않음

개인 인증 정보로 연결된 데이터 자산을 작성한 경우, 다른 사용자는 Data Refinery에서 연결된 데이터 자산을 사용하도록 다음 임시 해결책을 사용해야 합니다.

임시 해결책:

  1. 프로젝트 페이지로 이동하고 연결된 데이터 자산의 링크를 클릭하여 미리보기를 여십시오.
  2. 신임 정보를 입력하십시오.
  3. Data Refinery를 열고 소스나 대상의 인증된 연결 데이터 자산을 사용하십시오.

새 프로젝트 UI에서 Data Refinery 플로우의 작업을 볼 수 없음

새 프로젝트 UI에서 작업하는 경우 Data Refinery 플로우의 옵션 메뉴에서 작업을 볼 수 있는 옵션이 없습니다.

문제해결 방법: Data Refinery 플로우에서 작업을 보려면 Data Refinery 플로우를 열고 작업 아이콘 ( 작업 아이콘 실행 또는 스케줄) 을 클릭하고 저장 및 보기 작업을 선택하십시오. 작업 탭에서 프로젝트의 모든 작업 목록을 볼 수 있습니다.

Watson Studio 문제

Watson Studio 사용을 시작할 때 이러한 문제 중 일부가 발생할 수 있습니다.

새 프로젝트 UI의 모든 자산, 검색 결과 또는 필터 결과에서 Federated Learning 자산을 검색할 수 없습니다.

새 프로젝트 UI에서 작업하는 경우, 모든 자산 보기, 검색 결과 또는 프로젝트의 필터 결과에서 연합 학습 자산을 검색할 수 없습니다.

임시 해결책: Federated Learning 자산을 클릭하여 도구를 열거나 레거시 프로젝트로 다시 전환하여 프로젝트에서 Federated Learning의 완전 통합 버전을 계속 사용하십시오.

노트북 복제가 새 프로젝트 UI에서 고유한 이름을 작성하지 않음

새 프로젝트 UI 에서 노트북을 복제할 때 중복 노트북은 고유한 이름으로 작성되지 않습니다.

이전 계정에서 자산을 작성할 수 없음

2017년 11월이전에 활성화된 Watson Studio 의 인스턴스에서 작업하는 경우 노트북과 같은 운영 자산을 작성할 수 없습니다. 작성 단추가 회색으로 유지되고 사용 불가능한 경우 서비스 카탈로그에서 계정에 Watson Studio 서비스를 추가해야 합니다.

Watson Studio 시작 시 수신된 500 내부 서버 오류

드물게, Watson Studio 시작 시 HTTP 내부 서버 오류(500)를 수신할 수 있습니다. 브라우저에 저장된 만기 쿠키로 발생할 수 있습니다. 시간이 경과된(stale) 쿠키로 발생된 오류를 확인하려면, 개인 찾아보기 세션(incognito) 또는 다른 브라우저를 사용하여 Watson Studio 시작을 시도하십시오. 새 브라우저에서 성공적으로 시작될 수 있는 경우, 만기된 쿠키로 오류가 발생됩니다. 다음 해결 선택사항이 있습니다.

  1. 브라우저 애플리케이션을 완전히 종료하여 쿠키를 재설정하십시오. 브라우저 창만을 닫지 않고 애플리케이션을 닫고 다시 시작해야 합니다. 브라우저 애플리케이션을 다시 시작하고 Watson Studio를 시작하여 세션 쿠키를 재설정합니다.
  2. 데이터 탐색에서 IBM 쿠키를 정리하고 Watson Studio를 시작하십시오. 브라우저에서 데이터 탐색이나 보안 옵션에서 찾아 쿠키를 지우십시오. 모든 IBM 쿠키를 지우면 다른 IBM 애플리케이션에 영향을 줄 수 있습니다.

이러한 해결 중 하나를 수행한 후 500오류가 지속되는 경우 Watson Studio에 영향을 주는 IBM Cloud에 대해 상태 페이지를 확인하십시오. 또한 IBM Cloud 지원 포털에서 지원 케이스를 열 수 있습니다.

로그인 중 오류 발생

Watson Studio에 로그인하는 중에 이 오류 메시지가 표시될 수 있습니다. "Access Manager WebSEAL은 예기치 않은 오류로 인해 요청을 완료할 수 없습니다." 다시 로그인하십시오. 일반적으로 두 번째 로그인 시도가 작동합니다.

일부 텐서 라이브러리의 수동 설치는 지원되지 않음

일부 텐서 플로우 라이브러리가 사전 설치되어 있지만 추가 텐서 플로우 라이브러리를 사용자가 직접 설치하려고 하면 오류가 발생합니다.

코드 셀을 실행한 후 노트북 커널에 연결하는 데 예상보다 시간이 오래 소요됨

커널에 다시 연결하고 코드 셀을 즉시 실행하려고 하면(또는 커널 재연결이 코드 실행 중에 발생한 경우), 노트북은 커널에 다시 연결되지 않고 코드 셀에 대한 출력이 표시되지 않습니다. 커널 > 다시 연결을 클릭하여 수동으로 커널에 다시 연결해야 합니다. 커널이 준비되면 코드 셀을 다시 실행할 수 있습니다.

여러 노트북에서 사전 정의된 sqlContext 오브젝트를 사용하면 오류가 발생함

여러 노트북에서 사전 정의된 sqlContext 오브젝트를 사용하면 Apache Spark 오류가 발생할 수 있습니다. 각 노트북에 대한 새 sqlContext 오브젝트를 작성하십시오. this Stack 개요 설명을 참조하십시오.

연결 실패 메시지

커널이 중지되면 노트북은 더 이상 자동으로 저장되지 않습니다. 이를 저장하려면 파일 > 저장을 수동으로 클릭하십시오. 그러면 Spark 버전 이전에 표시되는 커널 정보 영역에 노트북 저장 메시지가 표시되어야 합니다. 커널이 실패했다는 메시지가 표시되면, 노트북을 커널에 다시 연결하려면 커널 > 다시 연결을 클릭하십시오. 아무 작업도 수행하지 않고 커널을 다시 시작하고 노트북을 저장할 수 없는 경우 파일 > 다른 이름으로 다운로드 > 노트북(.ipynb)을 클릭하여 커널을 다운로드하여 변경 사항을 저장할 수 있습니다. 그런 다음 다운로드한 노트북 파일을 기반으로 새 노트북을 작성해야 합니다.

노트북 커널에 연결할 수 없음

노트북을 실행하려고 하고 Connecting to Kernel 메시지가 표시되고 그 뒤에 Connection failed. Reconnecting이(가) 표시되고 마지막으로 연결에 실패한 오류 메시지가 표시되는 경우, 방화벽이 노트북을 실행하지 못하도록 막고 있기 때문일 수 있습니다.

Watson Studio가 방화벽 뒤에 설치된 경우, 방화벽 설정에 WebSocket 연결 wss://dataplatform.cloud.ibm.com을(를) 추가해야 합니다. 노트북 및 RStudio를 사용하는 경우 이 WebSocket 연결을 사용해야 합니다.

오류: 노트북을 열거나 편집할 때 사용할 수 없음

노트북을 열거나 편집할 때 오류가 발생한 경우, 노트북과 연관된 환경 런타임에 자원 문제가 있습니다.

원인을 찾으려면 Watson Studio에 영향을 주는 IBM Cloud 사건의 상태 페이지를 확인하십시오. 또한 IBM Cloud 지원 포털에서 지원 케이스를 열 수 있습니다.

Watson Machine Learning 문제

모델 작성기 및 플로우 편집기를 포함하여 Watson Machine Learning 구성요소에 대해 작업할 때 이러한 문제가 발생할 수 있습니다.

지역 요구사항

Watson Machine Learning 서비스 인스턴스 및 Watson Studio 인스턴스가 동일한 지역에 있는 경우에만 Watson Machine Learning 서비스 인스턴스를 프로젝트와 연관시킬 수 있습니다.

플로우 편집기 런타임 제한사항

Watson Studio는 페루, 에콰도르, 콜롬비아 그리고 베네수엘라에서 SPSS 기능을 포함하지 않습니다.

배치 문제

  • 정해진 시간(무료 플랜의 경우 24시간, 유료 플랜의 경우 120시간) 동안 비활성(점수 없음) 상태인 배치는 절전 모드로 자동 전환됩니다. 새 스코어링 요청이 제출되면 배치가 다시 활성화되고 스코어 요청이 서비스됩니다. 모델 프레임워크에 따라 활성화 후 첫 번째 스코어 요청에 대해 1 - 60초의 짧은 지연이 예상됩니다.
  • SPSS 모델러와 같은 일부 프레임워크의 경우 최대 절전 모드 후 배치된 모델에 대한 첫 번째 스코어 요청으로 인해 504 오류가 발생할 수 있습니다. 이러한 상황이 발생하면 요청을 다시 제출하십시오. 후속 요청은 성공해야 합니다.

알려진 AutoAI 제한사항

  • 현재, AutoAI 실험은 2바이트 문자 세트를 지원하지 않습니다. AutoAI는 ASCII 문자의 CSV 파일만 지원합니다. 사용자는 파일 이름 또는 컨텐츠의 비ASCII 문자를 변환하고 이 CSV 표준에 정의된 대로 입력 데이터를 CSV로 제공해야 합니다.

  • AutoAI 모델과 프로그래밍 방식으로 상호작용하려면 Python 클라이언트 대신 REST API를 사용하십시오. AutoAI를 지원하는 데 필요한 Python 클라이언트용 API는 현재 일반적으로 사용 가능하지 않습니다.

IBM Federated Learning에서 데이터 모듈을 찾을 수 없습니다.

IBM Federated Learning용 데이터 핸들러가 FL 라이브러리에서 데이터 모듈을 추출하려고 시도하지만 찾을 수 없습니다. 다음 오류 메시지가 표시될 수 있습니다.

ModuleNotFoundError: No module named 'ibmfl.util.datasets'

이 문제로 인해 오래된 DataHandler를 사용할 수 있습니다. 최신 사양을 준수하도록 DataHandler를 검토하고 업데이트하십시오. 다음은 최신 MNIST 데이터 핸들러에 대한 링크 또는 갤러리 샘플 버전이 최신 버전인지 확인합니다.

마스크된 데이터 자산 미리보기가 배치 공간에서 차단됨 * *

데이터 자산 미리보기가 다음 메시지와 함께 실패할 수 있습니다. This asset contains masked data and is not supported for preview in the Deployment Space

배치 공간은 현재 마스킹 데이터를 지원하지 않으므로 마스크된 자산의 미리보기가 데이터 누수를 막기 위해 차단되었습니다.

SPSS Modeler 문제점

SPSS Modeler 작업 시 다음 문제 중 일부가 발생할 수 있습니다.

실행 중인 플로우를 중단하려고 할 경우 오류

SPSS Modeler 플로우를 실행할 때 프로젝트의 관리 탭 아래에 있는 환경 페이지에서 플로우를 정지하려고 하면 오류가 발생할 수 있습니다. 완전히 SPSS Modeler 런타임 및 CUH 사용을 중지하려면 플로우를 열린 브라우저 탭을 닫으십시오.

가져온 데이터 자산 내보내기 노드가 때때로 실행되지 않음

SPSS Modeler 스트림(.str 파일)을 가져와서 새 플로우를 작성하면, 내보내기 노드를 마이그레이션한 다음 결과 데이터 자산 내보내기 노드를 실행하고 실행이 실패할 수 있습니다. 이 문제를 해결하려면 노드를 재실행하고 출력 이름을 변경한 후 노드 특성에서 데이터 세트가 이미 있는 경우 옵션을 변경한 후 노드를 다시 실행하십시오.

테이블 메타데이터를 변경하는 경우 데이터 미리보기가 실패할 수 있음

일부 경우, 데이터 자산 가져오기 노드를 사용하여 연결에서 데이터를 가져오면 기본 테이블 메타데이터(데이터 모델)이 변경되는 경우 데이터 미리보기는 오류를 리턴할 수 있습니다. 데이터 자산 노드를 다시 작성하여 문제점을 해결하십시오.

확장 출력 노드를 실행한 후 출력을 볼 수 없음

파일 출력 옵션을 선택하여 확장 출력 노드를 실행하는 경우 결과 출력 파일은 출력 패널에서 이를 열려고 할 때 오류를 리턴합니다.

COS 연결에서 Excel 데이터를 미리볼 수 없음

현재, COS 연결에서 .xls 또는 .xlsx 데이터를 미리 볼 수 없습니다.

문자열로 해석되는 숫자

정밀도가 32 이상이고 스케일이 0인 숫자는 문자열로 해석됩니다. 이 동작을 변경해야 하는 경우, 표현식 to_real(@FIELD)를 사용하는 대신 필러 노드를 사용하여 필드를 실수로 캐스트할 수 있습니다.

가져오기 노드를 포함하는 슈퍼노드

플로우에 가져오기 노드가 포함된 SuperNode가 있는 경우, 스코어링 분기 옵션을 사용하여 모델을 저장할 때 입력 스키마가 올바르게 설정되지 않을 수 있습니다. 이 문제를 해결하려면 저장하기 전에 슈퍼노드를 확장하십시오.

SAV 파일로 내보내기

데이터 자산 내보내기 노드를 사용하여 SPSS Statistics SAV 파일(.sav)로 내보내는 경우 입력 스키마가 출력 스키마와 일치하지 않으면 데이터 자산 교체 옵션이 작동하지 않습니다. 대체하려는 기존 파일의 스키마가 일치해야 합니다.

Watson Machine Learning Server에서 플로우 실행

Watson Machine Learning Server에서 플로우를 실행하면 다음 문제가 발생할 수 있습니다.

  • 플로우가 연결을 참조하는 경우, 연결은 로컬 머신(연결을 구성하기 위해)과 원격 Watson Machine Learning Server(플로우를 실행하기 위해) 모두에서 액세스 가능해야 합니다.
  • 플로우에 Text Analytics 노드가 포함된 경우 Watson Machine Learning Server에서 실행할 수 없습니다. 플로우를 로컬로 실행해야 합니다.
  • Watson Machine Learning Server에서 실행되는 플로우로 마이그레이션해야 하는 스트림 파일(.str)을 가져오지 마십시오.

가져오기 노드 마이그레이션

SPSS Modeler 데스크탑에서 작성된 플로우에 스트림(.str)을 가져오고 하나 이상의 지원되지 않는 가져오기 노드가 포함되어 있으면 가져오기 노드를 데이터 자산으로 마이그레이션하라는 프롬프트가 표시됩니다. 스트림에 동일한 데이터 파일을 사용하는 가져오기 노드가 여러 개 포함되어 있는 경우, 마이그레이션 시 동일한 파일을 둘 이상의 가져오기 노드에 업로드할 수 없으므로 마이그레이션하기 전에 먼저 해당 파일을 프로젝트에 데이터 자산으로 추가해야 합니다. 프로젝트에 데이터 자산을 추가했으면 플로우를 다시 열고 새 데이터 자산을 사용하여 마이그레이션을 진행하십시오.

텍스트 분석 설정이 저장되지 않음

텍스트 분석 워크벤치를 닫은 후 수정한 모든 필터 설정 또는 카테고리 빌드 설정이 노드에 저장되지 않습니다.

노드 및 유니코드 문자 병합

병합 노드는 다음과 유사한 일본어 문자를 동일한 문자로 처리합니다.
일본어 문자

Watson Pipelines 알려진 문제점

문제는 Watson Pipelines과 관련됩니다.

2레벨 이상의 중첩 루프로 인해 파이프라인 오류가 발생할 수 있습니다.

2개 이상의 레벨 루프를 중첩하면 파이프라인을 실행할 때 오류가 발생할 수 있습니다 (예: 실행을 검색하는 중에 오류 발생). 로그를 검토하면 text in text not resolved: neither pipeline_input nor node_output와 같은 오류가 표시될 수 있습니다. Bash 스크립트의 출력으로 루핑하는 경우 로그에 다음과 같은 오류가 표시될 수 있습니다. PipelineLoop can't be run; it has an invalid spec: non-existent variable in $(params.run-bash-script-standard-output). 문제점을 해결하려면 2레벨 이상의 루프를 중첩하지 마십시오.

자산 브라우저는 자산 유형의 총 수에 대한 계수를 항상 반영하지 않습니다.

자산 브라우저에서 자산을 선택하는 경우 (예: 복사 노드의 소스 선택) 자산의 일부가 사용 가능한 자산 유형의 총 수를 나열하지만 노트북은 그렇지 않음을 확인할 수 있습니다. 그것은 현재의 한계이다.

파이프라인 버전을 삭제할 수 없음

현재, 더 이상 필요 없는 파이프라인의 저장된 버전을 삭제할 수 없습니다.

일부 조건 하에서 AutoAI 실험 삭제가 실패함

프로젝트 UI에서 작성된 AutoAI 실험을 삭제하기 위해 AutoAI 실험 삭제 노드를 사용하면 AutoAI 자산이 삭제되지 않습니다. 그러나 나머지 플로우는 성공적으로 완료됩니다.

캐시가 사용 가능으로 표시되지만 사용 가능하지 않음

자산 복사 파이프라인 노드의 복사 모드Overwrite로 설정된 경우 캐시는 사용 가능으로 표시되지만 사용 불가능한 상태로 남아 있습니다.

Watson Pipelines 제한사항

이러한 제한사항은 Watson Pipelines에 적용됩니다.

단일 파이프라인 제한

이러한 제한사항은 구성에 관계없이 단일 파이프라인에 적용됩니다.

  • 단일 파이프라인은 120개를 초과하는 표준 노드를 포함할 수 없습니다.
  • 루프가 있는 파이프라인에는 모든 반복에 걸쳐 600개 이상의 노드가 포함될 수 없습니다 (예: 각각 60개의 반복-10개의 노드).

구성 크기에 의한 제한 사항

소형 구성

SMALL 구성은 600개의 표준 노드 (모든 활성 파이프라인) 를 지원하거나 300개의 노드가 루프에서 실행됩니다. 예:

  • 20개의 노드가 있는 30개의 표준 파이프라인 병렬 = 600표준 노드
  • 루프의 각 반복에서 30번 반복 및 10개의 노드를 포함하는 루프를 포함하는 단일 파이프라인

중형 구성

MEDIUM 구성은 (모든 활성 파이프라인에 걸쳐) 1200개의 표준 노드 또는 루프에서 실행되는 600개의 노드를 지원한다. 예:

  • 40개의 노드가 있는 30개의 표준 파이프라인 병렬 = 1200표준 노드
  • 루프의 각 반복에서 60번 반복 및 10개의 노드가 있는 루프를 포함하는 단일 파이프라인

대형 구성

LARGE 구성은 루프에서 실행되는 4800개의 표준 노드 (모든 활성 파이프라인에 걸쳐) 또는 2400노드를 지원합니다. 예:

  • 60개의 노드가 있는 80개의 표준 파이프라인 병렬 = 4800표준 노드
  • 루프의 각 반복 = 2400노드에서 60회 반복 및 10개 노드를 포함하는 루프를 포함하는 4개의 파이프라인

입력 및 출력 크기 제한

파이프라인 매개변수, 사용자 변수 및 일반 노드 입력 및 출력을 포함하는 입력 및 출력 값은 10 KB 데이터를 초과할 수 없습니다.

일괄처리 입력이 데이터 자산으로 제한됨

현재, 일괄처리 배치 작업에 대한 입력은 데이터 자산으로 제한됩니다. 이는 입력으로 JSON 입력 또는 다중 파일이 필요한 특정 유형의 배치가 지원되지 않음을 의미합니다. 예를 들어, 다중 파일이 입력으로 필요한 SPSS 모델 및 Decision Optimization 솔루션은 지원되지 않습니다.