Über den Einsatz von Cookies auf dieser Website Unsere Websites benötigen einige Cookies, um ordnungsgemäß zu funktionieren (erforderlich). Darüber hinaus können mit Ihrer Zustimmung weitere Cookies verwendet werden, um die Nutzung der Website zu analysieren, die Benutzerfreundlichkeit zu verbessern und Werbung zu schalten. Weitere Informationen finden Sie in Ihren. Durch den Besuch unserer Website erklären Sie sich mit der Verarbeitung von Informationen einverstanden, wie in der IBMDatenschutzbestimmung beschrieben. Um eine reibungslose Navigation zu ermöglichen, werden Ihre Cookie-Präferenzen über die hier aufgeführten IBM Web-Domains hinweg gemeinsam genutzt.
Fehlerbehebung bei Data Refinery
Letzte Aktualisierung: 19. Juni 2024
Anhand dieser Informationen können Sie Fragen zur Verwendung von Data Refinerylösen.
- Daten aus einem Excel-Datenasset können nicht optimiert werden
- Data Refinery -Ablaufjob schlägt mit großem Datenasset fehl
Daten aus einem Excel-Datenasset können nicht optimiert werden
Der Data Refinery -Ablauf schlägt möglicherweise fehl, wenn er die Daten nicht lesen kann. Bestätigen Sie das Format der Excel-Datei. Standardmäßig wird die erste Zeile der Datei als Header behandelt. Sie können diese Einstellung in den Flow-Einstellungen ändern. Klicken Sie auf das Symbol Flow-Einstellungen . Wechseln Sie zur Registerkarte Quellendatasets , klicken Sie auf das Symbol Überlauf
neben der Datenquelle und wählen Sie Format bearbeitenaus. Sie können auch die Eigenschaft für die erste Zeile angeben, die angibt, welche Zeile die erste Zeile im zu lesenden Dataset ist. Das Ändern dieser Eigenschaften wirkt sich darauf aus, wie die Daten in Data Refinery sowie in der Ausgabe des Jobs Data Refinery angezeigt werden.
Data Refinery -Ablaufjob schlägt mit einem großen Datenasset fehl
Wenn Ihr Data Refinery -Ablaufjob mit einem großen Datenasset fehlschlägt, verwenden Sie die folgenden Tipps zur Fehlerbehebung, um das Problem zu beheben:
- Verwenden Sie anstelle eines Projektdatenassets als Ziel des Data Refinery -Ablaufs (Standardeinstellung) Cloudspeicher. Beispiel: IBM Cloud Object Storage, Amazon S3oder Google Cloud Storage.
- Wählen Sie eine Spark & R -Umgebung für den Datenflussjob Data Refinery aus, oder erstellen Sie eine neue Spark & R -Umgebungsvorlage.
War das Thema hilfreich?
0/1000