資料の 英語版 に戻るextensionmodelnode プロパティー
extensionmodelnode プロパティー
最終更新: 2024年10月04日
拡張モデル・ノードを使用すると、R スクリプトまたは Python for spark スクリプトを実行して、結果の作成およびスコアリングができます。
このページのプロパティーおよび情報の多くは、SPSS Modeler Desktop ストリームにのみ適用されることに注意してください。
Python for Spark の例
import modeler.api
stream = modeler.script.stream()
node = stream.create("extension_build", "extension_build")
node.setPropertyValue("syntax_type", "Python")
build_script = """
import json
import spss.pyspark.runtime
from pyspark.mllib.regression import LabeledPoint
from pyspark.mllib.linalg import DenseVector
from pyspark.mllib.tree import DecisionTree
cxt = spss.pyspark.runtime.getContext()
df = cxt.getSparkInputData()
schema = df.dtypes[:]
target = "Drug"
predictors = ["Age","BP","Sex","Cholesterol","Na","K"]
def metaMap(row,schema):
col = 0
meta = []
for (cname, ctype) in schema:
if ctype == 'string':
meta.append(set([row[col]]))
else:
meta.append((row[col],row[col]))
col += 1
return meta
def metaReduce(meta1,meta2,schema):
col = 0
meta = []
for (cname, ctype) in schema:
if ctype == 'string':
meta.append(meta1[col].union(meta2[col]))
else:
meta.append((min(meta1[col][0],meta2[col][0]),max(meta1[col][1],meta2[col][1])))
col += 1
return meta
metadata = df.rdd.map(lambda row: metaMap(row,schema)).reduce(lambda x,y:metaReduce(x,y,schema))
def setToList(v):
if isinstance(v,set):
return list(v)
return v
metadata = map(lambda x: setToList(x), metadata)
print metadata
lookup = {}
for i in range(0,len(schema)):
lookup[schema[i][0]] = i
def row2LabeledPoint(dm,lookup,target,predictors,row):
target_index = lookup[target]
tval = dm[target_index].index(row[target_index])
pvals = []
for predictor in predictors:
predictor_index = lookup[predictor]
if isinstance(dm[predictor_index],list):
pval = dm[predictor_index].index(row[predictor_index])
else:
pval = row[predictor_index]
pvals.append(pval)
return LabeledPoint(tval,DenseVector(pvals))
# count number of target classes
predictorClassCount = len(metadata[lookup[target]])
# define function to extract categorical predictor information from datamodel
def getCategoricalFeatureInfo(dm,lookup,predictors):
info = {}
for i in range(0,len(predictors)):
predictor = predictors[i]
predictor_index = lookup[predictor]
if isinstance(dm[predictor_index],list):
info[i] = len(dm[predictor_index])
return info
# convert dataframe to an RDD containing LabeledPoint
lps = df.rdd.map(lambda row: row2LabeledPoint(metadata,lookup,target,predictors,row))
treeModel = DecisionTree.trainClassifier(
lps,
numClasses=predictorClassCount,
categoricalFeaturesInfo=getCategoricalFeatureInfo(metadata, lookup, predictors),
impurity='gini',
maxDepth=5,
maxBins=100)
_outputPath = cxt.createTemporaryFolder()
treeModel.save(cxt.getSparkContext(), _outputPath)
cxt.setModelContentFromPath("TreeModel", _outputPath)
cxt.setModelContentFromString("model.dm",json.dumps(metadata), mimeType="application/json")\
.setModelContentFromString("model.structure",treeModel.toDebugString())
"""
node.setPropertyValue("python_build_syntax", build_script)
R の例
node.setPropertyValue("syntax_type", "R")
node.setPropertyValue("r_build_syntax", """modelerModel <- lm(modelerData$Na~modelerData$K,modelerData)
modelerDataModel
modelerModel
""")
extensionmodelnode プロパティー |
値 | プロパティーの説明 |
---|---|---|
syntax_type |
R Python | 実行するスクリプトを R または Python (R がデフォルト) に指定します。 |
r_build_syntax |
string | モデル作成用の R スクリプト・シンタックス。 |
r_score_syntax |
string | モデル・スコアリング用の R スクリプト・シンタックス。 |
python_build_syntax |
string | モデル作成用の Python スクリプト・シンタックス。 |
python_score_syntax |
string | モデル・スコアリング用の Python スクリプト・シンタックス。 |
convert_flags |
StringsAndDoubles LogicalValues |
フラグ型フィールドを変換するためのオプション。 |
convert_missing |
フラグ | 欠損値を R に変換するオプションNA移ります。 |
convert_datetime |
フラグ | 日付形式または日付/時刻形式の変数を R の日付/時刻形式に変換するためのオプション。 |
convert_datetime_class |
POSIXct POSIXlt |
日付形式または日付/時刻形式の変数のうち、どの形式の変数を変換するかを指定するためのオプション。 |
output_html |
フラグ | R モデル・ナゲットにグラフを表示するオプションです。 |
output_text |
フラグ | R コンソール・テキスト出力を R モデル・ナゲットに書き込むオプションです。 |