Volver a la versión inglesa de la documentaciónImplantación de modelos de procesamiento del lenguaje natural
Implantación de modelos de procesamiento del lenguaje natural
Última actualización: 22 nov 2024
Puede desplegar un modelo de Procesamiento del Lenguaje Natural en watsonx.ai Runtime utilizando funcionesPython o scriptsPython. Se da soporte a los despliegues en línea y por lotes.
- Puede desplegar una función Python para despliegues por lotes en línea y en línea y un script Python para despliegues por lotes de referencia de datos.
- El resultado de la predicción que devuelve '
<model>.run()
' es un objeto de una clase específica de la clase de predicción del modelo de datos en cuestión (por ejemplo, 'watson_nlp.data_model.syntax.SyntaxPrediction
). Este tipo de objetos no se pueden serializar en formato JSON, por lo que el resultado de la predicción se debe convertir al tipo diccionario Python o a JSON utilizando los métodos '<prediction output>.to_dict()
(recomendado) o '<prediction output>.to_json()
. Si no convierte la salida, las solicitudes de API de puntuación devuelven un error. Véase Ejemplo de tratamiento de los resultados de predicción de un modelo PNL. - Puede acceder a la ubicación de los modelos Watson NLP preentrenados en el código de la función Python utilizando la variable de entorno '
LOAD_PATH
. - La carga útil de entrada de predicción y la respuesta de predicción que se devuelve de
score()
deben cumplir los requisitos que se listan en la documentación de la API de trabajos y puntuación en línea. - Las solicitudes de puntuación para modelos NLP pueden fallar con un error
Out of Memory
notificado por el tiempo de ejecución de JVM subyacente. Si se notifica un error, aplique un parche en el despliegue para utilizar una especificación de hardware con más memoria disponible.
Requisitos previos
Debe configurar sus credenciales de tarea generando una clave API. Para obtener más información, consulte Gestión de credenciales de tareas.
Ejemplos de uso
Análisis sintáctico de un fragmento de texto
import watson_nlp
# Load the syntax model for English
syntax_model = watson_nlp.load('syntax_izumo_en_stock')
# Run the syntax model and print the result
syntax_prediction = syntax_model.run('Welcome to IBM!')
print(syntax_prediction)
Extracción de entidades de un fragmento de texto
import watson_nlp
entities_workflow = watson_nlp.load('entity-mentions_transformer-workflow_multilingual_slate.153m.distilled')
entities = entities_workflow.run('IBM\'s CEO Arvind Krishna is based in the US', language_code="en")
print(entities.get_mention_pairs())
Ejemplo de tratamiento de los resultados de predicción de un modelo PNL
for input_data in input_data_row:
targets_sentiments = targets_sentiment_model.run(input_data)
scoring_prediction_row.append(targets_sentiments.to_dict())
Especificaciones de software soportadas
Lista de especificaciones de software que dan soporte al despliegue de modelos NLP:
runtime-23.1-py3.10
- Especificaciones de software personalizadas basadas en
runtime-23.1-py3.10
runtime-24.1-py3.11
- Especificaciones de software personalizadas basadas en
runtime-24.1-py3.11
Para obtener información sobre cómo personalizar las especificaciones de software, consulte Personalización de los tiempos de ejecución de despliegue de watsonx.ai Runtime.
Ejemplos de implantación de modelos de PNL
Para ver ejemplos, consulte este Jupyter Notebook:
Tema padre: Gestión de despliegues predictivos