0 / 0
Volver a la versión inglesa de la documentación
Implantación de modelos de procesamiento del lenguaje natural
Última actualización: 22 nov 2024
Implantación de modelos de procesamiento del lenguaje natural

Puede desplegar un modelo de Procesamiento del Lenguaje Natural en watsonx.ai Runtime utilizando funcionesPython o scriptsPython. Se da soporte a los despliegues en línea y por lotes.

  • Puede desplegar una función Python para despliegues por lotes en línea y en línea y un script Python para despliegues por lotes de referencia de datos.
  • El resultado de la predicción que devuelve ' <model>.run() ' es un objeto de una clase específica de la clase de predicción del modelo de datos en cuestión (por ejemplo, ' watson_nlp.data_model.syntax.SyntaxPrediction). Este tipo de objetos no se pueden serializar en formato JSON, por lo que el resultado de la predicción se debe convertir al tipo diccionario Python o a JSON utilizando los métodos ' <prediction output>.to_dict() (recomendado) o ' <prediction output>.to_json(). Si no convierte la salida, las solicitudes de API de puntuación devuelven un error. Véase Ejemplo de tratamiento de los resultados de predicción de un modelo PNL.
  • Puede acceder a la ubicación de los modelos Watson NLP preentrenados en el código de la función Python utilizando la variable de entorno ' LOAD_PATH.
  • La carga útil de entrada de predicción y la respuesta de predicción que se devuelve de score() deben cumplir los requisitos que se listan en la documentación de la API de trabajos y puntuación en línea.
  • Las solicitudes de puntuación para modelos NLP pueden fallar con un error Out of Memory notificado por el tiempo de ejecución de JVM subyacente. Si se notifica un error, aplique un parche en el despliegue para utilizar una especificación de hardware con más memoria disponible.

Requisitos previos

Debe configurar sus credenciales de tarea generando una clave API. Para obtener más información, consulte Gestión de credenciales de tareas.

Ejemplos de uso

Análisis sintáctico de un fragmento de texto

import watson_nlp

# Load the syntax model for English
syntax_model = watson_nlp.load('syntax_izumo_en_stock')

# Run the syntax model and print the result
syntax_prediction = syntax_model.run('Welcome to IBM!')
print(syntax_prediction)

Extracción de entidades de un fragmento de texto

import watson_nlp
entities_workflow = watson_nlp.load('entity-mentions_transformer-workflow_multilingual_slate.153m.distilled')
entities = entities_workflow.run('IBM\'s CEO Arvind Krishna is based in the US', language_code="en")
print(entities.get_mention_pairs())

Ejemplo de tratamiento de los resultados de predicción de un modelo PNL

    for input_data in input_data_row:
        targets_sentiments = targets_sentiment_model.run(input_data)
        scoring_prediction_row.append(targets_sentiments.to_dict())

Especificaciones de software soportadas

Lista de especificaciones de software que dan soporte al despliegue de modelos NLP:

  • runtime-23.1-py3.10
  • Especificaciones de software personalizadas basadas en runtime-23.1-py3.10
  • runtime-24.1-py3.11
  • Especificaciones de software personalizadas basadas en runtime-24.1-py3.11

Para obtener información sobre cómo personalizar las especificaciones de software, consulte Personalización de los tiempos de ejecución de despliegue de watsonx.ai Runtime.

Ejemplos de implantación de modelos de PNL

Para ver ejemplos, consulte este Jupyter Notebook:

Tema padre: Gestión de despliegues predictivos

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información