0 / 0
영어 버전 문서로 돌아가기
직접 코딩으로 AI 서비스 배포
마지막 업데이트 날짜: 2024년 11월 08일
직접 코딩으로 AI 서비스 배포

처음부터 생성 AI 애플리케이션에 맞는 맞춤형 AI 서비스를 구축할 수 있습니다. 예를 들어 검색 증강 생성(RAG)을 사용하는 자산을 배포하는 경우 AI 서비스에서 근거 문서에서 답변을 검색하는 로직을 캡처할 수 있습니다.

프로세스 개요

다음 그래픽은 AI 서비스를 코딩하는 과정을 보여줍니다.

프로젝트 내에서 AI 서비스 및 연결이 포함된 노트북을 만들 수 있습니다. AI 서비스는 RAG 애플리케이션의 로직을 캡처하고 배포 가능한 코드 단위인 생성 기능을 포함하고 있습니다. 생성 기능은 배포를 생성하는 데 사용되는 배포 공간으로 승격됩니다. 배포는 다른 애플리케이션에서 액세스할 수 있는 REST API 엔드포인트로 노출됩니다. 배포된 AI 서비스를 추론에 사용하도록 REST API 엔드포인트에 요청을 보낼 수 있습니다. 배포된 AI 서비스는 요청을 처리하고 응답을 반환합니다.

직접 코딩 사용 사례

AI 서비스 만들기 및 배포를 위한 작업

다음은 AI 서비스를 만들고, 배포하고, 관리하기 위해 따라야 하는 단계입니다:

  1. AI 서비스 만들기: Python 사용해 노트북에서 AI 서비스를 정의합니다. AI 서비스는 AI 서비스로 배포하기 위한 특정 요구 사항을 충족해야 합니다.
  2. AI 서비스 테스트: 로컬에서 AI 서비스의 코딩 로직을 테스트하세요.
  3. AI 서비스 에셋을 만듭니다: AI 서비스를 만들고 테스트한 후에는 배포 가능한 에셋으로 AI 서비스를 패키징해야 합니다.
  4. AI 서비스 자산을 배포합니다: AI 서비스 자산을 온라인 또는 일괄 배포로 배포합니다.
  5. AI 서비스 배포 테스트하기: 배포된 AI 서비스를 테스트하여 온라인 추론 또는 일괄 채점을 수행합니다.
  6. AI 서비스를 관리합니다: 배포 세부 정보에 액세스하고 업데이트합니다. 사용자 인터페이스에서 또는 프로그래밍 방식으로 배포를 확장하거나 삭제합니다.

AI 서비스 생성 및 배포를 위한 샘플 노트북

프로그래밍 방식으로 AI 서비스를 만들고 배포하는 방법을 배우려면 다음 샘플 노트북을 참조하세요:

AI 서비스용 샘플 노트북
샘플 이름 프레임워크 시연되는 기술
watsonx meta-llama/llama-3-2-11b-vision-instruct 사용하여 AI 서비스로 실행하세요 Python 환경 설정 '
AI 서비스 생성 '
로컬에서 AI 서비스 기능 테스트 '
AI 서비스 배포 '
AI 서비스 실행하기
watsonx, Elasticsearch, LangChain 사용하여 질문에 답하기(RAG) LangChain '
환경 설정 테스트 데이터 세트를 다운로드합니다.
watsonx foundation model 정의하기 '
' Elasticsearch 연결 정보 설정하기 '
' 질문에 대한 검색 증강 응답 생성하기 '
' AI 서비스 생성하기 '
' 로컬에서 AI 서비스 기능 테스트하기 '
AI 서비스 배포하기
watsonx meta-llama/llama-3-1-70b-instruct 사용하여 AI 서비스 만들기 LangGraph 환경 설정 '
AI 서비스 생성 '
로컬에서 AI 서비스 기능 테스트 '
AI 서비스 배포 '
AI 서비스 실행하기

자세히 알아보기

상위 주제: AI 서비스 배포

일반적인 AI 검색 및 응답
이러한 응답은 제품 문서의 컨텐츠를 기반으로 하는 watsonx.ai 의 대형 언어 모델에 의해 생성됩니다. 자세히 알아보기