Hub Python Library documentation

서버에서 추론 진행하기

You are viewing v0.25.1 version. A newer version v0.26.2 is available.
Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

서버에서 추론 진행하기

추론은 훈련된 모델을 사용하여 새 데이터에 대한 예측을 수행하는 과정입니다. 이 과정은 계산이 많이 필요할 수 있으므로, 전용 서버에서 실행하는 것이 좋은 방안이 될 수 있습니다. huggingface_hub 라이브러리는 호스팅된 모델에 대한 추론을 실행하는 서비스를 호출하는 간편한 방법을 제공합니다. 다음과 같은 여러 서비스에 연결할 수 있습니다:

  • 추론 API: Hugging Face의 인프라에서 가속화된 추론을 실행할 수 있는 서비스로 무료로 제공됩니다. 이 서비스는 추론을 시작하고 다양한 모델을 테스트하며 AI 제품의 프로토타입을 만드는 빠른 방법입니다.
  • 추론 엔드포인트: 모델을 제품 환경에 쉽게 배포할 수 있는 제품입니다. 사용자가 선택한 클라우드 환경에서 완전 관리되는 전용 인프라에서 Hugging Face를 통해 추론이 실행됩니다.

이러한 서비스들은 InferenceClient 객체를 사용하여 호출할 수 있습니다. 이는 이전의 InferenceApi 클라이언트를 대체하는 역할을 하며, 작업에 대한 특별한 지원을 추가하고 추론 API추론 엔드포인트에서 추론 작업을 처리합니다. 새 클라이언트로의 마이그레이션에 대한 자세한 내용은 레거시 InferenceAPI 클라이언트 섹션을 참조하세요.

InferenceClient는 API에 HTTP 호출을 수행하는 Python 클라이언트입니다. HTTP 호출을 원하는 툴을 이용하여 직접 사용하려면 (curl, postman 등) 추론 API 또는 추론 엔드포인트 문서 페이지를 참조하세요.

웹 개발을 위해 JS 클라이언트가 출시되었습니다. 게임 개발에 관심이 있다면 C# 프로젝트를 살펴보세요.

시작하기

text-to-image 작업을 시작해보겠습니다.

>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient()

>>> image = client.text_to_image("An astronaut riding a horse on the moon.")
>>> image.save("astronaut.png")

우리는 기본 매개변수로 InferenceClient를 초기화했습니다. 수행하고자 하는 작업만 알면 됩니다. 기본적으로 클라이언트는 추론 API에 연결하고 작업을 완료할 모델을 선택합니다. 예제에서는 텍스트 프롬프트에서 이미지를 생성했습니다. 반환된 값은 파일로 저장할 수 있는 PIL.Image 객체입니다.

API는 간단하게 설계되었습니다. 모든 매개변수와 옵션이 사용 가능하거나 설명되어 있는 것은 아닙니다. 각 작업에서 사용 가능한 모든 매개변수에 대해 자세히 알아보려면 이 페이지를 확인하세요.

특정 모델 사용하기

특정 모델을 사용하고 싶다면 어떻게 해야 할까요? 매개변수로 직접 지정하거나 인스턴스 수준에서 직접 지정할 수 있습니다:

>>> from huggingface_hub import InferenceClient
# 특정 모델을 위한 클라이언트를 초기화합니다.
>>> client = InferenceClient(model="prompthero/openjourney-v4")
>>> client.text_to_image(...)
# 또는 일반적인 클라이언트를 사용하되 모델을 인수로 전달하세요.
>>> client = InferenceClient()
>>> client.text_to_image(..., model="prompthero/openjourney-v4")

Hugging Face Hub에는 20만 개가 넘는 모델이 있습니다! InferenceClient의 각 작업에는 추천되는 모델이 포함되어 있습니다. HF의 추천은 사전 고지 없이 시간이 지남에 따라 변경될 수 있음을 유의하십시오. 따라서 모델을 결정한 후에는 명시적으로 모델을 설정하는 것이 좋습니다. 또한 대부분의 경우 자신의 필요에 맞는 모델을 직접 찾고자 할 것입니다. 허브의 모델 페이지를 방문하여 찾아보세요.

특정 URL 사용하기

위에서 본 예제들은 서버리스 추론 API를 사용합니다. 이는 빠르게 프로토타입을 정하고 테스트할 때 매우 유용합니다. 모델을 프로덕션 환경에 배포할 준비가 되면 전용 인프라를 사용해야 합니다. 그것이 추론 엔드포인트가 필요한 이유입니다. 이를 사용하면 모든 모델을 배포하고 개인 API로 노출시킬 수 있습니다. 한 번 배포되면 이전과 완전히 동일한 코드를 사용하여 연결할 수 있는 URL을 얻게 됩니다. model 매개변수만 변경하면 됩니다:

>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient(model="https://uu149rez6gw9ehej.eu-west-1.aws.endpoints.huggingface.cloud/deepfloyd-if")
# 또는
>>> client = InferenceClient()
>>> client.text_to_image(..., model="https://uu149rez6gw9ehej.eu-west-1.aws.endpoints.huggingface.cloud/deepfloyd-if")

인증

InferenceClient로 수행된 호출은 사용자 액세스 토큰을 사용하여 인증할 수 있습니다. 기본적으로 로그인한 경우 기기에 저장된 토큰을 사용합니다 (인증 방법을 확인하세요). 로그인하지 않은 경우 인스턴스 매개변수로 토큰을 전달할 수 있습니다.

>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient(token="hf_***")

추론 API를 사용할 때 인증은 필수가 아닙니다. 그러나 인증된 사용자는 서비스를 이용할 수 있는 더 높은 무료 티어를 받습니다. 토큰은 개인 모델이나 개인 엔드포인트에서 추론을 실행하려면 필수입니다.

지원되는 작업

InferenceClient의 목표는 Hugging Face 모델에서 추론을 실행하기 위한 가장 쉬운 인터페이스를 제공하는 것입니다. 이는 가장 일반적인 작업들을 지원하는 간단한 API를 가지고 있습니다. 현재 지원되는 작업 목록은 다음과 같습니다:

도메인 작업 지원 여부 문서
오디오 오디오 분류 audio_classification()
오디오 오디오 투 오디오 audio_to_audio()
자동 음성 인식 automatic_speech_recognition()
텍스트 투 스피치 text_to_speech()
컴퓨터 비전 이미지 분류 image_classification()
이미지 분할 image_segmentation()
이미지 투 이미지 image_to_image()
이미지 투 텍스트 image_to_text()
객체 탐지 object_detection()
텍스트 투 이미지 text_to_image()
제로샷 이미지 분류 zero_shot_image_classification()
멀티모달 문서 질의 응답 document_question_answering()
시각적 질의 응답 visual_question_answering()
자연어 처리 대화형 ~InferenceClient.conversational
특성 추출 feature_extraction()
마스크 채우기 fill_mask()
질의 응답 question_answering()
문장 유사도 sentence_similarity()
요약 summarization()
테이블 질의 응답 table_question_answering()
텍스트 분류 text_classification()
텍스트 생성 text_generation()
토큰 분류 token_classification()
번역 translation()
제로샷 분류 zero_shot_classification()
타블로 타블로 작업 분류 tabular_classification()
타블로 회귀 tabular_regression()

각 작업에 대해 더 자세히 알고 싶거나 사용 방법 및 각 작업에 대한 가장 인기 있는 모델을 알아보려면 Tasks 페이지를 확인하세요.

사용자 정의 요청

그러나 모든 경우를 항상 완벽하게 다루는 것은 어렵습니다. 사용자 정의 요청의 경우, InferenceClient.post() 메소드를 사용하여 Inference API로 요청을 보낼 수 있습니다. 예를 들어, 입력 및 출력을 어떻게 파싱할지 지정할 수 있습니다. 아래 예시에서 생성된 이미지는 PIL Image로 파싱하는 대신 원본 바이트로 반환됩니다. 이는 설치된 Pillow가 없고 이미지의 이진 콘텐츠에만 관심이 있는 경우에 유용합니다. InferenceClient.post()는 아직 공식적으로 지원되지 않는 작업을 처리하는 데도 유용합니다.

>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient()
>>> response = client.post(json={"inputs": "An astronaut riding a horse on the moon."}, model="stabilityai/stable-diffusion-2-1")
>>> response.content # 원시 바이트
b'...'

비동기 클라이언트

asyncioaiohttp를 기반으로 한 클라이언트의 비동기 버전도 제공됩니다. aiohttp를 직접 설치하거나 [inference] 추가 옵션을 사용할 수 있습니다:

pip install --upgrade huggingface_hub[inference]
# 또는
# pip install aiohttp

설치 후 모든 비동기 API 엔드포인트는 AsyncInferenceClient를 통해 사용할 수 있습니다. 초기화 및 API는 동기 전용 버전과 완전히 동일합니다.

# 코드는 비동기 asyncio 라이브러리 동시성 컨텍스트에서 실행되어야 합니다.
# $ python -m asyncio
>>> from huggingface_hub import AsyncInferenceClient
>>> client = AsyncInferenceClient()

>>> image = await client.text_to_image("An astronaut riding a horse on the moon.")
>>> image.save("astronaut.png")

>>> async for token in await client.text_generation("The Huggingface Hub is", stream=True):
...     print(token, end="")
 a platform for sharing and discussing ML-related content.

asyncio 모듈에 대한 자세한 정보는 공식 문서를 참조하세요.

고급 팁

위 섹션에서는 InferenceClient의 주요 측면을 살펴보았습니다. 이제 몇 가지 고급 팁에 대해 자세히 알아보겠습니다.

타임아웃

추론을 수행할 때 타임아웃이 발생하는 주요 원인은 두 가지입니다:

  • 추론 프로세스가 완료되는 데 오랜 시간이 걸리는 경우
  • 모델이 사용 불가능한 경우, 예를 들어 Inference API를 처음으로 가져오는 경우

InferenceClient에는 이 두 가지를 처리하기 위한 전역 timeout 매개변수가 있습니다. 기본값은 None으로 설정되어 있으며, 클라이언트가 추론이 완료될 때까지 무기한으로 기다리게 합니다. 워크플로우에서 더 많은 제어를 원하는 경우 초 단위의 특정한 값으로 설정할 수 있습니다. 타임아웃 딜레이가 만료되면 InferenceTimeoutError가 발생합니다. 이를 코드에서 처리할 수 있습니다:

>>> from huggingface_hub import InferenceClient, InferenceTimeoutError
>>> client = InferenceClient(timeout=30)
>>> try:
...     client.text_to_image(...)
... except InferenceTimeoutError:
...     print("Inference timed out after 30s.")

이진 입력

일부 작업에는 이미지 또는 오디오 파일을 처리할 때와 같이 이진 입력이 필요한 경우가 있습니다. 이 경우 InferenceClient는 최대한 다양한 유형을 융통성 있게 허용합니다:

  • 원시 bytes
  • 이진으로 열린 파일과 유사한 객체 (with open("audio.flac", "rb") as f: ...)
  • 로컬 파일을 가리키는 경로 (str 또는 Path)
  • 원격 파일을 가리키는 URL (str) (예: https://...). 이 경우 파일은 Inference API로 전송되기 전에 로컬로 다운로드됩니다.
>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient()
>>> client.image_classification("https://upload.wikimedia.org/wikipedia/commons/thumb/4/43/Cute_dog.jpg/320px-Cute_dog.jpg")
[{'score': 0.9779096841812134, 'label': 'Blenheim spaniel'}, ...]

레거시 InferenceAPI 클라이언트

InferenceClient는 레거시 InferenceApi 클라이언트를 대체하여 작동합니다. 특정 작업에 대한 지원을 제공하고 추론 API추론 엔드포인트에서 추론을 처리합니다.

아래는 InferenceApi에서 InferenceClient로 마이그레이션하는 데 도움이 되는 간단한 가이드입니다.

초기화

변경 전:

>>> from huggingface_hub import InferenceApi
>>> inference = InferenceApi(repo_id="bert-base-uncased", token=API_TOKEN)

변경 후:

>>> from huggingface_hub import InferenceClient
>>> inference = InferenceClient(model="bert-base-uncased", token=API_TOKEN)

특정 작업에서 실행하기

변경 전:

>>> from huggingface_hub import InferenceApi
>>> inference = InferenceApi(repo_id="paraphrase-xlm-r-multilingual-v1", task="feature-extraction")
>>> inference(...)

변경 후:

>>> from huggingface_hub import InferenceClient
>>> inference = InferenceClient()
>>> inference.feature_extraction(..., model="paraphrase-xlm-r-multilingual-v1")

위의 방법은 코드를 InferenceClient에 맞게 조정하는 권장 방법입니다. 이렇게 하면 feature_extraction과 같이 작업에 특화된 메소드를 활용할 수 있습니다.

사용자 정의 요청 실행

변경 전:

>>> from huggingface_hub import InferenceApi
>>> inference = InferenceApi(repo_id="bert-base-uncased")
>>> inference(inputs="The goal of life is [MASK].")
[{'sequence': 'the goal of life is life.', 'score': 0.10933292657136917, 'token': 2166, 'token_str': 'life'}]

변경 후:

>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient()
>>> response = client.post(json={"inputs": "The goal of life is [MASK]."}, model="bert-base-uncased")
>>> response.json()
[{'sequence': 'the goal of life is life.', 'score': 0.10933292657136917, 'token': 2166, 'token_str': 'life'}]

매개변수와 함께 실행하기

변경 전:

>>> from huggingface_hub import InferenceApi
>>> inference = InferenceApi(repo_id="typeform/distilbert-base-uncased-mnli")
>>> inputs = "Hi, I recently bought a device from your company but it is not working as advertised and I would like to get reimbursed!"
>>> params = {"candidate_labels":["refund", "legal", "faq"]}
>>> inference(inputs, params)
{'sequence': 'Hi, I recently bought a device from your company but it is not working as advertised and I would like to get reimbursed!', 'labels': ['refund', 'faq', 'legal'], 'scores': [0.9378499388694763, 0.04914155602455139, 0.013008488342165947]}

변경 후:

>>> from huggingface_hub import InferenceClient
>>> client = InferenceClient()
>>> inputs = "Hi, I recently bought a device from your company but it is not working as advertised and I would like to get reimbursed!"
>>> params = {"candidate_labels":["refund", "legal", "faq"]}
>>> response = client.post(json={"inputs": inputs, "parameters": params}, model="typeform/distilbert-base-uncased-mnli")
>>> response.json()
{'sequence': 'Hi, I recently bought a device from your company but it is not working as advertised and I would like to get reimbursed!', 'labels': ['refund', 'faq', 'legal'], 'scores': [0.9378499388694763, 0.04914155602455139, 0.013008488342165947]}
< > Update on GitHub