Gemma モデル(スペシャルトークン拡張版)

概要

Gemmaは、Googleが開発した軽量かつ最先端のオープンモデルファミリーです。このモデルは、Geminiモデルと同じ研究および技術から生まれた英語対応のテキスト生成モデルです。事前学習版と指示調整版の両方のウェイトが公開されています。

このバージョンは、オリジナルのGemmaモデルに以下のスペシャルトークンを追加して拡張したものです:

  • <|SYSTEM|>, </|SYSTEM|>: システムメッセージの区切り
  • <|USER|>, </|USER|>: ユーザー入力の区切り
  • <|HINT|>, </|HINT|>: ヒント情報の区切り
  • <|REASONING|>, </|REASONING|>: 推論過程の区切り
  • <|ASSISTANT|>, </|ASSISTANT|>: アシスタント応答の区切り

モデルの特徴

  • テキストからテキストを生成するデコーダーオンリーの大規模言語モデル
  • 質問応答、要約、推論など、様々なテキスト生成タスクに適している
  • ラップトップ、デスクトップ、または独自のクラウドインフラで展開可能な比較的小規模なサイズ

スペシャルトークンの使用例

from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("your-model-path")
model = AutoModelForCausalLM.from_pretrained("your-model-path")

# スペシャルトークンを使用した入力の例
input_text = """<|SYSTEM|>あなたは親切なAIアシスタントです。</|SYSTEM|>
<|USER|>機械学習について説明してください。</|USER|>
<|ASSISTANT|>機械学習は..."""

input_ids = tokenizer(input_text, return_tensors="pt").to(device)
outputs = model.generate(**input_ids, max_new_tokens=256)
print(tokenizer.decode(outputs[0]))

モデルの仕様

  • 9Bパラメータ版:8兆トークンで学習

使用方法

基本的な使用方法(Pipeline API)

import torch
from transformers import pipeline

pipe = pipeline(
    "text-generation",
    model="google/gemma-2-9b",
    device="cuda",  # Macの場合は "mps" に置き換え
    torch_dtype=torch.bfloat16  # BF16精度を指定
)

text = "<|SYSTEM|>You are a helpful assistant.</|SYSTEM|><|USER|>Tell me a story.</|USER|>"
outputs = pipe(text, max_new_tokens=256)
response = outputs[0]["generated_text"]
print(response)
Downloads last month
1
Safetensors
Model size
9.24B params
Tensor type
FP16
·
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.

Model tree for DeL-TaiseiOzaki/Tengentoppa-gemma-2-9b-base-fp16

Base model

google/gemma-2-9b
Finetuned
(226)
this model