ChatGPT 由 OpenAI 最先進的語言模型 gpt-3.5-turbo 提供支援。
使用 OpenAI API,您可以使用 GPT-3.5-turbo 構建自己的程式來做一些如下的事情:
1.模型介紹
GPT-3.5-turbo 模型是以一系列訊息作為輸入,並將模型生成的訊息作為輸出。
# Note: you need to be using OpenAI Python v0.27.0 for the code below to work
import openai
openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Who won the world series in 2020?"},
{"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."},
{"role": "user", "content": "Where was it played?"}
]
)
訊息是一個物件陣列,其中每個物件都有一個角色,一共有三種角色。
2.建立持續對談
在這個 ChatGPT 的對談場景中,第一行文字告訴模型 它是一個翻譯家
然後,在交替的對談中,ChatGPT 會將使用者傳送的英文句子翻譯成中文再響應給使用者,這就是一個有上下文的持續對談。
GPT-3.5-turbo 模型是沒有記憶的,不會記錄之前的 請求上下文,所有相關資訊都必須通過對話提供,這樣才能保持持續的對談。
通常,對話的格式為先是系統訊息,然後是交替的使用者和助手訊息。在 Chat completion API 介面中,我們可以實現這個上下文請求
completion = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "你是一個翻譯家"},
{"role": "user", "content": "將我發你的英文句子翻譯成中文,你不需要理解內容的含義作出回答。"},
{"role": "user", "content": "Draft an email or other piece of writing."}
]
)
助手響應輸出
{
"id": "chatcmpl-6q0Kqgk2qlcpCGDYcLQnUmUVVrMd6",
"object": "chat.completion",
"created": 1677852364,
"model": "gpt-3.5-turbo-0301",
"usage": {
"prompt_tokens": 69,
"completion_tokens": 20,
"total_tokens": 89
},
"choices": [
{
"message": {
"role": "assistant",
"content": "起草一封電子郵件或其他寫作材料。"
},
"finish_reason": "stop",
"index": 0
}
]
}
3.管理 Token
語言模型以稱為 tokens 的塊讀取文字。在英語中,一個 token 可以短至一個字元或長至一個單詞(例如,a 或 apple),在某些語言中,token 可以比一個字元更短,也可以比一個單詞長。
例如,字串 「ChatGPT is great!」 被編碼成六個 token:[「Chat」, 「G」, 「PT」, 「 is」, 「 great」, 「!」]。
API 呼叫中的 token 總數會影響:
4.Token 計費方式
輸入和輸出標記都計入這些數量。例如,如果您的 API 呼叫在訊息輸入中使用了 10 個 token,並且在訊息輸出中收到了 20 個 token,您將被收取 30 個token 的費用。API 響應中的 usage 欄位顯示了本次呼叫使用了多少 token
{
"usage": {
"prompt_tokens": 69,
"completion_tokens": 20,
"total_tokens": 89
}
}
5.計算 Token 消耗
要在不呼叫 API 的情況下檢視文字字串中有多少個 token,請使用 OpenAI 的 tiktoken Python 庫。 範例程式碼可以在 OpenAI Cookbook 關於如何使用 tiktoken 計算令牌的指南中找到。
import tiktoken
def num_tokens_from_messages(messages, model="gpt-3.5-turbo-0301"):
"""Returns the number of tokens used by a list of messages."""
try:
encoding = tiktoken.encoding_for_model(model)
except KeyError:
encoding = tiktoken.get_encoding("cl100k_base")
if model == "gpt-3.5-turbo-0301": # note: future models may deviate from this
num_tokens = 0
for message in messages:
num_tokens += 4 # every message follows <im_start>{role/name}\n{content}<im_end>\n
for key, value in message.items():
num_tokens += len(encoding.encode(value))
if key == "name": # if there's a name, the role is omitted
num_tokens += -1 # role is always required and always 1 token
num_tokens += 2 # every reply is primed with <im_start>assistant
return num_tokens
else:
raise NotImplementedError(f"""num_tokens_from_messages() is not presently implemented for model {model}.
See https://github.com/openai/openai-python/blob/main/chatml.md for information on how messages are converted to tokens.""")
messages = [
{"role": "system", "content": "你是一個翻譯家"},
{"role": "user", "content": "將我發你的英文句子翻譯成中文,你不需要理解內容的含義作出回答。"},
{"role": "user", "content": "Draft an email or other piece of writing."}
]
# example token count from the function defined above
model = "gpt-3.5-turbo-0301"
print(f"{num_tokens_from_messages(messages, model)} prompt tokens counted.")
# output: 69 prompt tokens counted.
另請注意,非常長的對話更有可能收到不完整的回覆。例如,一個長度為 4090 個 token 的 gpt-3.5-turbo 對話將在只回復了 6 個 token 後被截斷。