@@ -112,48 +112,69 @@ def get_tensor(self, name: str) -> ctypes.c_void_p:
112
112
# Vocab
113
113
114
114
def token_get_text (self , token : int ) -> str :
115
- return llama_cpp .llama_token_get_text (self .vocab , token ).decode ("utf-8" )
115
+ return llama_cpp .llama_vocab_get_text (self .vocab , token ).decode ("utf-8" )
116
116
117
117
def token_get_score (self , token : int ) -> float :
118
- return llama_cpp .llama_token_get_score (self .vocab , token )
118
+ return llama_cpp .llama_vocab_get_score (self .vocab , token )
119
119
120
120
def token_get_attr (self , token : int ) -> int :
121
- return llama_cpp .llama_token_get_attr (self .vocab , token )
121
+ return llama_cpp .llama_vocab_get_attr (self .vocab , token )
122
+
123
+ def token_is_eog (self , token : int ) -> bool :
124
+ return llama_cpp .llama_vocab_is_eog (self .vocab , token )
125
+
126
+ def token_is_control (self , token : int ) -> bool :
127
+ return llama_cpp .llama_vocab_is_control (self .vocab , token )
122
128
123
129
# Special tokens
124
130
125
131
def token_bos (self ) -> int :
126
- return llama_cpp .llama_token_bos (self .vocab )
132
+ return llama_cpp .llama_vocab_bos (self .vocab )
127
133
128
134
def token_eos (self ) -> int :
129
- return llama_cpp .llama_token_eos (self .vocab )
135
+ return llama_cpp .llama_vocab_eos (self .vocab )
130
136
131
- def token_cls (self ) -> int :
132
- return llama_cpp .llama_token_cls (self .vocab )
137
+ def token_eot (self ) -> int :
138
+ return llama_cpp .llama_vocab_eot (self .vocab )
133
139
134
140
def token_sep (self ) -> int :
135
- return llama_cpp .llama_token_sep (self .vocab )
141
+ return llama_cpp .llama_vocab_sep (self .vocab )
136
142
137
143
def token_nl (self ) -> int :
138
- return llama_cpp .llama_token_nl (self .vocab )
144
+ return llama_cpp .llama_vocab_nl (self .vocab )
139
145
140
- def token_prefix (self ) -> int :
141
- raise NotImplementedError ( "token_prefix is not implemented in llama.cpp" )
146
+ def token_pad (self ) -> int :
147
+ return llama_cpp . llama_vocab_pad ( self . vocab )
142
148
143
- def token_middle (self ) -> int :
144
- raise NotImplementedError ( "token_middle is not implemented in llama.cpp" )
149
+ def token_cls (self ) -> int :
150
+ return llama_cpp . llama_vocab_cls ( self . vocab )
145
151
146
- def token_suffix (self ) -> int :
147
- raise NotImplementedError ( "token_suffix is not implemented in llama.cpp" )
152
+ def token_fim_pre (self ) -> int :
153
+ return llama_cpp . llama_vocab_fim_pre ( self . vocab )
148
154
149
- def token_eot (self ) -> int :
150
- return llama_cpp .llama_token_eot (self .vocab )
155
+ def token_fim_suf (self ) -> int :
156
+ return llama_cpp .llama_vocab_fim_suf (self .vocab )
157
+
158
+ def token_fim_mid (self ) -> int :
159
+ return llama_cpp .llama_vocab_fim_mid (self .vocab )
160
+
161
+ def token_fim_pad (self ) -> int :
162
+ return llama_cpp .llama_vocab_fim_pad (self .vocab )
163
+
164
+ def token_fim_rep (self ) -> int :
165
+ return llama_cpp .llama_vocab_fim_rep (self .vocab )
166
+
167
+ def token_fim_sep (self ) -> int :
168
+ return llama_cpp .llama_vocab_fim_sep (self .vocab )
169
+
170
+ def get_add_bos (self ) -> bool :
171
+ return llama_cpp .llama_vocab_get_add_bos (self .vocab )
151
172
152
- def add_bos_token (self ) -> bool :
153
- return llama_cpp .llama_add_bos_token (self .vocab )
173
+ def get_add_eos (self ) -> bool :
174
+ return llama_cpp .llama_vocab_get_add_eos (self .vocab )
154
175
155
- def add_eos_token (self ) -> bool :
156
- return llama_cpp .llama_add_eos_token (self .vocab )
176
+ def get_add_sep (self ) -> bool :
177
+ return llama_cpp .llama_vocab_get_add_sep (self .vocab )
157
178
158
179
# Tokenization
159
180
0 commit comments