The Vigogne models were trained on a variety of datasets, including open-source datasets, ChatGPT-distillation datasets (self-instruct, self-chat, and orca-style data), and translated datasets.
These datasets cover different purposes such as instruction-following and human-assistant chat.
Below is a non-exhaustive list of datasets containing 🇫🇷 French instruction-following and chat examples (feel free to submit a PR to include more datasets 🤗):
- MBZUAI/Bactrian-X
- OpenAssistant/oasst1
- ShareGPT
- camel-ai/ai_society_translated
- Gt-Doremiti/gt-doremiti-instructions
We used the cleaned version of the Stanford Alpaca dataset and translated it into French using gpt-3.5-turbo
through the chat completion API. The entire translation process cost about $40.
However, it's important to note that the translation may have affected the accuracy of certain tasks, such as generating rhyming words or correcting grammar (discussed here). We welcome PRs to help improve the quality of this dataset!
To translate the Alpaca dataset, you can use the following command:
# Specify your OpenAI API key
export OPENAI_API_KEY=YOUR/OPENAI/API/TOKEN
python scripts/data_generation/translate_alpaca.py \
--input_file data/alpaca_data_cleaned.jsonl \
--output_file data/alpaca_data_cleaned_fr.jsonl \
--failed_output_file data/alpaca_data_cleaned_fr_failed.jsonl \
--model gpt-3.5-turbo \
--max_parallel_requests 16
Since the quality of instruction-following tasks translated from English to French is not ideal, we also generated some French instruction-following tasks directly using the data generation pipeline from the self-instruct paper and Stanford Alpaca.
- We manually translated the 175 English seed tasks from Stanford Alpaca into French, and also made efforts to remove cultural biases in the translations. For example, in the instruction "Suggest some games that can be played by a group of people.", we replaced the list of games (e.g., Balderdash, Pictionary) with games more commonly played in France (e.g., Menteur, Trivial Pursuit). You can find the translated seed tasks in
seed_tasks_vigogne.jsonl
. - We translated and adapted the prompt (
prompt_vigogne.txt
) that specifies the requirements for instruction-following data generation togpt-3.5-turbo
. - We adopted batch generation to reduce the API cost by randomly sampling 3 seed tasks and generating 17 additional instruction-following tasks.
- Launch with multiple threads to speed up the process, but keep in mind the upper limit of the OpenAI API.
You can use the following script to generate the instruction-following data:
# Specify your OpenAI API key
export OPENAI_API_KEY=YOUR/OPENAI/API/TOKEN
# num_instructions_to_generate is by worker
python scripts/data_generation/generate_self_instruct.py \
--seed_tasks_path data/instruct/seed_tasks_vigogne.jsonl \
--prompt_path data/instruct/prompt_vigogne.txt \
--output_file data/instruct/self_instruct_data.jsonl \
--num_instructions_to_generate 1 \
--n_workers 1
We generated some multi-turn dialogues between a human user and an AI assistant by providing a topic to gpt-3.5-turbo
and letting it generate a conversation, following the approach used in Baize.
The following is an example of a provided topic and the generated dialogue:
{
"subject":"Quelle est la meilleure façon de lire un livre technique?",
"messages":[
{
"role":"User",
"content":"Je me demande quelle est la meilleure façon de lire un livre technique. As-tu des conseils à me donner ?"
},
{
"role":"Assistant",
"content":"Bien sûr, voici quelques conseils pour vous aider à lire un livre technique de manière efficace : \n\n1. Commencez par une lecture rapide pour vous familiariser avec le contenu du livre. \n2. Utilisez un surligneur ou prenez des notes pour marquer les parties importantes du texte. \n3. Ne passez pas trop de temps à essayer de comprendre chaque concept dès le début. Lisez plutôt le livre en entier et revenez aux parties plus difficiles plus tard. Vous aurez déjà une meilleure compréhension générale du sujet.\n4. Révisez régulièrement les parties que vous avez surlignées ou notées. relire les passages importants plusieurs fois pour vous assurer que vous les avez vraiment compris.\n5. N'hésitez pas à chercher des ressources supplémentaires pour vous aider à comprendre les parties les plus difficiles."
},
{
"role":"User",
"content":"C'est une bonne idée de prendre des notes et de surligner les parties importantes. Comment savoir quelles parties sont les plus importantes ?"
},
{
"role":"Assistant",
"content":"Les parties les plus importantes d'un livre technique sont généralement celles qui sont liées aux objectifs que vous vous êtes fixés en lisant ce livre. Si vous recherchez des informations sur un concept spécifique, vous voudrez peut-être surligner tous les passages qui y sont liés. Si vous voulez comprendre comment résoudre un problème particulier, vous voudrez peut-être surligner les parties qui offrent des solutions à ce problème. En général, c'est une bonne idée de surligner les parties qui expliquent les concepts clés et les méthodes de travail."
}
]
}
Below is an example of a script we used to provide some translated subjects in Quora and have the model generate dialogues:
# Specify your OpenAI API key
export OPENAI_API_KEY=YOUR/OPENAI/API/TOKEN
python scripts/data_generation/generate_self_chat.py \
--input_file data/chat/subject_quora_fr_nllb3b3.jsonl \
--output_file data/chat/self_chat_data_quora_fr.jsonl \
--subject_field translated_subject \
--output_subject_field subject \
--id_prefix self-chat-quora- \
--max_samples 1 \
--max_parallel_requests 4
We have provided a script to translate the dataset on the Hugging Face Hub. You need to specify the machine translation model to use and the data fields to translate.
python scripts/data_processing/translate_dataset.py \
--dataset_name qwedsacf/grade-school-math-instructions \
--output_file data/chat/grade_school_math_instructions_fr_nllb3b3.jsonl \
--field_names '["INSTRUCTION", "RESPONSE"]' \
--model_name_or_path facebook/nllb-200-3.3B
We generated instruction-following data in the style of Orca, which introduces explanatory signals from the teacher model gpt-4
, showcasing its reasoning process during response generation. Additionally, responses can also be generated using gpt-3.5-turbo
as an intermediate teacher for curriculum learning.
Here's an example to illustrate:
{
"system": "Vous êtes un assistant IA qui aide les gens à trouver des informations. L'utilisateur vous posera une question. Votre tâche est de répondre aussi fidèlement que possible. Tout en répondant, réfléchissez étape par étape et justifiez votre réponse.",
"messages": [
{
"content": "Utilisez le raisonnement pour apporter la réponse à la question suivante :\nLe petit salon de beauté de propriété locale a eu son grand ouverture, les gens espéraient qu'il va stimuler l'économie dans les environs de quoi?\nLes options :\nLe clergé\nLa boutique Barber\n- Le voisinage\n- la ville\nLe Strip Mall\nProcessus de raisonnement :",
"role": "User"
},
{
"content": "Pour répondre à cette question, analysons chaque option et déterminons celle qui correspond le mieux à la situation décrite.\n\n1. Le clergé: Le clergé fait référence aux membres du clergé religieux, il ne semble pas y avoir de lien direct entre un salon de beauté et une stimulation économique pour les membres du clergé. Donc, cette option n'est probablement pas correcte.\n\n2. La boutique Barber: Une boutique Barber fait souvent référence à un salon de coiffure masculin. Bien que ce soit lié à l'industrie de la beauté, l'ouverture d'un petit salon de beauté pourrait entraîner une compétition plutôt qu'une stimulation économique pour une boutique Barber. Cette option n'est donc pas la meilleure réponse non plus.\n\n3. Le voisinage: L'ouverture d'un petit salon de beauté pourrait attirer des clients dans le voisinage, stimulant ainsi l'économie locale, car les gens seraient plus susceptibles de dépenser de l'argent dans les environs. Cela semble être une réponse plausible.\n\n4. La ville: Même si l'ouverture d'un salon de beauté peut avoir un impact sur l'économie d'une ville, l'effet serait généralement moins direct et moins important que pour le voisinage immédiat. Cependant, cette réponse reste possible.\n\n5. Le Strip Mall: Un Strip Mall est un centre commercial composé de plusieurs magasins, généralement situé le long d'une artère principale. L'ouverture d'un petit salon de beauté pourrait stimuler l'économie d'un Strip Mall en attirant des clients pour d'autres magasins, mais cela dépend de la situation géographique du salon.\n\nEn prenant en compte ces informations, il semble que les deux options les plus plausibles soient \"Le voisinage\" et \"la ville\". Cependant, étant donné que la question mentionne spécifiquement \"les environs\", cela implique une portée géographique plus limitée. Par conséquent, la réponse la plus précise et justifiée serait \"Le voisinage\".",
"role": "Assistant"
}
]
}
To achieve this, we first translated the instructions in the Flan-v2 collection into French using the script available in Dataset Translation. You can access the sub-collections, namely COT, NIV2, T0, and FLAN 2021, provided by @conceptofmind on the Hugging Face Hub.
Next, you can generate responses using the following script. Please note that the generation might take some time due to the rate limit, endpoint load, and the long text of query and response pairs.
# Specify your OpenAI API key
export OPENAI_API_KEY=YOUR/OPENAI/API/TOKEN
python scripts/data_generation/generate_responses.py \
--input_file path/to/flanv2_translated.jsonl \
--output_file path/to/flanv2_translated_completed.jsonl \
--system_field system_prompt \
--instruction_field translated_question \
--response_field fr_response \
--model gpt-4 \
--max_parallel_requests 1 \
--max_samples 1
We've supplied a script for reformatting machine translation data into the instruction task format.
Here's an example:
{
"system": "You are an AI assistant that follows instructions extremely well. Help as much as you can.",
"messages": [
{
"content": "Switch the specified sentences from their English form to French form.\n\nIt has been issued since 2006 to partner institutions and associations who have requested it and is on the Ministry's website, with each caption accompanied by an illustration.",
"role": "User"
},
{
"content": "Elle est diffusée depuis 2006 aux partenaires demandeurs (institutionnels et associatifs) et sur le site Internet du ministère, chaque phrase étant accompagnée d'une illustration.",
"role": "Assistant"
}
]
}
Here's an example of how we utilized the script to reformat the WMT14 translation dataset. The instructions have been copied and adapted from the Parrot project.
python scripts/data_processing/prep_translation.py \
--instruction_file_path scripts/data_processing/prompt_translation_en_fr.txt \
--output_file path/to/translation_task_wmt14_en_fr_cleaned.jsonl