|
--- |
|
language: |
|
- pt |
|
- en |
|
license: cc-by-nc-2.0 |
|
tags: |
|
- text-generation-inference |
|
- transformers |
|
- qwen |
|
- gguf |
|
- brazil |
|
- brasil |
|
- 72bb |
|
- portuguese |
|
base_model: Qwen/Qwen1.5-72B-Chat |
|
pipeline_tag: text-generation |
|
model-index: |
|
- name: Cabra-72b |
|
results: |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: ENEM Challenge (No Images) |
|
type: eduagarcia/enem_challenge |
|
split: train |
|
args: |
|
num_few_shot: 3 |
|
metrics: |
|
- type: acc |
|
value: 80.62 |
|
name: accuracy |
|
source: |
|
url: https://huggingface.co./spaces/eduagarcia/open_pt_llm_leaderboard?query=botbot-ai/Cabra-72b |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: BLUEX (No Images) |
|
type: eduagarcia-temp/BLUEX_without_images |
|
split: train |
|
args: |
|
num_few_shot: 3 |
|
metrics: |
|
- type: acc |
|
value: 67.45 |
|
name: accuracy |
|
source: |
|
url: https://huggingface.co./spaces/eduagarcia/open_pt_llm_leaderboard?query=botbot-ai/Cabra-72b |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: OAB Exams |
|
type: eduagarcia/oab_exams |
|
split: train |
|
args: |
|
num_few_shot: 3 |
|
metrics: |
|
- type: acc |
|
value: 57.18 |
|
name: accuracy |
|
source: |
|
url: https://huggingface.co./spaces/eduagarcia/open_pt_llm_leaderboard?query=botbot-ai/Cabra-72b |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: Assin2 RTE |
|
type: assin2 |
|
split: test |
|
args: |
|
num_few_shot: 15 |
|
metrics: |
|
- type: f1_macro |
|
value: 93.58 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co./spaces/eduagarcia/open_pt_llm_leaderboard?query=botbot-ai/Cabra-72b |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: Assin2 STS |
|
type: eduagarcia/portuguese_benchmark |
|
split: test |
|
args: |
|
num_few_shot: 15 |
|
metrics: |
|
- type: pearson |
|
value: 78.03 |
|
name: pearson |
|
source: |
|
url: https://huggingface.co./spaces/eduagarcia/open_pt_llm_leaderboard?query=botbot-ai/Cabra-72b |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: FaQuAD NLI |
|
type: ruanchaves/faquad-nli |
|
split: test |
|
args: |
|
num_few_shot: 15 |
|
metrics: |
|
- type: f1_macro |
|
value: 45.45 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co./spaces/eduagarcia/open_pt_llm_leaderboard?query=botbot-ai/Cabra-72b |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: HateBR Binary |
|
type: ruanchaves/hatebr |
|
split: test |
|
args: |
|
num_few_shot: 25 |
|
metrics: |
|
- type: f1_macro |
|
value: 72.12 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co./spaces/eduagarcia/open_pt_llm_leaderboard?query=botbot-ai/Cabra-72b |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: PT Hate Speech Binary |
|
type: hate_speech_portuguese |
|
split: test |
|
args: |
|
num_few_shot: 25 |
|
metrics: |
|
- type: f1_macro |
|
value: 68.65 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co./spaces/eduagarcia/open_pt_llm_leaderboard?query=botbot-ai/Cabra-72b |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: tweetSentBR |
|
type: eduagarcia/tweetsentbr_fewshot |
|
split: test |
|
args: |
|
num_few_shot: 25 |
|
metrics: |
|
- type: f1_macro |
|
value: 71.64 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co./spaces/eduagarcia/open_pt_llm_leaderboard?query=botbot-ai/Cabra-72b |
|
name: Open Portuguese LLM Leaderboard |
|
--- |
|
# Cabra 72b |
|
<img src="https://uploads-ssl.webflow.com/65f77c0240ae1c68f8192771/6611c4d5c4e2b5eaea0b979c_cabra72b.png" width="400" height="400"> |
|
|
|
Cabra 72b é um finetune do [Qwen 1.5 72b Chat](https://huggingface.co./Qwen/Qwen1.5-72B-Chat) com o dataset Cabra 30k. Esse modelo é otimizado para português e responde em portuguese. Ele apresenta melhoria em vários benchmarks brasileiros em comparação com o modelo base. |
|
|
|
|
|
**Conheça os nossos outros [modelos Cabra](https://huggingface.co./collections/botbot-ai/models-6604c2069ceef04f834ba99b).** |
|
|
|
## Detalhes do modelo base |
|
|
|
### Modelo: Qwen 1.5 72b chat |
|
|
|
Qwen1.5 é uma série de modelos de linguagem que inclui modelos de linguagem decodificadores de diferentes tamanhos de modelo. Para cada tamanho, lançamos o modelo de linguagem base e o modelo de chat alinhado. Baseia-se na arquitetura Transformer com ativação SwiGLU, viés de atenção QKV, atenção de consulta em grupo, mistura de atenção de janela deslizante e atenção completa, etc. Adicionalmente, temos um tokenizador melhorado adaptativo a múltiplas línguas naturais e códigos. Para a versão beta, temporariamente não incluímos GQA e a mistura de SWA e atenção completa. |
|
|
|
### dataset: Cabra 30k |
|
|
|
Dataset interno para fine-tuning. Vamos lançar em breve. |
|
|
|
### Quantização / GGUF |
|
|
|
Colocamos diversas versões (GGUF) quantanizadas no branch "quantanization". Infelizmente o HF limita o tamanho de arquivo a <50gb. |
|
|
|
### Exemplo |
|
|
|
``` |
|
<s> [INST]Quem são os jogadores brasileiros de futebol mais conhecidos, atuais e pasados? [/INST] |
|
|
|
O Brasil tem uma rica história na produção de alguns dos maiores jogadores de futebol do mundo. Alguns dos jogadores brasileiros mais importantes atualmente e que já jogaram incluem: |
|
|
|
Pelé - amplamente considerado um dos maiores jogadores de todos os tempos, o Pelé venceu três Copas do Mundo com o Brasil e marcou mais de 1.000 gols em sua carreira. |
|
Ronaldo Nazário de Lima - conhecido como Ronaldo, este jogador de ataque é o segundo maior artilheiro da história da seleção brasileira e ajudou o Brasil a vencer duas Copas do Mundo. |
|
|
|
Ronaldinho Gaúcho - um criativo meio-campista ofensivo que jogou pelo Barcelona e pela AC Milan, o Ronaldinho foi nomeado Jogador Mundial FIFA de 2004 e ajudou o Brasil a vencer a Copa do Mundo de 2002. |
|
|
|
Neymar Jr. - um dos melhores jogadores do mundo hoje, o Neymar desempenhou um papel fundamental ao liderar o Brasil para várias vitórias em torneios principais e é conhecido por suas habilidades incríveis de drible e capacidade de marcar gols. |
|
|
|
Esses são apenas alguns exemplos dos muitos talentosos jogadores de futebol que vieram do Brasil ao longo de sua rica história. |
|
</s> |
|
|
|
``` |
|
|
|
### Paramentros de trainamento |
|
|
|
``` |
|
- train/epoch: 3 |
|
- train/global_step: 1,893 |
|
- train/grad_norm: 0.5843151168226935 |
|
- train/learning_rate: 0.00000000006323276533 |
|
- train/loss: 0.4379 |
|
- train/total_flos: 7,334,660,338,089,984 |
|
- train/train_loss: 0.628420232404053 |
|
- train/train_runtime: 415,863.2395 |
|
- train/train_samples_per_second: 0.437 |
|
- train/train_steps_per_second: 0.005 |
|
- GPU: 8x A100 80GB SXB |
|
``` |
|
|
|
### Framework |
|
|
|
- Transformers 4.39.0.dev0 |
|
- Pytorch 2.1.2+cu118 |
|
- Datasets 2.14.6 |
|
- Tokenizers 0.15.2 |
|
|
|
## Uso |
|
O modelo é destinado, por agora, a fins de pesquisa. As áreas e tarefas de pesquisa possíveis incluem: |
|
|
|
- Pesquisa sobre modelos gerativos. |
|
- Investigação e compreensão das limitações e vieses de modelos gerativos. |
|
|
|
**Proibido para uso comercial. Somente Pesquisa. Entre em contato para mais informações. ** |
|
|
|
### Evals |
|
|
|
| Tasks | Version | Filter | n-shot | Metric | Value | ± | Stderr | |
|
|------------------------------|---------|-----------------------|--------|----------|-------|----|--------| |
|
| assin2_rte | 1.1 | all | 15 | f1_macro | 0.9358| ± | 0.0035 | |
|
| | | all | 15 | acc | 0.9359| ± | 0.0035 | |
|
| assin2_sts | 1.1 | all | 15 | pearson | 0.7803| ± | 0.0068 | |
|
| | | all | 15 | mse | 0.5815| ± | N/A | |
|
| bluex | 1.1 | all | 3 | acc | 0.6745| ± | 0.0101 | |
|
| | | exam_id__USP_2019 | 3 | acc | 0.5500| ± | 0.0453 | |
|
| | | exam_id__UNICAMP_2021_1| 3 | acc | 0.5870| ± | 0.0418 | |
|
| | | exam_id__USP_2020 | 3 | acc | 0.6250| ± | 0.0373 | |
|
| | | exam_id__USP_2022 | 3 | acc | 0.6939| ± | 0.0381 | |
|
| | | exam_id__UNICAMP_2019 | 3 | acc | 0.7200| ± | 0.0367 | |
|
| | | exam_id__UNICAMP_2024 | 3 | acc | 0.5778| ± | 0.0425 | |
|
| | | exam_id__USP_2018 | 3 | acc | 0.5926| ± | 0.0385 | |
|
| | | exam_id__USP_2021 | 3 | acc | 0.6538| ± | 0.0381 | |
|
| | | exam_id__UNICAMP_2023 | 3 | acc | 0.7442| ± | 0.0385 | |
|
| | | exam_id__UNICAMP_2021_2| 3 | acc | 0.6667| ± | 0.0380 | |
|
| | | exam_id__UNICAMP_2020 | 3 | acc | 0.7091| ± | 0.0355 | |
|
| | | exam_id__USP_2023 | 3 | acc | 0.8182| ± | 0.0336 | |
|
| | | exam_id__USP_2024 | 3 | acc | 0.8537| ± | 0.0318 | |
|
| | | exam_id__UNICAMP_2022 | 3 | acc | 0.6667| ± | 0.0435 | |
|
| | | exam_id__UNICAMP_2018 | 3 | acc | 0.6852| ± | 0.0364 | |
|
| enem | 1.1 | all | 3 | acc | 0.8062| ± | 0.0060 | |
|
| | | exam_id__2016_2 | 3 | acc | 0.7967| ± | 0.0210 | |
|
| | | exam_id__2014 | 3 | acc | 0.8165| ± | 0.0214 | |
|
| | | exam_id__2010 | 3 | acc | 0.8291| ± | 0.0202 | |
|
| | | exam_id__2023 | 3 | acc | 0.8000| ± | 0.0199 | |
|
| | | exam_id__2009 | 3 | acc | 0.7913| ± | 0.0219 | |
|
| | | exam_id__2017 | 3 | acc | 0.7931| ± | 0.0217 | |
|
| | | exam_id__2011 | 3 | acc | 0.8718| ± | 0.0178 | |
|
| | | exam_id__2015 | 3 | acc | 0.8151| ± | 0.0205 | |
|
| | | exam_id__2012 | 3 | acc | 0.8621| ± | 0.0185 | |
|
| | | exam_id__2016 | 3 | acc | 0.8430| ± | 0.0190 | |
|
| | | exam_id__2013 | 3 | acc | 0.7870| ± | 0.0228 | |
|
| | | exam_id__2022 | 3 | acc | 0.6842| ± | 0.0233 | |
|
| faquad_nli | 1.1 | all | 15 | f1_macro | 0.4545| ± | 0.0081 | |
|
| | | all | 15 | acc | 0.7877| ± | 0.0113 | |
|
| hatebr_offensive_binary | 1.0 | all | 25 | f1_macro | 0.7212| ± | 0.0087 | |
|
| | | all | 25 | acc | 0.7393| ± | 0.0083 | |
|
| oab_exams | 1.5 | all | 3 | acc | 0.5718| ± | 0.0061 | |
|
|
|
|
|
# Open Portuguese LLM Leaderboard Evaluation Results |
|
|
|
Detailed results can be found [here](https://huggingface.co./datasets/eduagarcia-temp/llm_pt_leaderboard_raw_results/tree/main/botbot-ai/Cabra-72b) and on the [🚀 Open Portuguese LLM Leaderboard](https://huggingface.co./spaces/eduagarcia/open_pt_llm_leaderboard) |
|
|
|
| Metric | Value | |
|
|--------------------------|---------| |
|
|Average |**70.52**| |
|
|ENEM Challenge (No Images)| 80.62| |
|
|BLUEX (No Images) | 67.45| |
|
|OAB Exams | 57.18| |
|
|Assin2 RTE | 93.58| |
|
|Assin2 STS | 78.03| |
|
|FaQuAD NLI | 45.45| |
|
|HateBR Binary | 72.12| |
|
|PT Hate Speech Binary | 68.65| |
|
|tweetSentBR | 71.64| |
|
|
|
|