Skip to content

thacio/LLM-Notebooks

Folders and files

NameName
Last commit message
Last commit date

Latest commit

History

62 Commits

Repository files navigation

Large Language Models Notebooks

Repositório com alguns notebooks de modelos de linguagem

NotebookColab
benchmark-LM.ipynbOpen In Colab
Finetunning-LanguageModel.ipynbOpen In Colab

Finetunning-LanguageModel.ipynb

Tutorial para fine-tune em dataset próprio, carregando de um dataframe do pandas obtido de um arquivo tsv. Suporta modelos decoder ou encoder-decoder.

Benchmark-LM.ipynb

Notebook de benchmarks para modelos do tipo decoder, encoder-decoder e encoder com datasets em português.

Para os modelos decoder e encoder-decoder, é feito o fine-tune em diversos datasets ao mesmo tempo, com as métricas sendo calculadas individualmente para cada dataset. Assim, basta comentar ou descomentar o bloco com o dataset para considerá-lo ou não no benchmark.

Para os modelos encoder, só suporta um dataset por vez, então é necessário comentar as células dos datasets e deixar apenas uma descomentada.

Este notebook pode servir de base para finetunning em datasets próprios, é só seguir a estrutura da definição dos datasets.

Benchmarks obtidos

Encoder-decoders e Decoders

Observação: Foram utilizadas as mesmas configurações para todos os modelos, com o fim de comparação do mesmo setup. Isso não implica dizer que algum dos modelos não possam obter melhores resultados com um melhor ajuste dos hiperparâmetros ou a mudança dos prompts.

Backbone + Embeddings = Total ParametersAssin2 STS Score Pearson ↑Assin2 STS Score Mse ↓Assin2 Entail Acc ↑Assin2 Entail F1 ↑Cola Acc ↑Cola Matthews Corr ↑Mrpc Acc ↑Rte Acc ↑Stsb Pearson ↑Stsb Spearmanr ↑Stsb Mse ↓Wnli Acc ↑squad Acc ↑squad F1 ↑
ptt5-small-portuguese-vocab44.1M + 16.4M = 60.5M0.7927530.5476390.8762250.876090.7085330.1843350.8210780.675090.8177760.8138830.8526060.47887364.9006675.90639
ul2-pt-small sem prefixo56.6M + 25.8M = 82.4M0.817450.4190420.883170.8830740.6883990.1118160.8063730.6859210.8524520.8478280.6417720.46478965.3831676.61703
ul2-pt-small com prefixo <|NLU|>56.6M + 25.8M = 82.4M0.8201270.4395260.8819440.8817180.6864810.156680.8210780.6895310.8299190.8307250.7222250.464789--
ul2-pt-small com prefixo <|NLG|>56.6M + 25.8M = 82.4M0.8133770.4668390.8835780.8835390.6912750.147240.8063730.67870.8378630.8339920.6837370.492958--
gpt2-small-portuguese85.8M + 38.6M = 124.4M0.7831690.6009970.8725490.8719740.695110.1552260.8137250.6281590.80770.8040510.7904780.54929651.1258364.22844
ptt5-base-portuguese-vocab198.2M + 24.7M = 222.9M0.8236630.4426370.8954250.8951560.7257910.2675670.8529410.7075810.8514980.8428670.6499440.50704271.324581.47399

1 Dropout 0.1 para o SQUAD, sem dropout para o restante dos datasets.

↑ quanto maior, melhor a performance.

↓ quanto menor, melhor a performance.

Encoders

Backbone + Embeddings = Total ParametersAssin2 STS Score Pearson ↑Assin2 STS Score Mse ↓Assin2 Entail Acc ↑Assin2 Entail F1 ↑Cola Acc ↑Cola Matthews Corr ↑Mrpc Acc ↑Rte Acc ↑Stsb Pearson ↑Stsb Spearmanr ↑Stsb Mse ↓Wnli Acc ↑
DeBERTina-base85.5M + 24.6M = 110.0M0.8464920.395230.9166670.9165380.7382550.3511810.9068630.7653430.8878790.8851550.4915990.56338
BERTimbau-base86.0M + 22.9M = 108.9M0.8429740.4537570.891340.890930.7363370.3205990.8725490.7039710.8816930.8793150.5105180.56338
BERTimbau-large303.9M + 30.5M = 334.4M0.8623110.3591020.9019610.9016660.7478430.3508370.8725490.7545130.8940860.8924030.4525870.56338
mdeberta-base85.5M + 192.8M = 278.2M0.8462740.3864110.912990.912870.7526370.3735080.8970590.7617330.8933770.8905140.4659710.56338

↑ quanto maior, melhor a performance.

↓ quanto menor, melhor a performance.

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published