Claro! Aqui está uma tabela com alguns dos principais modelos de LLMs (Large Language Models) atuais, suas datas de lançamento, nomes e tamanhos de janela de contexto. Note que os tamanhos de contexto podem variar dependendo da implementação ou atualizações posteriores ao lançamento.
Data de Lançamento | Nome do Modelo | Tamanho da Janela de Contexto |
---|---|---|
Junho 2020 | GPT-3 | 2.048 tokens |
Novembro 2022 | GPT-3.5 | 4.096 tokens |
Março 2023 | GPT-4 | 8.192 tokens (até 32.768 em versões estendidas) |
Outubro 2023 | LLaMA 2 (Meta) | 4.096 tokens |
Julho 2023 | Claude 2 (Anthropic) | 100.000 tokens |
Setembro 2023 | PaLM 2 (Google) | 8.192 tokens |
Outubro 2023 | Mistral 7B | 8.192 tokens |
Dezembro 2023 | Mixtral 8x7B (Mistral AI) | 32.000 tokens |
Fevereiro 2024 | Gemini 1.5 (Google) | 1 milhão de tokens |
Março 2024 | Command R (Cohere) | 128.000 tokens |
- GPT-4: O tamanho de contexto pode variar dependendo da versão (8k ou 32k tokens).
- Claude 2: Destaque para o grande tamanho de contexto, permitindo análises de textos longos.
- Gemini 1.5: Recente e com uma janela de contexto extremamente grande, permitindo processamento de documentos extensos.
- LLaMA 2: Modelo da Meta, amplamente utilizado em pesquisas e aplicações personalizadas.
- Mistral e Mixtral: Modelos eficientes e de código aberto, com janelas de contexto competitivas.
Se precisar de mais detalhes ou atualizações, é só avisar! 😊