DeepSeek lança modelo Prover-V2: Parâmetros 671B impulsionam a prova de teoremas matemáticos

A DeepSeek lançou o modelo DeepSeek-Prover2, concebido para provas matemáticas, a 1 de maio, com 671 mil milhões de parâmetros e uma versão com 7 mil milhões de parâmetros. O modelo usa uma combinação de recursão e aprendizagem por reforço para se destacar em vários testes de matemática, como o teste MiniFF com uma taxa de aprovação de 88,9%. O conjunto de dados ProBench lançado ao mesmo tempo contém 325 perguntas para avaliar as capacidades do modelo. As experiências revelaram que o modelo Chain of Thought melhora significativamente a precisão, com o mini-modelo a superar mesmo o modelo em problemas específicos. O modelo já se encontra na Hugging Face, apoiando um novo paradigma na investigação matemática.

Serviço de agente de trânsito baseado em APIs oficiais

Nesta era de abertura e partilha, o OpenAI lidera uma revolução na inteligência artificial. Agora, anunciamos ao mundo que suportámos totalmente todos os modelos da OpenAI, por exemplo, suportando GPT-4-ALL, GPT-4-multimodal, GPT-4-gizmo-*, etc., bem como uma variedade de grandes modelos desenvolvidos internamente. O mais interessante é que apresentámos ao mundo o mais poderoso e influente GPT-4o!

Navegação no sítio

fig. início
Atracagem de terceiros
consolas
Instruções de utilização
Monitorização em linha

Contactar-nos

公众号二维码

número público

企业合作二维码

Cooperação Wechat

Direitos de autor © 2021-2024 Todos os direitos reservados 2024 | GPTMeta API