DeepSeek выпускает модель Prover-V2: параметры 671B повышают эффективность математического доказательства теорем

1 мая компания DeepSeek выложила в открытый доступ модель DeepSeek-Prover2, предназначенную для математических доказательств и содержащую 671 миллиард параметров, а также версию с 7 миллиардами параметров. Модель использует комбинацию рекурсии и обучения с подкреплением, что позволяет ей успешно справляться с несколькими математическими тестами, например с тестом MiniFF с показателем 88,9%. Выпущенный тогда же набор данных ProBench содержит 325 вопросов для оценки возможностей модели. Эксперименты показали, что модель Chain of Thought значительно повышает точность, а мини-модель даже превосходит ее по отдельным задачам. Модель уже находится в Hugging Face, поддерживая новую парадигму в математических исследованиях.

Служба транзитных агентов на основе официальных API

В эпоху открытости и совместного использования OpenAI возглавляет революцию в искусственном интеллекте. Теперь мы объявляем всему миру, что полностью поддерживаем все модели OpenAI, например, GPT-4-ALL, GPT-4-multimodal, GPT-4-gizmo-* и т.д., а также множество собственных больших моделей. И что самое интересное, мы представили миру более мощную и влиятельную GPT-4o!

Навигация по сайту

рис. начало
Стыковка с третьими лицами
консоли
Инструкция по применению
Онлайн мониторинг

Свяжитесь с нами

公众号二维码

публичный номер

企业合作二维码

Сотрудничество Wechat

Copyright © 2021-2024 Все права защищены 2024 | GPTMeta API