5 ОБОРОНА СЕВАСТОПОЛЯ
ТехнологииВажное

Представляем языковую модель Zephyr-7B-β с 7 миллиардами параметров, превосходящую ChatGPT-4

Представляем вашему вниманию для бесплатного тестирования языковую модель Zephyr-7B-β –  вторую модель в серии языковых моделей Zephyr, которые обучены действовать как полезные помощники: Ассистенты и Чат боты.

Zephyr-7B-β, это уточненная версия модели mistralai/Mistral-7B-v0.1, которая была обучена на смеси общедоступных и синтетических наборов данных с использованием Direct Preference Optimization (DPO).

Direct Preference Optimization (DPO) – это метод оптимизации предпочтений, который используется для настройки языковых моделей. Вместо того, чтобы пробовать множество вариантов и получать обратную связь, DPO напрямую корректирует обучение на основе предпочтений5.

В сущности, DPO вычисляет логарифмические вероятности предпочтительных и непредпочтительных завершений при текущей модели и оптимизирует параметры для увеличения вероятности предпочтительных завершений и уменьшения вероятности непредпочтительных завершений. Это делает DPO простым в использовании на практике и успешно применяется для обучения моделей, таких как Zephyr и NeuralChat.

  • Тип модели: Модель GPT с 7 миллиардами параметров, уточненная на смеси общедоступных и синтетических наборов данных.
  • Языки: В основном английский, но как мы выяснили,  Zephyr, прекрасно понимает и русский язык
  • Лицензия: MIT. (Разрешение предоставляется бесплатно любому лицу, получающему копию этого программного обеспечения и связанных с ним документационных файлов, чтобы без ограничений иметь дело с ПО, включая без ограничений права на использование, копирование, изменение, объединение, публикацию, распространение, сублицензирование и/или продажу копий ПО.)

По состоянию на момент выпуска, Zephyr-7B-β является моделью чата с 7 миллиардами параметров, которая занимает самое высокое место в рейтинге MT-Bench и AlpacaEval. Однако, для более сложных задач, таких как кодирование и математика, Zephyr-7B-β отстает от проприетарных моделей, и требуется дополнительное исследование, чтобы устранить этот разрыв.

  • Производительность: Zephyr-7B-β показала впечатляющие результаты в тестах MT-Bench и AlpacaEval, превосходя GPT-4. Однако, это не означает, что Zephyr-7B-β будет лучше во всех сценариях использования.
  • Письмо и ролевые игры: Zephyr-7B-β достигла точности, приближающейся к точности GPT-4 в письме и ролевых играх.
  • Обучение: Zephyr-7B-β обучена на смеси общедоступных и синтетических наборов данных с использованием Direct Preference Optimization (DPO).

Важно отметить, что обе модели продолжают развиваться, и их производительность может меняться с течением времени. В конечном итоге, выбор между Zephyr-7B-β и GPT-4 будет зависеть от потребностей и требований каждого конкретного потребителя.

Протестировать и сравнить работу обеих моделей Zephyr-7B-β и GPT-4 можно на этой странице нашего сайта.

Вас может заинтересовать

Новые рекомендации ВОЗ по редактированию генома человека: Безопасность, эффективность и этика масонства?

Divergent

Развожаев: В разных районах Севастополя флот проводит тренировки со стрельбой

Divergent

Марафон по подготовке к выпускным экзаменам «ЕГЭ — это про100!» продолжается!

Divergent