MarkTechPost
UCSD и Together AI Research представили Parcae — стабильную архитектуру для петлевых языковых моделей
Авторы утверждают, что Parcae по качеству соответствует трансформеру в два раза большего размера.
Почему это важно
Практически это означает возможность сохранить качество языковой модели при меньших затратах на инференс и упростить развёртывание на периферии, если утверждения авторов подтвердятся в последующих проверках.