专题:codonbert

按该标签聚合的大模型资讯列表(自动分类与标签提取)。1 篇文章。

社区Hacker News2026/04/02 04:385800
CodonRoBERTa‑large‑v2 达到 4.10 perplexity、0.40 CAI 相关性
55 GPU 小时(≈165 美元)训练 25 种物种模型

本文介绍了 CodonRoBERTa‑large‑v2——一种在密码子层面进行语言建模的 Transformer,凭借 4.10 的 perplexity 与 0.40 的 Spearman CAI 相关性领先于同类模型。团队在仅 165 美元、55 GPU 小时的成本下,完成了覆盖 25 种物种的多模型训练,并提供了完整的开源代码和基于物种特性的自动化系…