你是否想过,LLM训练自己的数据,还能比人类筛选的更高效?传统code大模型依赖人工制定规则筛选数据,成本高、效率低,还容易带偏模型。
2025年06月05日
你是否想过,LLM训练自己的数据,还能比人类筛选的更高效?传统code大模型依赖人工制定规则筛选数据,成本高、效率低,还容易带偏模型。
2025年06月05日
字节跳动推出了一款全新的 8B 参数开源代码模型 Seed-Coder。令人惊叹的是,这款模型在性能上竟超越了众多百亿参数的竞争对手,在代码生成的竞技场上脱颖而出,为开发者们带来了前所未有的高效编程工具。
一、技术创新
传统数据筛选方式的困境,如同沉重的枷锁,限制着代码模型的发展速度与质量。而 Seed-Coder 团队另辟蹊径,提出了一种极具创新性的解决方案 ——“让 LLM 自己当老师”。用模型筛选数据训练自己,打造出一系列8B参数的轻量级开源代码模型,性能甚至超越百亿级对手!
2025年06月05日
字节跳动的 Seed 团队重磅发布了视觉 - 语言多模态大模型: Seed1.5-VL!
在60个主流测试中狂揽38项第一!这个模型的视觉编码器仅有532M参数,却能在零样本分类任务中硬刚17.5B参数的EVA-CLIP。
Seed1.5-VL由三个主要部分组成:视觉编码器(Seed-ViT)、MLP适配器和LLM(200亿激活参数)。
2025年06月05日
论文:Seed1.5-VL Technical Report
链接:https://github.com/ByteDance-Seed/Seed1.5-VL/blob/main/Seed1.5-VL-Technical-Report.pdf