港科大褚晓文:医疗场景下的 AutoML ,模型参数量更小、分类准确率更高
2519 2025-07-11 05:08
这是「百小应」采用了定向搜索的策略,它搜索的时候不是泛泛的查找,而是直接查找与《斗罗大陆IV终极斗罗》资源最相关的网站。
面对复杂的问题,人会根据之前的搜索回应,进行第二次、第三次甚至更多轮次的搜索,百小应也拥有这种能力,针对客户提出的问题,「百小应」在得到搜索结果之后会结合客户的问题进行反思,自主判断当前资料是否足够详实,进而自主决策是否需要进行更多轮次搜索获取更多信息。
相比单轮搜索,在市场调研、产业分析等复杂场景下,多轮搜索能够有效地获取更专业、更有深度的信息。
在搜索结果呈现方面,「百小应」同样与其他在单次搜索后“简单总结网页信息”的应用不同,它是将搜索结果作为问答的参考资料,将“搜索结果嵌入回答”,从而使回答更加清晰、饱满。
例如让「百小应」分析“新能源汽车市场格局,小米入场后有什么作用”,它便会将搜索到的信息直接引用到回答当中作为信息支撑的一部分:
在会提问方面,百小应能够在客户问题的基础上通过一系列提问来帮助客户明确自身需求。例如问「百小应」“车门打不开了怎么办?”,它会先问你车的品牌以及型号,是车内打不开还是车外打不开?你告诉它车品牌型号和车内打不开之后,它会针对性的告诉你正确的开锁方法:
「百小应」还非常具有“理科”思维,很擅长将结果结构化呈现,如下图:
除了懂搜索和反问功能以外,客户还能在「百小应」中上传PDF、word文档,或者直接输入网页链接(URL),阅读并分析书籍、报告、学术论文等长篇内容,仅用一分钟便能读完上市公司财报:
客户在提问的同时还可以同步上传图片,对图片内容进行解读,或者将图片作为补充材料,获取更精准的回答;并且,它还支持客户通过语音的方式进行交互。
王小川认为,如Perplexity、秘塔这些产物做的都是搜索总结类的工作,搜索引擎公司自己就能干。如果只是搜索结果的总结,就只是对传统搜索的升级,在价值创造和竞争力上,无法跟传统搜索大厂竞争,这不是今天创业公司或朝着 AI 伙伴前进路上 AI助手应该做的事。
“AI 助手正确的路径是嵌入搜索结果,而不是总结搜索结果,要把搜索结果作为观点、论点、论证,跟模型的结果融合在一起。”
这种判断背后是王小川对大模型时代的超级应用的思考,他认为,要让大模型像人一样思考,超级应用应该朝着伙伴方向走。
从创立之初,王小川就一直提百川要有自己的超级应用。
相比互联网时代动辄上亿客户的应用,当下一个拥有 100 亿 DAU 的 AI 产物就能引起轰动,但王小川认为现在超级应用还未出现,从客户体量上看还得再提升两个数量级,DAU 达到 3 千万到 3 亿之间才能称之为超级应用。
“当下最火的两款应用,微信拥有 13 亿+DAU,抖音拥有 4 亿+DAU,大模型时代的超级应用应该是如抖音这样的一个产物。”
过去做输入法、搜索引擎、浏览器的经历,让百川智能知道一个应用到什么程度才会变成一个被广泛使用的产物。
如果「百小应」要成为一个超级应用,王小川认为应该具备以下特点:
首先,模型能力能达到 60%-80% 的可靠性,未来模型一定要和搜索做结合,因为模型是一个推理引擎,有了搜索之后,它的知识的广泛程度和真实度都能得到提升。
第二,作为助手能充分理解客户的意图,变成某个行业的专业人士一样。AI 能像人一样思考、工作、学习,最后就会变成一个职业人士,例如法律助手、医疗助手。
接下来,对于「百小应」王小川称并不会通过营销战术去宣传,他认为一些厂商发产物可能是为了拉融资,这不是一种健康的方式,百川会把精力放在打磨产物、发掘产物价值上,做出真正好的产物。
“超级模型+超级应用”的双轮驱动一直是百川智能的增长理念。而此次「百小应」发布,刚好补齐了应用上的拼图,百川智能可以算是真正走到“双轮驱动”的路上。
虽然现在既没到超级模型,也没到超级应用,即便「百小应」还只是一个过渡型的产物,但王小川称团队心中有超级应用的画面感,尤其是从去年4月份工作到今年5月份这一年的时间,团队有足够的手感。
超级应用的诞生,最根本还是要看模型能力。
在模型基础能力层面,百川智能一直在持续升级。此次跟「百小应」一起发布的还有 Baichuan 4大模型,作为百川智能发布的最新一代基座大模型,Baichuan 4相较上一代大模型Baichuan 3在各项能力上均有显著提升。其中通用能力超过 10%,指令跟随提升20%,信息理解提升9%,知识问答提升15%,创作提升16%,逻辑推理提升15%;专项能力方面,数学提升14%,代码提升9%。
此外,在国内权威大模型评测机构SuperCLUE的评测中,Baichuan 4模型能力国内第一。而此前,在 SpuerCLUE 发布的“中文大模型基准测评2024年4月报告中”,Baichuan 3就已经以73.32分的成绩超越文心一言4.0、通义千问2.1、GLM 4、Moonshot等大模型,摘得了国内大模型排名的头筹。
不仅如此,与国外主流大模型对比,Baichuan 4在知识百科、长文本、生成创作等文科类中文任务上明显优于国外大模型。
「雷峰网(公众号:雷峰网)」Baichuan 4能在短时间内取得模型能力的突破,源于其在训练过程中引入了诸多业内领先的工艺优化手段。例如,在预训练阶段采用了基于Model-based+Human-based的协同信息筛选优化方法,以及对长文本建模位置编码科学的Scaling Law,有效提升了模型对信息的利用;在对齐阶段重点优化了模型Reasoning、Planning、Instruct following能力,通过loss驱动的信息选取与训练,多阶段爬坡,多模型参数融合等方式有效提升了模型的关键指标和稳定性。同时突破RLHF和RLAIF融合的RLxF强化学习对齐工艺,大幅提升模型的指令遵循等能力。
此外,Baichuan 4在多模态领域也取得了不错的成绩,在MMMU、MMBench-EN、CMMMU、MMBench-CN、MathVista等评测基准上表现优异,大幅领先Gemini Pro、Claude3-sonnet等多模态模型。
同时,为了让更多开发者、企业客户能够像「百小应」一样更好的使用百川大模型的能力,百川智能推出了全新的 MaaS+AaaS 支持。
MaaS 版块由基座模型组成,并且在综合了成本和性能的考量下将 API 分为旗舰版和专业版。旗舰版将全量开放 Baichuan 4 的各项能力。此前,在 SuperCLUE 的金融知识百科能力上 Baichuan 3 就已取得了A+的最高评级,升级之后的 Baichuan 4 则更强。
专业版包含 Baichuan3-Turbo 和 Baichuan3-Turbo-192K 两款模型,在价格方面相比旗舰版 Baichuan 4 更实惠,且均针对企业用的高频场景进行了针对性优化,综合测试相比 GPT3.5 整体效果提升 8.9%。
百川还在 Baichuan 4 基础上针对 Agent 构建推出 Assitant API,随着大模型的应用在各领域持续深入,Agent 已经成为企业的关注重点。在此背景下,百川智能对模型的工具调用能力进行了特殊强化,不仅支持 Code interpreter、RAG 内建工具,还支持自定义工具调用,方便企业接入各种丰富复杂的 API。评测结果显示其工具调用能力接近Open AI assistant API。
百川本次发布的Assitant API现已正式开启内测邀请,感兴趣的客户均可申请免费试用。地址:https://platform.baichuan-ai.com/docs/assistants。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。