第139章趁着这个机会大干一场
而严谨的测试,当然是按照系统和软体的规范,然后交给小沙操作了:
「小沙,测试一下,各种场景,仅使用全量模型的小沙,和使用层级分配模型的小沙,效率和资源利用相差多少。」
一句话里边有三个小沙,别说小沙了,就算一般人去分辨哪个小沙是哪个小沙,也得迷瞪一会儿。
而小沙,则是迅速的理解了郝成要做的工作,然后去执行了。
各个模式与场景,昨天整理分类的时候就已经确定了,这个时候小沙兵分多路,开了N多个分身,以确保测试的时候每个环节和流程都不会错过。
就这样,也就过了约莫半个小时的功夫,小沙完成了所有的测试,生成的最终报告就已经到了郝成的设备上:
仅仅就软体开发能力这一项而言,使用软体开发专业能力小模型,同样的效果,资源消耗比起使用小沙全量模型几乎节省了95%。
当然了,高级标称语言规律性极强且逻辑清晰丶规则明确,代码类AI本就是最简单的类型,它能节省较多的资源也是在郝成预料之中的。
与其类似的,还有像网络安全丶调用元素级应用丶AI使用应用等这些AI与机器的交互,中间不涉及人的,资源节省比例都非常大,大都在百分之七八十以上。
比较复杂的当然是人,哪怕是语言模型,仅仅只是对话,消耗的资源就比较多。
但哪怕如此,人机互动丶包括对话理解丶场景模拟丶复杂工作等所有的项目,进行分拆和分级后,比之前全部使用全量模型也是节省的。
比如,模拟法庭的场景,小沙需要识别原告被告法官以及现场所有的人丶还要分析案件,这类场景够复杂了,但层级处理的小沙依然能够节省15%左右的资源消耗。
且效果丝毫不差——有全量模型最后对结果进行兜底验证,根本就无需担心这个。
结合小沙现在对外服务的情况综合分析,小沙给出的综合资源节约比例大约在55%左右。
而更具体的数字,需要运行一段时间才能评估。
甚至评估更精准了以后,相关的模型还可以再根据需求做进一步的优化和调整。
仅此一项操作,同样是现有的这些资源,小沙至少能扩大两倍甚至三倍以上的用户。
「以为买不到卡就能限制小沙的扩张?就能守住欧洲的市场?呵呵!」
郝成摇了摇头,无论任何人,被人限制那都是不爽的,郝成当然也不例外。
解决生产问题的周期可能比较漫长,至少要在六个月到一年以上,但在这之前,我就当收点儿利息不过分吧?
限制小沙扩张丶限制这项计划实施的最后一个障碍——缺算力卡的问题,可以说现在也暂时解决了。
郝成看了一下日程安排,和国内的系统开发商丶软体公司的会议安排在了周五。
这个会议原本只是为了国内的作业系统和软体市场,但现在,郝成决定扩一扩——除了阿美莉卡本土不去,其他国际市场,要全拿下!
「清波,通知来到临州的所有软体公司,做好同步攻略国际市场的准备。」郝成让小沙给李清波同步了一下相关情况,并发送了这样一条消息。
……
应白驹科技邀请,受小沙强悍的能力吸引,看到了软体行业结合强大AI的广阔前景,这个时候,国内前十的软体公司已经悉数在临州了。