下页小说站

下页小说站>我成了科技教父免费 > 第138章 趁着这个机会大干一场(第1页)

第138章 趁着这个机会大干一场(第1页)

第139章趁着这个机会大干一场

而严谨的测试,当然是按照系统和软体的规范,然后交给小沙操作了:

「小沙,测试一下,各种场景,仅使用全量模型的小沙,和使用层级分配模型的小沙,效率和资源利用相差多少。」

一句话里边有三个小沙,别说小沙了,就算一般人去分辨哪个小沙是哪个小沙,也得迷瞪一会儿。

而小沙,则是迅速的理解了郝成要做的工作,然后去执行了。

各个模式与场景,昨天整理分类的时候就已经确定了,这个时候小沙兵分多路,开了N多个分身,以确保测试的时候每个环节和流程都不会错过。

就这样,也就过了约莫半个小时的功夫,小沙完成了所有的测试,生成的最终报告就已经到了郝成的设备上:

仅仅就软体开发能力这一项而言,使用软体开发专业能力小模型,同样的效果,资源消耗比起使用小沙全量模型几乎节省了95%。

当然了,高级标称语言规律性极强且逻辑清晰丶规则明确,代码类AI本就是最简单的类型,它能节省较多的资源也是在郝成预料之中的。

与其类似的,还有像网络安全丶调用元素级应用丶AI使用应用等这些AI与机器的交互,中间不涉及人的,资源节省比例都非常大,大都在百分之七八十以上。

比较复杂的当然是人,哪怕是语言模型,仅仅只是对话,消耗的资源就比较多。

但哪怕如此,人机互动丶包括对话理解丶场景模拟丶复杂工作等所有的项目,进行分拆和分级后,比之前全部使用全量模型也是节省的。

比如,模拟法庭的场景,小沙需要识别原告被告法官以及现场所有的人丶还要分析案件,这类场景够复杂了,但层级处理的小沙依然能够节省15%左右的资源消耗。

且效果丝毫不差——有全量模型最后对结果进行兜底验证,根本就无需担心这个。

结合小沙现在对外服务的情况综合分析,小沙给出的综合资源节约比例大约在55%左右。

而更具体的数字,需要运行一段时间才能评估。

甚至评估更精准了以后,相关的模型还可以再根据需求做进一步的优化和调整。

仅此一项操作,同样是现有的这些资源,小沙至少能扩大两倍甚至三倍以上的用户。

「以为买不到卡就能限制小沙的扩张?就能守住欧洲的市场?呵呵!」

郝成摇了摇头,无论任何人,被人限制那都是不爽的,郝成当然也不例外。

解决生产问题的周期可能比较漫长,至少要在六个月到一年以上,但在这之前,我就当收点儿利息不过分吧?

限制小沙扩张丶限制这项计划实施的最后一个障碍——缺算力卡的问题,可以说现在也暂时解决了。

郝成看了一下日程安排,和国内的系统开发商丶软体公司的会议安排在了周五。

这个会议原本只是为了国内的作业系统和软体市场,但现在,郝成决定扩一扩——除了阿美莉卡本土不去,其他国际市场,要全拿下!

「清波,通知来到临州的所有软体公司,做好同步攻略国际市场的准备。」郝成让小沙给李清波同步了一下相关情况,并发送了这样一条消息。

……

应白驹科技邀请,受小沙强悍的能力吸引,看到了软体行业结合强大AI的广阔前景,这个时候,国内前十的软体公司已经悉数在临州了。

已完结热门小说推荐

最新标签