成都电子科技大学成都分院沙龙问题汇总

对于后面收集的问题进行统一回复

  1. 大数据是如何训练出来的
  2. 工作流是否是gpt、模型未来发展的热门
  3. 大数据未来的趋势和就业人数是否达到了饱和
  4. web自动化测试开发,将agent引入其中,在大模型对话框提出要求,agent是怎样实现像人思维一样自主操作的
  5. 使用大模型来提高工作效率,但是大模型使用后结果,仍有显示错误与不准确,是不是意味着未来发展在ai大模型这一行业能够持久,不断完善,不容易衰落。
  6. 大模型在泛化能力上存在提升困难,对新鲜样本的适应能力有限,所以如何提高大模型对新鲜样本的适应能力
  7. 大模型给出的面试答案和求职公司给出的答案有差异化该如何应对
  8. 当用户问相同问题时,大模型给出的答案是完全一眼的吗?可以通过某种训练,让大模型可以根据该用户平时的问题,给出更具有个性化的答案吗?比如有一位用户平时问的问题多偏于数据库方面的知识,而当提问“当前什么行业的就业前景更好”时,大模型优先给出的行业为与数据库有关的

这位同学提问的是应该是大模型,而不是大数据吧。

可以参考这两篇文章。

https://juejin.cn/post/7356049143956045878

https://medium.com/@akshatsanghi22/how-to-build-your-own-large-language-model-6f7b5a2dc2b1

工作流与Agent现在都是热门,Agent与工作流可以帮助我们完成领域特定的工作,肯定是非常重要的。
至于是不是未来发展的热门,还有待观察,未来可能会有更多新的AI产品形态。
投资在工作流与Agent上在当下肯定是有价值的。

人工智能本身就依赖于大数据,未来很多重要的领域肯定都会有自己的大数据与人工智能,每个国家的每个领域都需要对应的大数据体系与AI体系,方案也可能会不止一个,所以都是有前途的,目前的人才肯定是不饱和的,毕竟达到成熟程度的,只有欧美与中国的部分领域,还有很多领域有待开拓。

未来不好的一点在于,大数据和AI的高门槛,会导致未来强者越强与数据资源垄断问题,就不再像今天的互联网与移动互联网那么容易创业了,未来大企业会更有优势。

参考这两个流程,本质就是让大模型作为大脑,从LLM大脑里提取预测结果,并调用合适的工具进行执行,并把反馈重新给LLM大脑进行思考。跟人的行为很像。

想法 行动 结果 想法 行动 结果,不断重复,这种方法叫做ReACT推理 Reasoning and Acting

错误、不准确与幻觉问题,的确会带来很多机会,比如大模型的训练,随着方法的改进和数据的改进,需要反复的训练,所以对算力、显卡有持续的需求,对人才都有持续的需求。

大模型本身就是数据+算法,这跟我们之前处理数据与编写算法也是类似的,所以未来的更新迭代肯定是少不了的。

目前基本有3个方法

  • 重新训练,重新训练的成本很大,对算力有比较大的要求。
  • 微调,可以在冻结大模型的基本参数上进行少量的训练,符合一些垂直领域的训练要求。
  • RAG检索增强生成,这个需要结合提示词还有知识图谱,不过也存在一定的误差。

结合具体场景使用某个方法

大模型是基于大数据的训练生成的,他是可以让你快速接近相关的经验。而求职公司给出的答案是新数据,这些新数据也是来自于过去的经验总结。所以大模型可以帮助你提升相关的经验,并解决一些通用问题,类似于刷题与做往年真题,是有价值的。他也具备一定的推理能力,可以帮你解决最新的问题。也就是做到80分以上是没问题,而剩下的不在他训练集中或者因为召回率的问题也会导致漏掉部分内容。

典型的问题就是你让大模型做数据计算,他就很不擅长,就会出现9.11比9.8大的情况。这注定了大模型无法彻底解决这个问题,但是同时的确可以提高知识的召回率帮助人类,所以还是有价值的。

大模型本身有多个参数,比如temperature top-p top-k等,这些参数跟GPT Transformer是相关的。
可以通过控制对应的参数来让回复更固定或者更个性化。

而对于根据历史进行偏好生成,则是chat大模型的能力。这部分利用了一部分的上下文机制或者记忆机制来解决用户上下文问题的。