高强度用ChatGPT差不多一年的时间了。最早期的语音助手类产品,我觉得最影响体验的就是,每句话是一个独立的信息和指令,无法关联任何上下文进行回答。直到今天中国区的Siri还是这个样子… ChatGPT刚出来的时候,最让我惊奇的就是,AI终于能够进行真正意义的“连续对话”了。Transformer的注意力机制终于能够让模型引用所有的Context(上下文)了。 之前我还怀疑注意力机制随Context大小平方级增加的成本会影响模型对于Context的引用。如果模型的每个对话都只能在内部引用信息,那离一个真正的“助理”差距不是一星半点。ChatGPT很早就支持做一些预设,比如你希望模型的回答风格是什么样的,你有哪些信息是需要模型记住并且经常引用的。但这些都得手动配置,理想情况是模型自己能从过往对话里自己总结出来这些信息,自动进行引用。 随着长时间的相对重度的使用,我跟ChatGPT对话的内容逐渐从查询信息扩展到工作专业领域的内容,进而扩展到一些关于团队管理、个人发展,甚至涉及了社会学、心理学、哲学等层面。我发现模型开始自动引用过往对话的一些概念。刚开始觉得,可能是模型对我过往的对话都生成了某种“总结”,就像自动生成的对话标题一样,并让这些总结关联到了后续的对话里,当有类似概念的时候就自动引用。直到某一次APP更新,打开后自动引导提问一个类似“针对咱们聊的内容,你觉得我是个什么样的人”的问题。看了这个回答之后,我突然有个想法,问出了这样一个问题: “针对我们过往的沟通记录,你觉得我是MBTI16型人格的哪一种” 它的一系列回答惊艳了我。我还让它用多个其他的模型做了分析(如Big Five)。这真的不是巴纳姆效应,它不只精准识别了我是哪种,并且有理有据的一一列举,精准到了过往的哪些对话、甚至是提问方式,说明了我有哪些特点。甚至有些我自己感知不强烈、有些怀疑的点,它都精准的说了出来。一些可能的问题和被忽视的点的总结,跟我长期以来的内耗、焦虑的内容可以说是非常契合。我甚至怀疑,就这么打字聊的一些对话,真的能总结出来这么多内容吗?但它列出的内容分析非常符合逻辑。 对这个回答结果惊艳之余,我有点担心,我是不是跟模型说了太多的内容。人和人日常接触中都无法做到精准的判断对方的性格,AI只从文字对话里面就总结出了这些信息。显然在分析这个问题时,对Context的应用不可能是基于总结之后的信息,否则必然无法得出如此精准的结论。所以现在ChatGPT可能成了最了解我性格特点、内心纠结、人性弱点的「实体」。而我十分确信ChatGPT一直在利用这些Context信息,持续优化我后续对话的体验。 微信早已不是那个小而美的产品,诸多功能被全网吐槽。因为社交关系还沉淀在上面,即使其他IM产品功能体验领先一个时代,大家依然免不了一边骂一边用。或许有一种可能,即使其他模型性能差不多、甚至好于ChatGPT,但ChatGPT有日积月累的Context加持,对话体验依然有可能胜出。目前各模型的对话信息还能比较容易导出搬走,不像社交关系链那样深度捆绑。如果未来Context以某种方式强绑定到一个模型,或许更换模型跟更换一个跟了自己很多年的秘书一样难。Context可能真的成为AI产品的护城河了。 PS:ChatGPT能从几百上千条对话中精准分析我的性格特点,那现在科技巨头利用手上的数据能够做到什么?为什么都在做输入法产品? ——还好我们有《个保法》 :)