2023 3月 10 By astrill是什么软件 0 comment

随着ChatGPT浪潮爆红,也开始吹起一股担心自己工作不保的焦虑感,「这个时间点,我鼓励大家开放心态谈论ChatGPT,不要恐惧自己被裁员,公司不会这样做。」Gogolook共同创办人暨执行长郭建甫要建立健康的正面讨论氛围,正是他看到这股AI新浪潮後做的第一件事。

郭建甫引述a16z创办人Marc Andreessen的观察,人们对自动化浪潮焦虑的爆发,从1930年代以来,大概每30年会出现一次,不过每一次这种令人深刻的演示,很多人担心快速爆炸後,会影响到所有人类的劳动力,Andreessen Horowitz强调这种感受是大错特错,他不只鼓吹这股趋势,也反思提醒说,这种事其实每30年就会发生一次。

郭建甫用「On top of AI」(站在AI的肩膀上)这个概念来聚焦员工的思考,「如何用AI强化自己的能力,把AI当作是自己的延伸,只是这次不是实体的延伸而是心智、知识的延伸,」他表示:「要从这种生产力层面来思考,能不能用150个人(编按:与目前同样的人力规模),做到10倍、20倍的成长。」

不只如此,他更进一步探讨ChatGPT浪潮的本质,就像10年前,iPhone问世时,创造了一个以iOS为基础的公共基础设施,也就是行动网际网路,在上面可以发展很多行动App,「从公共基础设施(utility)的角度来看,带来了一种空间和时间的公共设施(space and time),」他解释,让你摆脱物理限制,变得生产力很高,坐在这边按一个键,食物就从A点送到B点,时间跟空间被压缩 ,这是当年iPhone moment带来的效用。

ChatGPT的出现,同样被形容成是另一次的iPhone时刻,同样的道理,「生成式AI是底层基础,上面是知识的公共基础设施,知识变成一种公共财,所有人都可以存取到跨语言、跨文化的知识。」他更进一步强调:「这种知识公共基础设施会带来两种冲击,第一是对生产力带来冲击,」所以,郭建甫要求员工开始解构自己工作中,无聊、没有意义的成分,思考如何交给AI,来获得更多的时间。

带动每一个人开始使用和思考後,甚至有Gogolook开发端主管思考,是否要区分前後端,前端工程师能不能保留系统分析、逻辑思考、将人的需求转化成机器听得懂的语言,保留这些能力,但借助No Code工具和ChatGPT,能不能学会後端开发的技能。

迎战ChatGPT浪潮要先做的2件事

郭建甫的第一步是「要求公司每一个人都思考,从主管到个人,让大家开放心态的谈论这件事。」他先从鼓励讨论着手的目的是,要让全公司「真的理解ChatGPT代表什麽样的演化。」

不只追求更彻底的了解,第二步,他向自己和所有员工这样提问:「当知识变成一种公共基础设施(Utility)之後,如何加入到产品中?」他强调:「如何在这些知识之上,创造你的应用,变得更重要。」

不只Gogolook,很多动作快的新创都已经开始思考,如何解决用户痛点,在证明有存在价值的服务上,再加上AI的能力。郭建甫表示:「用户痛点是重点,如何在既有服务,在已经可以解决用户痛点的商业模式上,透过这些生成式AI将UI/UX升级,我觉得,绝对是必要的事,但不是像接水管般一样就创造一个服务,你可以这样做,别人也可以这样做。」

OpenAI创办人Sam Altman也曾探讨过新创在这波浪潮中的机会,他的看法是,全世界最後会剩下只有几家公司提供超大语言模型Base Model的服务,如何善用「1%的客制化」成了关键。

因为像GPT 3这种一次训练要价千万美元的超大语言模型,没有几家企业可以负担,而OpenAI公司目前也没有开源释出底层基础模型(Foundation Model或称为Base Model),只开放透过API来客制化微调(Finetune)的是在这个基础模型上的属性模型(Attribute Model),仍然需要在基础模型上才能执行。所以,新创可以利用属性模型的微调,来建立客制化的中间层的服务。

发展客制化AI的两大方向

郭建甫认为,属性模型客制化可以有两大方向,第一是瞄准ChatGPT没有的领域知识(Domain Knowledge), 它不是每个领域的专家,第二个层面是可以进行原则或政策(principle 或policy)的客制化。

领域知识是许多企业想要进一步调教ChatGPT的重要方向,这是许多企业或新创已经看到的主流客制化做法,但是郭建甫提到的Policy层客制化又是什麽?为何是重要的发展?

他进一步解释,模型本身会有基本的道德面政策,例如不能涉及敏感政治问题、暴力、诈骗等,但做生意需要的不只是这种政策机制。

例如日本有很多IP角色,也需要有一套符合对应人设的Chatbot AI发言政策控管机制,日本公司才敢授权。所以,郭建甫才认为:「中间层的控制,除了领域知识,我觉得原则或政策机制的控制,也很重要。」例如为了避免滥用,一套好的监控机制,来确保不会授权角色的滥用,也很重要。

生成式AI也带来3个层面的新挑战

不过,ChatGPT不只带来新的机会,郭建甫观察,也带来了三个层面的挑战,第一个层面是资料与资讯面的挑战,GPT模型本身目前最为人诟病的就是内容真实性不足的问题,郭建甫指出,如何让ChatGPT的回答更具备事实基础和提供参考来源,这是一个值得被解决的问题,甚至他认为,在问题解答中标记出所用的参考来源网址,也可以是一种好的商业模式,例如Bing结合ChatGPT模型後的做法。

不过,郭建甫更强调,第二项监管层的挑战,这就是他所谓在中间层的控制机制。「出现很多客制化GPT时,这也代表需要制定这个客制化AI的政策,」就像若有家银行要以ChatGPT技术来打造大型企业的发言人,就需要一套这家公司专属的人设政策,来限定发言的AI什麽可说,什麽不能说,而且不能出错。或者如美国已有人工智慧相关的法遵,要求必须在商用或政治领域用Chatbot中标明这是AI而非真人。「未来,在治理面、平台到应用层,每一层都需要再建立政策机制,」

但是,还有一个更困难,也就是第三个层面的挑战,「教育层面的挑战,包括了资讯识读、批判性思考、逻辑思考、独立思考的能力的培养,我认为非常重要。」他强调。

ChatGPT出现後,可预期钓鱼邮件、简讯诈骗等各种内容讯息诈骗手法会更加逼真,可以做到高度个人化。郭建甫观察,「单靠内容越来越难分辨,得从资料源头的发送者身分着手,身分识别的可信度会比过去更重要,这才是不变的重要关键。」他强调。

 更多相关报导  

astrill是什么软件

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论