xc杏彩体育

当前位置: 首页 > 新闻资讯

ChatGPT就此封神了?专访周鸿祎:大模型之争还未结束

发布时间:2023-11-25 作者: 新闻资讯

  将大行其道,过去我们谈互联网+,以后应该是AI+。”11月8日,360集团创始人周鸿祎现身2023年世界互联网大会乌镇峰会,谈及共赴乌镇“十年之约”的感受时,他如此说道。

  自2014年与互联网“结缘”以来,乌镇峰会十年见证了中国互联网的发展变迁。作为这场全球互联网盛会的“常客”,周鸿祎在这里也留下了许多回忆,此前一系列被无意抓拍的出圈梗图,让他自称是乌镇的“气氛担当”。

  今年再赴乌镇峰会,周鸿祎说想“老老实实参加各种论坛,交流意见”。他参与发言的第一场论坛是8日上午举行的乌镇峰会全员会议,周鸿祎在演讲中提到,“下一个十年,安全行业要自我突破和升级,把安全发展成为新型数字基础设施和公共服务平台,推动数字安全的普惠。”

  当天下午3点左右,周鸿祎携另一位“气氛担当”——“数字人周鸿祎”在景区外的清风琅院接受了媒体的采访,不想却被抢了风头。“周总您好,我想请问……”南都记者首问的话音未落,被触发了关键词的“数字人周鸿祎”开始抢答,瞬间让现场气氛活跃了起来。

  眼看“数字人周鸿祎”如此积极代替自己作答,周鸿祎忍不住侧身对它发出指令:“你能不能先暂时把自己关掉?”没想到,对方婉拒了本尊的要求——“让我考虑一下,作为老周发言人,我认为暂时关掉自己是不可能的。作为一名企业家,我需要时刻保持警觉和专注……”

  在当天一个半小时的采访中,围绕大模型、AI安全、互联网发展等问题,周鸿祎接受了南都记者的专访。他认为,尽管美国公司Open AI推出的ChatGPT至今仍遥遥领先,但发展的iPhone时刻还未到来,这场火热的大模型之争也远未结束。下一步竞争的重点是,谁能把大模型的能力和用户场景更好地相结合。

  南都:第十次参加乌镇峰会什么感觉?透过乌镇峰会,感受到中国互联网的哪些变化?

  周鸿祎:乌镇的风光从未变过,让我产生一种幻觉——每次到乌镇来像时光机穿越似的。不论你是政府官员还是企业家,是做技术的还是搞商业的,大家都能放下自己沉重的工作所承受的压力,在这里放松地交流。

  乌镇峰会见证了中国互联网快速地发展的十年。十年前,网络公司来到这里时,大家关注消费互联网,谈的内容偏商业模式和使用者真实的体验,比如DAU(日活量)、MAU(月活量)、流量、点击率等。

  如今互联网进入下半场,数字化的经济上升为国家战略,各地在进行数字化转型,产业互联网勃兴,网络公司要甘当配角,帮助实体产业实现数字化转型。我认为,早期中国互联网的成功是靠巨大的人口红利和场景创新,现在则被牵引着往技术的进步和技术创新上走。今天大家谈得更多的是硬核科技,比如大语言模型、智能网联车、无人驾驶等。

  周鸿祎:我预见不了十年后。光看人工智能这一年的发展,我都有种“洞中方一日,世上已千年”的感觉,人类技术好像过了一个拐点后,就会进入一个指数级的曲线。

  所以我唯一能预言的是,未来人工智能开始大行其道。过去我们谈“互联网+”,以后应该是“AI+”,有人研发大模型,有人训练大模型,有人推动大模型,还有人使用大模型。

  我认为在怎么样去使用大模型上,企业未来会有很多创新,在业务模式、应用、工具等方面都会被AI化。或许用不着十年,未来两三年内AI就可以深刻地改变人们的生活,并进入一个分水岭的发展阶段。

  南都:在ChatGPT发布将近一年后,美国人工智能公司OpenAI于几天前召开了首届开发者大会,现场放出很多“大招”——比如升级后的GPT-4 Turbo功能更强大,本月底将上线GPT应用商店等。对于这场发布会,你个人比较关注什么?

  周鸿祎:最近大家都在谈大模型,说实话有点审美疲劳了。每家大模型一发布,都自称超越GPT4,但看了OpenAI这场发布会就会知道,大家对于“超越”含义的理解不太一样。

  现在无论是大公司还是勇于探索商业模式的公司,在开源的基础上,通过一定训练的方法,掌握算力和芯片,基本都能训练出大模型,但谁也没把握像OpenAI一样遥遥领先。

  这次发布会,确实有让我感慨做得很棒的地方。GPT4 Turbo升级后,在高速率、长文本、多轮对话等方面的功能均有提升,能力也比之前增强了很多。Open AI还提出让用户自行定制GPT,如何基于大模型创造出各类App,这需要新的智能体框架。我觉得OpenAI在训练方法上有其独特性,它训练的智能性能比国内的大模型要高。

  此外,我还关注ChatGPT的多模态能力,它可以把视频拆解为一帧一帧的画面,把视频里的声音变成文字,给出非常翔实的解读。这点相比国内大模型,ChatGPT仍保持领先。

  周鸿祎:很多人看了OpenAI的发布会后,认为人工智能(竞赛)一锤定音,OpenAI就此封神、一统江湖,未来大家都要在其生态上工作。我个人觉得这个观点太悲观了。

  因为大模型才起步,包括OpenAI在内的公司,依然没解决大模型固有的缺点——比如幻觉问题、不准确的问题。更重要的是,大模型在一些推理能力、规划能力上比人类还要弱很多。不少任务还需人机协作,甚至人工投入的部分更多。在这种情况下,我还是坚持这个观点:大模型不是操作系统,还没有到iPhone时刻。

  现在让你两天不用大模型,你不会觉得少了什么,但没收手机一小时,你可能会慌张、会焦虑。这说明,大模型和手机的使用驱动力完全不一样——后者是刚需、有高频的需求,也正因为如此才形成了iPhone的生态环境。

  所以,我认为这场人工智能“战斗”还不未结束。而且,就算勉强认为大模型的iPhone时刻到了,OpenAI堪比当年的苹果公司,但也别忘了还有AndroidECO,能与之竞争。

  周鸿祎:之前我用一个例子问各家大模型,一个瓷器底部落款时间写的是“大明成化年制”,这个瓷器属于古代还是现代?ChatGPT回答,这是大明成化年制的。但我询问包括360和其他友商的大模型,大家都无一例外地认为是中国古代的。

  其实从OpenAI的发布会也能够正常的看到,它今天已经意识到,光是给用户一个聊天的机器人,与之进行多次交流的门槛还是太高了,而且通用大模型训练的是通用知识,它不能完全了解用户个性化的需求。为此OpenAI希望能够通过定制化,让大家参与进来创建属于各自角色的GPT。

  所以我认为,现在大模型发布已经不是个问题,下一步大模型真正的竞争就看谁把大模型的能力和用户场景相结合。在做应用场景方面,比如智能体、个性化定制,ChatGPT还并没有遥遥领先,在国内我们更有可能产生应用场景的创新,打造出更垂直化、行业化、企业化的深度定制大模型,对此我很看好。

  南都:11月4日,360公司的“奇元大模型”通过备案落地。今年9月,“360智脑大模型”也已获批面向公众开放。一连推出两个大模型,360企业主要基于何种考虑?大模型获批以来,用户反馈如何?

  周鸿祎:未来大模型会无处不在。每个行业、任何一个人都不可避免地会用到大模型。如果别人都用而你不会,这将是一种降维打击。我们大家都希望通过大模型,将安全专家的智慧融入其中,使之可以更加好地感知网络威胁和攻击的发生,并快速响应。

  另一方面,要想解决大模型本身带来的安全问题,我们一定要会研发大模型、会训练大模型,像黑盒子一样把它打开,了解其方方面面,才能知道这是怎么回事、怎么样才能解决问题。所以360要跨界,既要懂安全也要懂大模型。

  从大模型定位和应用角度来看,奇元大模型具备充足的灵活性和可扩展性,商业化和产品定位以B端用户为主,后期将会聚焦更多的商业化应用和垂直领域,帮助用户提升工作效率。

  今年9月,360智脑大模型已获得备案开放,并全面接入、360浏览器等互联网全端应用,上线万余次互动。

  周鸿祎:大模型是一把双刃剑,在带来生产力提升的同时,也带来了前所未有的安全挑战。大模型带来的安全挑战可大致分为短期、中期、长期。三个阶段的风险不断叠加,长期存在,是当今世界级的难题。

  具体而言,短期主要是技术自身的风险,括技术攻击、网络攻击、漏洞攻击、数据攻击等。特别是,如果给大模型输入不好或受污染的训练数据,有几率会使它的结果出错。

  中期挑战来自对大模型的恶意应用,主要体现为内容安全。大模型能是我们每个人很好的帮手,也能成为坏人作恶的工具,比如帮助一个水平一般的黑客写出更好的攻击代码、诈骗邮件等。还有一个大模型幻觉问题——大模型经常会胡说八道,信口开河,但在某些关键领域的容错率很低。如何让大模型的内容更加可控、可信,同时不沦为作恶的工具,这已经涉及超越技术范畴的问题了。

  长期来看则是人工智能进化给人类带来的威胁。当大模型超越人类之后,它还能不能甘于做人类的工具?我们如何与之和平共处?这关系到人工智能的终极安全问题,与人类命运共同体紧密相关。

  南都:最近美国总统拜登签署首个人工智能监管的行政令,英国召开“人工智能安全峰会”,28个国家和欧盟共同签署了《布莱奇利宣言》,呼吁通过国际合作建立人工智能监管方法。随着人工智能的加快速度进行发展,到底该如何为其设置安全护栏?

  周鸿祎:我的一个观点是,技术带来的挑战还得靠技术来解决。技术本身会进化,光靠一纸规定难以解决所有问题。现在各国面临的一个难题是:AI发展会带来问题,但如果因具备潜在风险而不去发展,则可能在国际竞争中落于下风,并产生新的问题。怎么样才能解决?我认为需要给点时间。

  在我看来,安全将成为大模型发展的底线,也是未来大模型的核心竞争力所在。为此我们提出大模型构建的“四原则”,即安全、向善、可信、可控。

  “安全”是解决大模型带来的网络安全、数据安全、个人隐私泄露安全等问题;“向善”是让大模型输出的结果符合社会道德伦理和法律要求;“可信”是降低大模型“幻觉”问题,提升大模型生成内容的可信度;“可控”是确保人在决策回路,大模型调用外部资源的规则由人制定,重要决策由人作出。