在高中毕业生们还在忙碌选择、填报专业时,却没想到先等来了360公司创始人、董事长兼CEO周鸿祎晒出的清华录取通知书。
(资料图)
6月27日晚间,周鸿祎在个人微博晒出清华大学录取通知书,称“终于考上了,希望360智脑帮助我顺利毕业。”通知书显示,周鸿祎被录取到清华大学计算机科学与技术系电子信息专业,将攻读非全日制、定向就业博士学位研究生。
这也意味着,53岁的周鸿祎又要上学了!
读博课题或与360智脑相关?
公开资料显示,周鸿祎,1970年10月4日生于河南省驻马店市,祖籍湖北。1992年大学本科毕业于西安交通大学电信学院计算机系,获学士学位,因学习成绩优异,被保送西安交通大学读管理学院系统工程系研究生,并于1995年研究生毕业,获硕士学位。
这也就是说,现在的周鸿祎已经53岁,却依然选择继续读书读博。那么,他这次读的院系和专业又是什么呢?
清华大学官网显示,清华大学计算机科学与技术系(以下简称计算机系)成立于1958年。经过60多年的不懈努力,已发展成为我国计算机学科领域内教学、科研综合实力强,影响力大的计算机系,在中国计算机事业的发展乃至国民经济建设中发挥着重要的作用。2022年,在全球影响力较大的多个高校计算机学科评估排名中,清华大学计算机学科均位居前列:英国QS排名列全球第15位,英国泰晤士报排名列全球第16位,美国US News排名继续列全球第1位……
可以说,周鸿祎上了中国最牛的计算机系,而这也与360软件厂商的定位极为契合。本次除了晒出清华录取通知书外,周鸿祎还着重提到了360智脑。“希望360智脑帮助我顺利毕业”这句话或许也意味着,周鸿祎本次读博的研究课题可能正是与360智脑或大模型相关。
据了解,今年6月13日,在360智脑大模型应用发布会上,360正式发布AI新产品“360智脑大模型”。周鸿祎介绍,360大模型研发落地拥有八大天然优势,完整覆盖训练全程。同时,360智脑的生成与创作、多轮对话、代码能力、阅读理解、逻辑与推理、多模态等十大核心能力可覆盖大模型全部应用场景。自2023年3月29日以来,360智脑从1.0迭代至4.0版本,应用成果持续落地,刷新大模型“中国速度”。
另外,360智脑4.0已经正式接入360全端产品,包括搜索、浏览器、安全卫士等。360创始人周鸿祎表示,360已经通过工信部信通院测评,成为国内首个可信AIGC大模型。
事实上,近期在谈到如何填报专业和志愿时,他也将这一问题与AI、大模型相结合起来了。周鸿祎表示:“有人问我高考怎么填志愿,在我看来好专业比上什么大学更重要。也有人问我什么专业不会被人工智能淘汰,我认为AI未来的发展会以人为本,大模型是人类历史上最伟大的工具,同时也是‘辅助驾驶’的工具,应该成为人的好帮手,不会完全替代人的工作。”
全力为360超脑“打Call”
据了解,近期周鸿祎在微博上发布的内容大多数与AI大模型相关,他个人也是全力为360超脑“打Call”!
比如在6月7日,周鸿祎借助高考的热度,直接用360智脑写了一篇高考作文。
6月1日,他则是用360智脑帮成年人找了几条过儿童节的理由。
事实上,在今年AI这一概念爆火的情况下,360股价一路暴涨,但近期则出现了一定回调。
而在6月26日,在世界互联网大会数字文明尼山对话主论坛上,周鸿祎再次谈到他对大模型的看法,并首次提到现有公有大模型存在四方面不足之处:
第一,公有大模型虽然是通才,但它缺乏行业深度,“我们之前认为GPT什么都会,但如果你是一个行业专家,你会发现GPT在安全、金融这些垂直领域,知识深度是不够的。很多公司自己训大模型都发现了这个特点,想让它能力很均衡,就会牺牲深度。”周鸿祎表示。
他认为,未来垂直大模型是重要的发展方向,通用模型和各领域专有的知识数据结合,让大模型从“万事通”变成政府通、行业通和企业通,这才是真正的价值,“最新资料表明,GPT4也是由8个垂直模型组成的,从侧面印证了这个观点。”
第二,公有大模型容易造成企业内部数据泄露。一方面,公有大模型不是本地部署,它与外部进行信息交流时必然存在数据泄露的风险;另一方面,公有大模型也无法实现组织内部权限的分级管理。因此,政府、企业使用公有大模型必然存在安全风险。
第三,对企业来讲,公有大模型无法保障内容真正可信。周鸿祎表示,大模型存在“幻觉”,也就是常说的一本正经地“胡说八道”,经常出现张冠李戴的问题,需要通过企业的内部搜索、内部知识库进行矫正。
第四,公有大模型无法实现成本可控。他举例称,许多企业其实只需要大模型写代码的能力,百亿级垂直大模型就能满足需求,如果使用千亿级大模型就是成本的浪费。在控制成本方面,垂直大模型将会有很大优势。在用公开数据训练的“通识”大模型基础上,训练专有大模型,就能做到“事半功倍”,为企业降本增效。
此外,作为一家以“安全”起家和为卖点的公司,周鸿祎也十分重视大模型的安全问题。他此前表示,大型企业或者政府,在使用公开GPT时一定要注意安全问题。大型企业在用GPT时不只是搜索,还会给它喂很多数据,会把很多上下文的前提背景告诉它,这就意味着很多信息的隐私可能会被泄露。前几天,三星就发生了一起类似事件,软件工程师将公司机密代码输入到ChatGPT中,公司机密信息被外流了。所以,对大型企业或者政府要私有化大模型。即在加入公有GPT知识和能力的基础上,再训练一个私有的GPT,只给企业自己或客户使用。
关键词: