封面新闻记者 边雪
文章导读:
1.ChatGPT落地意味着在机器理解人类语言的这条路上是一条可行的技术路线,目前,我国在自然语言理解的大模型方面也做了较多的工作,国内相关的技术的发展与美国同步,没有太多差别。
2.ChatGPT看似很权威的回答,很可能是错误的。ChatGPT是基于海量数据训练的大语言模型,其问答中能给出的答案是基于训练的数据,因此,只要没有在其训练数据中的问题,都不可能给出确切的答案。
3.如何保证未来人工智能带给我们的未来是友好的?智能技术发展的目标是为人类解决纷扰的体力劳动,AI技术的发展应当以人类的需求为目标,解决实际的问题,才能在未来是友好的。
智力测验结果 83 分,在 SAT 考试中取得了 1107 分(美国中学生中位数的水平),编个程序,写篇论文,丝瓜鸡蛋汤的做法也能说得像模像样。
即使对人工智能并不感兴趣的人,也很难不注意到ChatGPT——由美国人工智能研究公司OpenAI 开发的小型人工智能机器人。自12月1日上线以来,从0到100万用户,ChatGPT只用了短短5 天,而智能对话系统更是被赋于种种意义。尽管OpenAI多次公开警告,ChatGPT“偶尔可能会形成不正确或误导性的信息”,使用者须要当心使用,但仍然无法阻挡用户想出五花八门的问题,去“刁难”ChatGPT。
在人工智能领域,ChatGPT的诞生革新了普世观念里的聊天机器人,在通用人工智能领域,ChatGPT是“第一个里程碑”。问世四周以后,科技界对于ChatGPT的汹汹热议迅速降温,当初的四海鼎沸已逐渐显得风平浪静。
近30天“chatGPT”词条在百度指数上的的搜索变化。(图片来源:百度指数)
被冠名为“颠覆者”的ChatGPT“熄火”了吗?
“降温”后的ChatGPT 依旧是AI进化的里程碑
计算机科学家艾伦·图灵(Alan Turing)曾在1950年提出,作为评判智力的一种方式:人类与人类和计算机攀谈时,能区分出那个是那个吗?
2022年,ChatGPT做出了回答。通过ChatGPT,用户可以通过任意自然语言输入问题,ChatGPT会给出对话式的答案,尽管可能会有些粗俗,但ChatGPT会记住每一次与用户的对话内容,并结合同一用户之前提出的问题和互联网上的大量已存信息,来回复用户的下一次提问。
在社交网络脸书上,充斥着ChatGPT的用户,充分展示着人工智能在生成艺术提示和编撰代码方面的能力。
CNET画家David Lumb列举了ChatGPT可以帮助其写作的一些有用的技巧;一位大夫在脸书上说,自己用ChatGPT的回答劝说了一家医疗保险公司支付病人的放疗费用。曾多次使用ChatGPT的张笠告诉封面新闻记者:“我还尝试了输入一些菜谱,比如红烧肉,西红柿鸡蛋汤,ChatGPT也给出了不精确但正确的做法。”
张笠使用“chatGPT”提问。(图片来源:受访者供图)
“ChatGPT目前达到的人机交互方式,让人与机器的交互上升了一个台阶。”西南科技大学计算机科学与技术学院软件工程专业负责人,CCF(中国计算机学会)、CAAI(中国人工智能学会)会员杨春明副教授在接受封面新闻记者专访时表示,ChatGPT是基于OpenAI 2020年推出的GPT-3构架进行完善的,这种基于大规模数据训练的大模型,也为在特定领域的人工智能应用的研究提供新的思路和途径,预期可以解决一些特定领域的人机交互问题,如一些常识性、事务性的问答。
“在数据规模大幅下降和估算能力快速提高的背景下,ChatGPT能取得当前的疗效和关注是必然的,特别是下一代GPT-4可能会有更好的表现。”杨春明表示,目前,ChatGPT也只是在人机多轮聊天对话、文本生成方面取得了原有对话机器人更好的疗效,但这表明在机器理解人类语言的这条路上,这是一条可行的技术路线。
据杨春明介绍,我国在自然语言理解的大模型方面也做了较多的工作,比如鹏城实验室与百度联合研制的全球首个知识提高千亿大模型——鹏城-百度·文心(模型版本号:ERNIE 3.0 Titan),该模型参数规模达到2600亿,是目前全球最大英文单体模型。“悟道、盘古α、M6等都是,国内相关的技术的发展与美国同步,没有太多差别。”
北京智源人工智能研究院于2021年6月发布的“悟道2.0”系列模型,推出了中国首个全球最大的双语多模态预训练模型,规模达到1.75万亿参数,超过之前由微软发布的Switch Transformer,“曾在世界公认的9项Benchmark上获得了第一的成绩,达到了精准水平。
2021年6月,北京智源人工智能研究院发布“悟道2.0”系列模型。(图片来源:网络)
看似很权威 很可能是错误的
作为一种人工智能产品,ChatGPT被训练来辨识从互联网上获取的大量文本中的模式,然后在人类的帮助下进一步训练,以提供更有用、更好的对话。值得注意的是,用户通过ChatGPT得到的答案可能只是听上去可信,看起来权威,但它们很可能是完全错误的。
不乏网友吐槽,对于没有明晰答案的问题,ChatGPT一般回答得会非常模糊。人工智能公司Beyond Limits的数据科学主管迈克·克劳斯(Mike Krause)曾表示:“如果你问一个结构挺好的问题,希望它能给你正确的答案,你可能会得到正确的答案,ChatGPT会挺好地作出回答,看起来如同是哈佛大学的某位院士写的,但假如你改变一下问题的结构,ChatGPT都会胡说八道。”
软件开发者网站StackOverflow严禁ChatGPT回答编程问题,该网站管理员警告称:“ChatGPT获得正确答案的平均百分比太低,所以发布ChatGPT创建的答案对网站和正在寻问或找寻正确答案的用户都是有害的。”
“ChatGPT是基于海量数据训练的大语言模型,其问答中能给出的答案是基于训练的数据,因此,只要没有在其训练数据中的问题,都不可能给出确切的答案。这种训练数据的实时更新会为ChatGPT的实用性带来一定的问题,有些实时性要求较高的问题,如新闻、股票等,不一定能获得确切答案。”
目前ChatGPT还只针对人机对话中的尝试,对于一些常识性问题给以回答,比较适宜一些对专业知识要求不高的领域,可以尝试用于回答问题。杨春明告诉封面新闻记者:“虽然ChatGPT目前的回答无法防止一些事实性错误,但将来是有可能解决该问题的。如通过在线训练实时更新训练数据,或是结合领域问题,融入知识推理或预测的方式,可以解决个别实时性要求较高的问题。”
崛起背后 如何保持智能向善?
哲学家休谟曾说:“一切科学都与人性有关,对人性的研究应是一切科学的基础。”任何科学都或多或少与人性有些关系,无论学科看似与人性相隔多远,它们最终还会以某种途径再度回归到人性中。
作为新一轮科技革命的核心驱动力量,诞生于1956年的人工智能正在深刻改变世界,在漫长的时光中,造福人类则是其技术发展至今从未改变的本意。“在尝试开发友好的人工智能技术的过程中会始终存在一种风险,那就是我们可能会创造出让我们担心的事物来。”OpenAI联合创始人马斯克曾就自己的本意讲到:“最好的壁垒可能是让更多的人尽可能多地接触而且拥有人工智能技术。如果每个人都能借助人工智能技术,那么因为不会存在某一小部份人因为只身拥有过分强悍的人工智能技术而造成危险后果的可能性。”
当地时间12月1日,OpenAI在社交平台脸书上发布chatGPT。(图片来源:网站截图)
人工智能的潜能无疑是巨大的,但怎样在未来数字世界中,保持智能向善?杨春明告诉封面新闻记者:“智能技术发展的目标是为人类解决纷扰的体力劳动,AI技术的发展应当以人类的需求为目标,解决实际的问题,才能在未来是友好的。”
虽然距离成熟产品还有一段距离,但ChatGPT早已迈出了第一步,在不久的将来,还会有哪些“憋了大招”的AI技术出现在我们的日常生活中?
这个问题,ChatGPT也答不准。