吉林新闻综合广播特约评论员·牛角
近期,《暨南学报(哲学社会科学版)》发布关于使用人工智能写作工具的说明。说明提到,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。该如何看待这件事?请听本台特约评论员牛角的评论《ChatGPT的可怕之处不仅是要夺走我们的工作》
(相关资料图)
在人工智能领域,有这么一个测试,叫做“图灵测试”,顾名思义,这个测试是计算机先驱、英国数学家图灵构想出来的。这个测试是干什么用的呢?就是判断一个人工智能是不是真的具有了智慧。
这个测试大概的意思是说,如果电脑能在5分钟内回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则电脑通过测试。换句话说,测试者分不清对面和他对话的是人还是电脑。
最近chatgpt很火,每个人都想跟它交流一下。可大家想过没有?如果你不知道和你聊天的是chatgpt,你有多大概率会把对方当做一个真正的人?肯定超过30%吧?你甚至会把对方当成是一个博学的、圆滑的、说话滴水不漏的话痨。所以说句不客气的话,chatgpt在一定程度上已经通过了图灵测试。
我想这也就是让大多数学校和学术期刊如临大敌的原因。当学生让chatgpt写作业的时候,当学者让chatgpt帮忙写论文的时候,老师和评审们很有可能识别不出来。说实话《暨南学报》的说明还是有点客气了。他希望投稿的人会诚实地把使用过chatgpt或是其他人工智能系统这件事说出来。但这希望很可能会落空。
所以chatgpt的普及会带来两个严重后果,第一个后果就是作弊变得比以前更容易了。美国著名语言学家乔姆斯基就认为,ChatGPT是一个高科技剽窃系统,从海量数据中发现规律,并依照规则将数据串连在一起,形成像人写的文章和内容。在教育界,已经引发了“ChatGPT让剽窃变得更加容易”的担忧。
而比这更加严重的后果,是人类可能会就此依赖ChatGPT,放弃独立思考。这东西实在是太方便了,把关键词往里一扔,一会儿就给你生成一篇花团锦簇的文章。那还写什么文章啊?以后就靠它了。
说实话,人类科技的发展源于两个动力,一个是好奇心,驱使着人类不断探索未知世界。而另一个是懒惰,很多科技发明就是为了把人类从繁重的劳动中解放出来。懒得走路就发明了车,懒得扫地就发明了扫地机器人,懒得洗衣服就发明了洗衣机。但有一样东西可千万不能懒,那就是思考。
思维能力和由此诞生的创造力,是人类能够走到今天最重要的原因。而且科学已经证明,思维能力并不完全是与生俱来,它还需要后天锻炼,而且用进废退。这就是我们读书学习的目的所在。
在当今这个图片和短视频横行的年代,说实话人类的思维能力已经普遍呈现出倒退的趋势。而这个时候,如果我们再把学习这件事交给人工智能,那可真就是把大好的江山拱手相让了。想想看,我们一边担心着人工智能会替代我们的工作,而另一边又把学习这一块交给了人工智能。这不就是南辕北辙吗?
说实话,即使把道理讲清楚,人们的懒惰仍然会战胜理性。当有了剽窃、作弊的巨大需求,人工智能系统就有了市场。这时候简单的声明阻止不了这种事的发生。
不过反过来,既然担心人工智能成为高科技剽窃系统也成为一种需求,那么未来是不是会有科技公司研发另一种人工智能系统,专门用来识别ChatGPT写出来的文章。这就叫用魔法打败魔法。
当然,这只不过是我这个外行的异想天开。但是我们必须从这件事情上看到问题所在。ChatGPT的出现,不仅仅会抢走人类的工作,还有可能让我们依赖它替我们思考。人工智能的可怕之处就在于它学会了思考,而比这更可怕的是我们人类放弃了思考。
文章来源:原创·吉林新闻综合广播
编辑:牛角、王睿旸、王浩懿
审核:怀楠
监制:张永华 郝峰
戳右下角小花分享给更多人
关键词:
人工智能
思维能力
人工智能系统