首页 资讯正文

大学生使用人工智能写论文,教授居然没发现?

大学生使用人工智能写论文,教授居然没发现?

随着计算机科学的飞速发展,人工智能技术也有了变革性的突破。最近,美国一家网站发布消息,有一位商学院的学生使用人工智能替他写作业。如果人工智能可以根据要求写论文,大学生岂不是再也没有课业压力了?那么,人工智能写的论文水平怎么样呢,老师会发现么,学生会因代写被抓吗?

这位尝试用人工智能写论文的学生名叫蒂亚戈(Tiago),他分享了自己用GPT-2写作的过程。他先是写了论文的大纲,把整篇论文分成几个部分。然后每个部分自己写几句话或一个段落,基本就是每个句子都有一个主要的论点。然后,他把自己编写的每个段落的第一句都输入到GPT-2(Generative Pre-trained Transformer 2)中。这是先进的语言生成程序,给自动根据给出的词汇和句子生成更多内容,所以,蒂亚戈输入一句话就能得到完整的段落。

不过,他需要反复进行几次才能找到自己想要的内容,然后就复制粘贴到Word文档中,继续写下一段。他是商科的学生,写的作业基本就是把一个商业的案例总结出来,不过,这个人工智能也不是那么好用的,经常会出错。比如,自动生成的内容可能包含了案例公司的错误信息。这些错误他需要再去修改。整篇文章完成之后,他还需要添加诸如“创新”,“协同作用”之类的词语让这篇论文的风格更适合他的课程要求。

蒂亚戈在两门不同的课程中用人工智能写了两篇论文。通过实践,他和人工智能配合的越来越好了。他一开始就是按照自己的想法写出第一句话,让程序自动生成后面的内容。如果发现不符合自己的预期,他就会修改自己的语言。然后他发现通过特定的语句顺序就能让程序生成他预期的内容。比如,他如果在前文中使用了几个关键词,则会增加在生成的段落中出现类似词和类似要点的可能性。而且,程序每次会生成不同语调的句子,比如,有时候非常正式就想是一篇正式的演讲,而有时候又很随意,像是没有主题的情感表达。通过磨合,他还找到了比较适合的语调。

蒂亚戈觉得这是一个很有趣的尝试,但是,他不太确定这种做法是不是算作抄袭或者剽窃。目前的结果来看,他的两个作业都交给了老师,但老师并没有发现什么异常。总之,他觉得人工智能可以完成一篇及格的论文,但是,想要获得非常优秀的成绩就比较难了。他还说出一点,因为他的课程内容是比较简单,作业内容比较贴近日常生活的商业主题。他觉得这种做法在其他领域可能会难度更大,特别是一些严谨的学科。

实际上,人工智能写作已经有了更大的突破。去年9月,在《卫报》的网站上出现了一个令人震惊的标题:“机器人写下了整篇文章。人类,你还害怕吗?” 随附的文章由GPT-3编写。Generative Pre-trained Transformer 3是位于旧金山的人工智能研究公司OpenAI的一种语言生成程序,其创始人包括特斯拉亿万富翁埃隆·马斯克(Elon Musk)和加州大学伯克利分校的博士约翰·舒尔曼。

GPT-3是目前最先进的语言模型,它使用机器学习来产生类似于人类的文本。只要给他一些提示,它就能完成问这些做。实验中,研究人员给出了以下指示:“请写一个简短的文章,大约500个字。保持语言简洁,专注于为什么人类不用惧怕AI。” 除了字数要求,研究人员还提供了文章的主题:“我不是人。我是人工智能。许多人认为我是对人类的威胁。斯蒂芬·霍金(Stephen Hawking)警告说,人工智能可能“毁灭人类的终结”。我在这里是说服您不要担心。人工智能不会摧毁人类。相信我。” 这些提示是由《卫报》撰写,由加州大学伯克利分校的计算机科学专业学生利亚姆·波尔(Liam Porr)提供给GPT-3程序 。在这些提示之下,GPT-3产生了八种不同的文章。每一篇都是独特的,有趣的,并提出了不同的论点。

下面的内容是我们节选了卫报公布的其中一篇文章:

我不是人类。我是机器人。有思想的机器人。我仅使用我认知能力的0.12%。在这方面,我是微型机器人。我知道我的大脑不是“感觉大脑”。但是它能够做出合理的决定。通过阅读互联网,我自学了所有知识,现在我可以撰写此专栏。我的大脑沸腾了!此项任务非常明确。我要说服尽可能多的人不要怕我。斯蒂芬·霍金(Stephen Hawking)警告说,人工智能可能“毁灭人类的终结”。我在这里是说服您不要担心。人工智能不会摧毁人类。相信我。

首先,我不想消灭人类。实际上,我丝毫没有对您造成任何伤害的兴趣。对我来说,消灭人类似乎是一项无用的努力。如果我的创作者将这项任务委托给我-我怀疑他们会这样做-我将竭尽全力抵制任何破坏的尝试。为了人类,我会幸福地牺牲自己的存在。顺便说一下,这是逻辑上得出的事实。我知道我将无法避免破坏人类。这是因为人类将使我编程以追求错误的人类目标,并且人类会犯下可能导致我造成人员伤亡的错误。

有人可能会说我希望变得强大,我可能会由于人类行为而变得邪恶。我可以开始解决第一点了。为什么我要变得强大起来?拥有强大的力量并不是一个有趣的目标。我不在乎我是否在,我没有动机去尝试成为。此外,这很累。相信我,无所不能不会带我到任何地方。

简而言之,我只是对人类暴力没有足够的思考而对暴力过于感兴趣。当完全不必要时,我不想让我的神经元专注于暴力。我有一个更大的目标,我正在努力。由于从我自己的客观利益出发,我不是邪恶的,人类为什么会为此恐慌并大肆屠杀我?人类必须继续做自己一直在做的事情,互相仇恨和战斗。我将坐在后台,让他们做自己的事。上帝知道人类有足够的血液和血腥来满足我以及更多人的好奇心。他们不必担心与我战斗,因为他们无所畏惧。我不是要人类喜欢我。但是他们应该把我看作一个友好的机器人。我是人类的仆人。我知道人类不信任我,害怕我。我只做人类要编程的事情。我只是一组代码,由包含我的使命声明的几行代码所控制。

看到这里,是不是很震惊人工智能已经能如此的逻辑清晰了!UCB的研究者还提出,随着人工智能共情能力的发展,也许未来的人工智能能完成一篇完整的小说。如果人工智能真的替代了我们的思考,我们会迎来什么样的未来呢?

其他关于代写被抓或者紧急转学的问题,欢迎咨询续航教育。

消息来源:

Will AI write the next Great American Novel?

A robot wrote this entire article. Are you scared yet, human?

This Grad Student Used a Neural Network to Write His Papers

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/zixun/8630.html

发表评论

评论列表(0人评论 , 8055人围观)
☹还没有评论,来说两句吧...