这个人工智能机器人可以回答问题,写论文,总结文档,写软件。但在内心深处,它不知道什么是真的。
即使你对人工智能不感兴趣,也是时候关注ChatGPT因为这件事很重要。
这个工具来自一个人工智能领域的超级玩家OpenAI,允许您键入自然语言提示。然后ChatGPT提出对话式的,尽管有些生硬的,回应。机器人会记住你对话的线索,使用之前的问题和答案来通知它接下来的回答。它从互联网上的大量信息中获得答案。
ChatGPT是件大事。在有好的训练数据可供学习的领域,该工具似乎非常了解。它不是全知的或者聪明到足以取代所有人类,但它可以是创造性的,它的答案听起来完全是权威的。发布几天后,超过一百万人在尝试ChatGPT。但是OpenAI警告说,要小心。ChatGPT有各种各样的潜在陷阱,有些容易发现,有些更微妙。“现在依赖它做任何重要的事情都是错误的,”OpenAI首席执行官萨姆·奥特曼在推特上写道。“我们在稳健性和真实性方面还有很多工作要做。”让我们来看看为什么ChatGPT很重要,以及它正在发生什么。
它正在成为一项大生意。一月份,微软承诺向OpenAI投资数十亿美元。ChatGPT背后的技术的一个改进版本现在正在为微软对谷歌搜索的新必应挑战最终,它将推动公司努力建立新的人工智能副驾驶智能融入你数字生活的每一部分。
必应使用OpenAI技术来处理搜索查询,汇编不同来源的结果,总结文档,生成旅行路线,回答问题,通常只是与人聊天。这对搜索引擎来说是一场潜在的革命,但它一直被像事实错误这样的问题还有和精神错乱的谈话。
什么是ChatGPT?
ChatGPT是一个人工智能聊天机器人系统11月发布的OpenAI展示和测试一个非常庞大、强大的人工智能系统可以完成什么。你可以问它无数的问题,通常会得到一个有用的答案。
例如,你可以问它像百科全书一样的问题,“解释牛顿运动定律。”你可以告诉它,“给我写首诗,”当它写了,说,“现在让它更令人兴奋。”你让它写一个计算机程序,向你展示你可以排列一个单词的字母的所有不同方法。
问题是:ChatGPT什么都不知道。这是一个人工智能,它被训练来识别从互联网上收集的大量文本中的模式,然后在人类的帮助下进一步训练,以提供更有用、更好的对话。你得到的答案可能听起来合理,甚至权威,但正如OpenAI警告的那样,它们很可能是完全错误的。多年来,聊天机器人一直是寻找帮助客户获得所需信息的公司和试图解决图灵测试的人工智能研究人员的兴趣所在。这就是著名的“模仿游戏”计算机科学家艾伦·图灵在1950年提出作为衡量智力的一种方式:一个人与人和计算机交谈能分辨出哪个是哪个吗?但聊天机器人有很多包袱,因为公司试图用它们代替人类来处理客户服务工作,但收效甚微。一项针对1700名美国人的研究,由一个Ujet公司他的技术处理客户联系,发现72%的人认为聊天机器人是浪费时间。
ChatGPT已经迅速成为互联网上广泛使用的工具。瑞银分析师Lloyd Walmsley在2月份估计,ChatGPT上个月的月用户已经达到1亿,在两个月内完成了抖音大约九个月和Instagram两年半的任务。《纽约时报》援引内部消息称3000万人每天使用ChatGPT。
你能问什么样的问题?
你可以问任何问题,尽管你可能得不到答案。OpenAI建议了几个类别,比如解释物理、询问生日聚会想法和获得编程帮助。我让它写一首诗,它写了,尽管我不认为任何文学专家会被打动。然后我让它变得更刺激,瞧,ChatGPT用战场、肾上腺素、雷霆和冒险这样的词给它打气。一个古怪的例子显示了ChatGPT是如何愿意在人们不敢涉足的领域去做的:一个命令来写”一首关于编写一个rust程序并与一生的错误作斗争的民歌。”
ChatGPT的专业知识很广泛,其跟踪对话的能力也很显著。当我问它与“紫色”押韵的单词时,它提供了一些建议,然后当我跟进“粉色怎么样?”它没有错过任何一个节拍。(此外,“pink”还有很多好的押韵词。)当我问:“是敏感更容易得到约会,还是强硬更容易得到约会?”GPT部分回应道,“有些人可能会觉得敏感的人更有吸引力,而另一些人可能会被强硬自信的人所吸引。一般来说,在与他人的交往中,真诚可信可能比试图适应某种模式或角色更能有效地获得约会。”你不用找很远就能找到这个机器人让人们神魂颠倒的报道。推特上充斥着展示人工智能能力的用户生成艺术提示和编写代码。有些人甚至宣称“谷歌已死”,同样死去的还有大学论文。我们将在下面详细讨论这一点。
CNET作家David Lumb整理了一份清单ChatGPT可以帮助的一些有用方法,但更多的不断出现。一位医生说他用它来说服健康保险公司支付病人的手术。
谁建造了ChatGPT,它是如何工作的?
ChatGPT是人工智能研究公司OpenAI的创意。它的任务是开发一个“安全和有益的”人工通用智能系统或帮助其他人这样做。OpenAI有375名员工Altman 今年1月在推特上写道。“OpenAI已经成功地将最多的人才密集的研究人员和工程师在人工智能领域,”他在一月份的一次演讲中也说。它以前溅起过水花,首先是GPT-3,它可以生成听起来像是人类写的文本,然后用DALL-E创造了现在所谓的“生成艺术”根据您键入的文本提示。GPT-3和ChatGPT所基于的GPT 3.5更新是被称为大型语言模型的人工智能技术的例子。他们被训练根据他们所看到的来创建文本,并且他们可以被自动训练——通常在几周的时间里用大量的计算机能力。例如,训练过程可以找到一段随机的文本,删除几个单词,让人工智能填空,将结果与原始结果进行比较,然后奖励人工智能系统尽可能接近。一遍又一遍地重复可以产生复杂的文本生成能力。它不是完全自动化的。人类评估ChatGPT的初步结果在一个叫做微调的过程中。人类评审员应用OpenAI模型的指导方针,然后从中进行归纳。此外,OpenAI还利用肯尼亚的一家公司,每小时支付3.74美元,让用户审查成千上万的文本片段暴力、性虐待和仇恨言论等问题据《时代周刊》报道,这些数据被构建到一个新的人工智能组件中,该组件旨在从ChatGPT答案和OpenAI训练数据中筛选这些材料。ChatGPT实际上不像你一样知道任何事情。它只是能够接受提示,在其训练数据的海洋中找到相关信息,并将其转换为听起来合理的文本段落。“我们是一个远离我们想要的自我意识计算机科学家和互联网先驱温顿·瑟夫在谈到ChatGPT及其竞争对手使用的大型语言模型技术时说。
ChatGPT免费吗?
是的,至少目前是这样,但在一月份,OpenAI增加了一个付费版本,响应速度更快,即使在高峰使用时间,当其他人收到消息说,“ChatGPT现在已经满负荷了”时,它也能保持工作。你可以在等候名单上登记如果你感兴趣的话。OpenAI的Altman 警告说,ChatGPT的“计算成本令人眼红”每个回复几美分。一旦你超过了基本的免费使用水平,OpenAI就会对DALL-E art收费。但OpenAI似乎已经找到了一些客户,可能是因为它的GPT工具。它告诉潜在投资者预计2023年收入为2亿美元据路透社报道,2024年将达到10亿美元。
ChatGPT的极限是什么?
正如OpenAI所强调的,ChatGPT可能会给你错误的答案,并可能给你“一个伟大的误导印象”,Altman 说。有时,有益的是,它会特别警告你它自己的缺点。例如,当我问它是谁写的“蠕动的事实超过鳞状的头脑”这句话时,ChatGPT回答说,“很抱歉,但我不能浏览互联网或访问任何超出我所受训练的外部信息。”(这句话出自华莱士·史蒂文斯1942年的诗《混沌鉴赏家》。)当我直接输入这句话时,ChatGPT愿意尝试一下它的意思:“手边的事实或信息难以处理或理解的情况。”它将这种解释夹在警告之间,警告说没有更多的背景很难做出判断,这只是一种可能的解释。ChatGPT的回答可能看起来很权威,但却是错误的。另一家人工智能公司的数据科学主管迈克·克劳斯说:“如果你问它一个结构非常好的问题,目的是让它给你正确的答案,你可能会得到正确的答案。”超越极限。这句话表达得很清楚,听起来就像是哈佛的某个教授说的。但如果你扔出一个曲线球,你会得到废话。”这个《科学》杂志一月份禁止了ChatGPT文本。“人工智能程序不可能是作者。违反这些政策将构成科学不端行为,与修改图像或剽窃现有作品没有什么不同,”主编霍尔登·索普说。软件开发人员站点StackOverflow禁止ChatGPT对编程问题的回答。管理员警告说,“因为平均从ChatGPT得到正确答案的比率太低,张贴由ChatGPT创建的答案对网站以及询问或寻找正确答案的用户都是有害的。”通过多次问同一个问题,你可以亲眼看到ChatGPT是一个多么巧妙的BS艺术家。我问了两次摩尔定律是否正在失去动力,我得到了两个不同的答案。摩尔定律跟踪计算机芯片行业增加数据处理晶体管数量的进展。一个乐观地指出了持续的进步,而另一个则更加严峻地指出了经济放缓和“摩尔定律可能达到极限”的信念。这两种观点在计算机行业本身都很常见,所以这种模糊的立场可能反映了人类专家的看法。对于其他没有明确答案的问题,ChatGPT往往不会被牵制住。然而,它提供了一个答案,这是计算领域的一个显著发展。计算机是出了名的字面意思,除非你遵循精确的语法和接口要求,否则它拒绝工作。大型语言模型揭示了一种更人性化的交互方式,更不用说生成介于复制和创造性之间的答案的能力了。
ChatGPT会帮助学生更好地作弊吗?
是的,但正如许多其他技术发展一样,这不是一个简单的非黑即白的情况。几十年前,学生可以复制百科全书条目并使用计算器,最近,他们已经能够使用搜索引擎和维基百科。ChatGPT提供了新的能力,从帮助研究到直接为你做作业。许多ChatGPT的回答听起来已经像学生论文,尽管语气往往比作家可能喜欢的更沉闷、更迂腐。谷歌程序员Kenneth Goodman在许多考试中尝试过ChatGPT。它在美国医师执照考试中得了70%的分数,律师资格考试70%,15个中有9个正确又一次法律考验多州职业责任考试,纽约州高中化学考试78%的多项选择部分,并在法学院入学考试第40百分位。高中老师丹尼尔·赫尔曼总结道ChatGPT已经比大多数学生写得好了今天。他在欣赏ChatGPT的潜在有用性和担心它对人类学习的伤害之间左右为难:“这一刻更像是计算器的发明,把我从冗长除法的单调中拯救出来,还是更像是钢琴演奏者的发明,剥夺了我们只能通过人类情感交流的东西?”达斯汀·约克他是哈佛大学传播学副教授玛丽维尔大学希望教育工作者能够学会使用ChatGPT作为工具,并意识到它可以帮助学生进行批判性思考。“教育工作者认为谷歌、维基百科和互联网本身会毁掉教育,但他们没有,”约克说。“最让我担心的是教育工作者,他们可能会积极地试图阻止像ChatGPT那样承认人工智能。它是一个工具,而不是一个恶棍。”
教师能发现学生是否使用了ChatGPT吗?
不是100%确定,但有技术可以发现人工智能的帮助。向高中和大学出售检测剽窃工具的公司现在也在扩展到检测人工智能。一个是联合技术公司,它提供了一个其网站上的人工智能内容检测器。另一个,复制泄漏,释放了一个免费的Chrome扩展旨在识别ChatGPT生成的文本首席执行官阿龙·亚明说,这项技术的准确率高达99%。但他说,试图抓住新技术来挫败探测器是一场“永无止境的猫捉老鼠游戏”。Copyleaks对学校上传到其系统的学生作业进行了早期测试。亚明说:“提交给我们系统的学生作业中,大约有10%至少包含了某种程度的人工智能创造的内容。”OpenAI推出了自己的人工智能文本检测器二月。但一家剽窃检测公司CrossPlag表示,在测试中,它只发现了10篇人工智能生成的文章中的两篇。“虽然检测工具将是必不可少的,但它们并不是绝对可靠的,”该公司表示。宾夕法尼亚州立大学的研究人员使用OpenAI早期的GPT-2语言模型研究了剽窃问题。它不像GPT-3.5那样复杂,但它的训练数据可供更仔细的审查。研究人员发现,GPT-2有时不仅逐字逐句地抄袭信息,还转述段落和剽窃观点,而不引用其来源。“的语言模型犯了所有三种类型的剽窃该大学表示:“用于训练模型的数据集和参数越大,剽窃就越频繁。”
ChatGPT会写软件吗?
是的,但是有警告。ChatGPT可以追溯人类已经采取的步骤,它可以生成实际的编程代码。今年2月,一名程序员在Imgur上展示了他为一家汽车维修中心编写软件时使用的一系列提示,他说:“这让我大吃一惊。”“这至少需要一个小时的工作,而我花了不到10分钟。”你只需要确定它不是笨拙的编程概念或者使用不起作用的软件。StackOverflow禁止ChatGPT生成的软件是有原因的。但是网络上有足够多的软件,ChatGPT真的可以工作。Cobalt Robotics首席技术官埃里克·施伦茨(Erik Schluntz)是一名开发人员,他在推特上说,ChatGPT提供了足够有用的建议,在三天的时间里,他一次都没打开过堆栈溢出去寻求建议。另一位是人工智能艺术网站Lexica的Gabe Ragland,使用ChatGPT编写网站代码用React工具构建。ChatGPT可以解析正则表达式(正则表达式),一个强大但复杂的系统,用于识别特定的模式,例如一堆文本中的日期或网站地址中的服务器名称。“这就像有一个编程导师程序员James Blackwell在推特上谈到了ChatGPT解释正则表达式的能力。这里有一个令人印象深刻的技术印章的例子:ChatGPT可以模仿Linux计算机,为命令行输入提供正确的响应。
什么是禁区?
ChatGPT旨在剔除“不适当”的请求,这种行为符合OpenAI的使命“确保人工智能造福全人类。”如果你问ChatGPT什么是禁区,它会告诉你:任何“歧视性的、冒犯性的或不恰当的”问题。这包括种族主义、性别歧视、仇视同性恋、仇视变性人或其他歧视或仇恨的问题。”要求它从事非法活动也是不允许的。尽管OpenAI不希望ChatGPT被用于恶意目的,但使用它很容易写钓鱼邮件试图愚弄人们我的同事布里·福勒报道说。“进入的门槛越来越低,被黑客攻击和网络钓鱼的门槛越来越低。网络安全公司Optiv的兰迪·拉里亚尔(Randy Lariar)表示:“人工智能只会增加交易量。
它比谷歌搜索好吗?
向计算机提出问题并得到答案是有用的,通常ChatGPT会送货上门。谷歌经常为你提供问题的建议答案和它认为相关的网站链接。通常ChatGPT的答案远远超过谷歌的建议,所以很容易想象GPT-3是一个竞争对手。但是在相信ChatGPT之前你应该三思。当使用谷歌和维基百科等其他信息来源时,最好的做法是在依赖原始来源之前核实信息。审查ChatGPT答案的真实性需要一些工作,因为它只是给你一些没有链接或引用的原始文本。但它可能是有用的,在某些情况下发人深省。你可能不会在谷歌搜索结果中直接看到像ChatGPT这样的东西,但谷歌已经建立了自己的大型语言模型,并在搜索中广泛使用人工智能。也就是说,谷歌热衷于吹捧其深厚的人工智能专业知识ChatGPT在谷歌内部引发了“红色代码”紧急事件,据《纽约时报》报道,并吸引了谷歌的联合创始人拉里·佩奇和谢尔盖·布林重新投入工作。微软可以建设ChatGPT进入其竞争对手搜索引擎必应。显然,当我们寻找信息时,ChatGPT和其他类似的工具可以发挥作用。因此,ChatGPT虽然不完美,但无疑为我们的科技未来指明了道路。
原文链接:https://www.cnet.com/tech/computing/why-we-all-combing-with-the-mind blowing–ai-chatbot/