布莱恩·K. 史密斯(彼得·朱利安饰)

自去年秋天OpenAI推出ChatGPT(生成式预训练转换器)以来,人工智能(尤其是聊天机器人技术)的前景和风险一直是一个热门话题。, 这款聊天机器人以其生成详细的、类似人类的文本的能力给许多人留下了深刻的印象, 尽管批评人士指出其事实准确性参差不齐. 记者, 艺术家, 伦理学家, 学者, 公众倡导者对ChatGPT可能对教育产生负面影响表示担忧, 颠覆整个行业, 并被用来播下政治和社会混乱的种子.

在1月, ChatGPT的月活跃用户超过1亿, 比Instagram和TikTok的采用率更快. 3月14日,OpenAI发布了GPT-4,这是ChatGPT使用的升级版本. 微软和谷歌也推出了自己的聊天机器人.

在接下来的Q中&A、布莱恩·K. 尊敬的大卫·史密斯先生. 林奇教育与人类发展学院主席兼副院长, 谈到了AI/ChatGPT的潜力——无论是好是坏. 史密斯的电子游戏正规平台兴趣包括基于计算机的学习环境, 人机交互, 以及计算机科学教育. 在他的职业生涯中,他也一直在人工智能领域工作.

OpenAI首席执行官萨姆·奥特曼(Sam Altman)会见了华盛顿特区.C., 今年早些时候,立法者通过解释ChatGPT的用途和局限性来澄清对它的误解, 但一些立法者认为,新技术需要一个专门的监管机构.  这样明智吗??  

无论是政府, 行业, 学术界, 或者是一些组合, 人们需要考虑任何技术的社会影响. 正如许多人所说,这些影响可能是坏的,但也可能是积极的. 例如,在乳腺癌分析中使用机器学习已经取得了很大进展. 在继续寻找和减少可能的偏见和不利影响的同时,激励和庆祝这些积极的应用是很好的. 在短期内,这可能是一个监管机构. 从长远来看, 我们应该教育未来的技术专家深入思考技术知识及其创新的社会影响.

电子游戏正规平台人员警告说,像ChatGPT使用的那种大型语言模型可能会被虚假信息活动用来更容易地传播宣传, 随着模型变得更容易获取, 更容易扩展, 撰写更可信、更有说服力的文章, 它们将对未来的影响行动非常有效.  这种危险合法吗?? 如果该工具落入坏人之手,我们能做些什么来减轻其武器化的威胁?

世界上总是会有坏人, 他们会不择手段地做坏事. 一些坏人会使用ChatGPT来传播错误信息,编写令人信服的网络钓鱼邮件等吗.? 毫无疑问. 但我认为我们很了解坏人是如何利用现有工具的, 这些知识对我们大有帮助. 我们关注的是糟糕的事情变得更糟,但随着新技术的发展,好的事情也会变得更好.  

在一项调查中,000名大学生, 在线杂志《电子游戏正规平台》发现,近60%的人使用聊天机器人完成了一半以上的任务, 30%的学生在书面作业中使用ChatGPT.  一些大学担心ChatGPT对学生作业和评估的影响——考虑到它通过了明尼苏达大学和宾夕法尼亚大学沃顿商学院的电子游戏正规平台生水平考试——但拒绝禁止聊天机器人, 而是建议教授们制定自己的政策.  当涉及到ChatGPT时,大学应该考虑什么?


写作是教育评估学生的一个重要部分, 因此,人们对一个能够生成合理论文的程序感到担忧也就不足为奇了, 计算机程序, 语言翻译, 等. 但ChatGPT是一种让学生有机会重新思考学习内容和方式的技术,就像计算器一样, 拼写检查程序, 维基百科, 还有类似的工具. 改变教育是一项挑战,那么我们该如何去做呢? 不列颠哥伦比亚省的卓越教学中心创造了一个优秀的 关于使用ChatGPT的文档 这提供了利用它来教学和减少作弊的策略. 其他大学也在电子游戏正规平台与ChatGPT合作的类似方法,而不是试图禁止它的使用. 关键是让教育工作者开始作为一个社区一起思考,发展教育方法,将ChatGPT和其他工具视为智力伙伴,而不是用来作弊的东西(它不叫“CheatGPT”)。.

你所说的“工具作为智力伙伴”是什么意思?”

人们在20世纪50年代开始谈论智力放大或增强. 其基本思想是,机器可以帮助我们完成难以单独完成的认知任务. 计算器就是一个很好的例子:它让我们摆脱像计算平方根和徒手乘大数这样的事情,这样我们就可以专注于更高层次的问题解决. 您可以想象ChatGPT的类似功能. 我可以提示它创建一个示例教学大纲, 聚会的邀请, 或者为《电子游戏正规平台》写一个问答,然后对最初的文本进行迭代,使其符合我的声音和风格,并纠正过程中出现的任何错误. ChatGPT就像一个合作伙伴,帮助我在这个场景中集思广益并改进想法.

顺便说一下,我没有在问答中使用它.

在《电子游戏软件》杂志的一篇文章中, 生成式人工智能的支持者表示,它将“重新定位我们的工作方式”, 释放创造力和科学发现, 让人类实现以前难以想象的壮举, 到2030年,推动全球经济增长超过15万亿美元.但他们表达了多重担忧, 其中最重要的是人工智能公司创造通用人工智能(AGI)带来的生存风险。, 一个“比人类更有效地思考和学习”的工具,“可能没有人类的指导或干预.  我们如何保证人工智能与人类价值观保持一致?  

OpenAI做了很多工作来创建“护栏”,以防止ChatGPT喷涌出许多疯狂的事情. 不幸的是, 这已经变得政治化了, 有些人说ChatGPT“醒了”,因为它可能会避免谈论某些人或想法. 但ChatGPT和类似的语言系统是在数十亿份人类编写的文件上进行训练的. 假设这些程序产生了违背人类价值观的语言. 那是因为人们已经表达并将继续表达反对人类价值观的可怕事情. We can’t blame a computer for learning our bad habits; humans need to stop war, 暴力, 歧视, 等. 不要讨厌聊天机器人,讨厌这个游戏.

《电子游戏软件》警告说,最终控制人工智能的大型科技公司可能不仅会成为世界上最富有的公司,而且会在商业用途上随心所欲地收费, 但有可能演变成“地缘政治参与者和竞争民族国家”.“这些担忧是现实的吗?  如果是这样,可以采取哪些措施来遏制这些发展?

This one’s out of my league; I’m afraid I don’t know anything about how AI might be used to create the Federal Kingdom of Microsoft or Amazon Republic. 这是一个有趣的场景, 但我希望这些公司可以帮助我们利用人工智能来解决我们作为一个社会面临的重大挑战. 当一个大陆因气候事件而洪水泛滥时,谷歌接管它不会有多大好处. 我希望我们的学生——过去的、现在的和未来的——能在这方面有所帮助. 希望, 他们将成为利用人工智能做好事的组织的领导者,而不是建立技术帝国.

Phil Gloudemans |大学传播| 2023年4月