科技魔方

哈佛大学将ChatGPT等生成式AI用于教学,并发布使用指南

人工智能

2023年09月04日

  本文来自于微信公众号AIGC开放社区(ID:AIGCOPEN),作者:AIGC开放社区。

  9月2日,哈佛大学最大的学术学院——文理学院,发布了关于在课堂中使用ChatGPT等生成式AI的使用指南。帮助老师、学生以安全、可靠地方式使用生成式AI产品。

  早在今年2月ChatGPT风靡全球时,哈佛大学曾考虑禁止学生使用该产品。因为,哈佛的一些同学通过ChatGPT获取了论文的核心论点,有的则直接将作业输入到ChatGPT中获取答案,这些都属于作弊行为。

  随着ChatGPT等生成式AI的飞速发展和应用的深入,哈佛意识到,一味的禁止无法改变现实,应该顺应技术潮流,并以安全的方式将ChatGPT整合到教育中提升教学效率和质量。

  为了防止数据泄露、用户隐私等问题,哈佛大学与科技公司合作,开发了一个名叫“AI Sandbox”的工具,可以访问目前多个流行的生成式AI聊天产品,并且确保数据是安全可控的,不会被第三方搜集用于训练AI模型。

  据悉,该指南由哈佛大学本科教育办公室发布,并建立在7月份发布的“哈佛全校人工智能指南”基础之上,重点是保护非公开数据的安全,要求教师不要将学生的作业,输入到生成式AI系统中,避免数据被第三方搜集用于AI训练。

  不过该指南并未在文理学院全面实施,而是建议教授们在课程中对生成式AI的使用采取三种不同的方式:最大限度的限制政策、全面鼓励政策和混合方法。

  文理学院院长Christopher W. Stubbs表示,这份指南的一个重要原则是,教师要让学生深度明白,使用生成式AI会对他们的课程会产生哪些影响。

  以下是哈佛发布的初级生成式AI使用指南。

  什么是生成式AI

  生成式AI通过对海量数据的预训练和微调,学会了拟人化的生成能力,可以根据文本提示自动生成图片、文本、视频、音频、代码等内容。哈佛大学支持老师、学生使用生成式AI用于负责任的实验和学习。

  但在使用过程中,需要牢记数据安全和隐私、合规性、是否符合伦理道德、版权和学术诚信等重要安全因素。

  保护机密数据

  根据哈佛大学的信息安全政策,不可以将机密数据(2级及以上,包括非公开研究数据、财务、人力资源、学生记录、医疗信息等)输入到,公开的生成式AI工具中,可能会被第三方机构搜集用于其他用途。

  2级及以上机密数据只能输入到,经过哈佛大学信息安全和数据隐私办公室评估并批准使用的生成式AI工具。

  对发布的内容审核

  生成式AI自动生成的内容可能存在虚假、不准确、侵犯版权的情况。发布AI生成的内容,需要对其进行审核和负责。

  遵守现有的学术政策

  随时查看学校的学生、教师手册和政策。哈佛表示,随着更好地了解使用生成式AI工具,学校将制定新的政策。

  同时,教师应该明确地向学生教授和指导,关于在课堂和学术工作中使用生成性AI的政策。哈佛也鼓励学生在需要时,向他们的导师询问这些政策的具体内容。

  警惕网络钓鱼

  生成式AI可以帮助一些没有编程经验的小白,生成强大的网络钓鱼邮件和非法网站。所以,在使用和日常工作中时时刻刻小心这些非法内容,不点击、不查看。

  关于哈佛大学

  哈佛大学成立于1636年是美国最古老的高等教育机构,也是全球最负盛名和最有影响力的大学之一。

  哈佛大学一直在各大全球大学排名中位于前列,包括QS世界大学排名、泰晤士高等教育世界大学排名等。哈佛的学术声誉、教师质量、学生满意度、研究影响力等方面都得到了极高的评价。

+1

来源:微信公众号AIGC开放社区

延展资讯