首页 > 资讯 > 综合 > 正文
2024-04-11 18:11

联合国:教育和研究中的生成人工智能指南

介绍:

对比今年7月颁布的《人工智能生成服务管理暂行办法》,我们会发现,两份文件都提到了“对人工智能生成内容进行标签化”的重要性; 教育行业从业者必须正确考虑道德原则; 需要增加人工审核流程,避免人工智能产生大量错误来源。 这对教育行业来说是一个重要信号。

此外,《联合国指南》对当前生成式人工智能的风险进行了更全面的分析,从而为教育行业从业者传递建议。

在探索人工智能落地方面,《指南》还为未来人工智能在教育领域的正确运用提供了多个方向,比如利用人工智能助手促进教学; 使用人工智能生成一对一的解决方案来培训学生的语言、计算机和艺术。 和编码学习; 帮助有听力或视力障碍的人学习; 利用AI对话进行心理情感咨询等途径。

《指南》还建议将使用人工智能工具的年龄​​限制在13岁以内。

联合国教科文组织总干事指出,“产生人工智能可能是人类发展的巨大机遇,但也可能造成伤害和偏见。 没有公众参与和必要的政府保障和监管,它就无法融入教育。 教科文组织 教科文组织的这一指导将帮助政策制定者和教师更好地挖掘人工智能的潜力,以满足学习者的主要兴趣。”

生成人工智能教育和研究指南的要点

1.围绕生成人工智能及其对教育影响的争论

在讨论生成式人工智能的规范指南之前,相关组织对当前人工智能(生成式AI,以下简称Gen AI)引发的争议和风险做了一系列的总结。 这些风险往往被用户忽视。

其中,对教育行业影响最显着的是AI产生的大量带有偏见的信息混淆了学习者获取的信息来源。 如果没有监督,未来学生学到的知识很可能是不准确的、通过人工智能处理提取的片面信息。

联合国指南中提到的风险主要包括以下几个方面:

——数字贫困加剧

《指南》指出,生成式AI除了人工智能架构和训练方法的迭代创新外,还依赖于大量的数据和强大的计算能力。 这些创新大多只适用于最大的国际科技公司和少数经济体。 (主要是美国、中国和欧洲国家)。 随着数据的获取对于国家的经济发展和个人的数字机会变得越来越重要,无法获取或负担得起足够数据的国家和人民将陷入“数据贫困”状态。

换句话说,人工智能可以促进公平,也可以加剧不公平。 关键在于用户如何选择。

研究人员、教师和学习者应该批判性地审视一般培训模式中蕴含的价值取向、文化标准和社会习俗。 政策制定者应该意识到并采取行动解决因培训和控制通用模型方面差距扩大而导致的日益恶化的不平等问题。

——超越国家监管适应

与此同时,许多开始使用 Gen AI 的公司发现维护系统安全越来越具有挑战性。 此外,尽管人工智能行业本身呼吁监管,但管理所有人工智能的创造和使用的立法起草往往落后于快速发展。

虽然Gen AI可以增强人类完成某些任务的能力,但对推广Gen AI的公司的控制有限。 这引发了监管问题,特别是在国内数据的获取和使用方面,包括当地机构和个人的数据以及在国家领土上生成的数据,需要制定适当的立法。

——未经同意使用内容

如前所述,一般建模所需的大量数据通常是从互联网上收集的,通常未经所有者的任何许可。 许多图像共用系统和一些代码共用系统因此被指控侵犯知识产权。

研究人员、教师和学习者还应该意识到,使用 Gen AI 创建的图像或代码可能会侵犯他人的知识产权,并且他们在互联网上创建和共享的图像、声音或代码可能会被其他 Gen AI 利用。

——人工智能生成的内容导致信息来源不准确

由于GPT训练数据通常是从互联网上提取的,而互联网上往往包含歧视性和其他不可接受的语言,由于缺乏严格的法规和有效的监督机制,生成式人工智能产生的有偏见的材料越来越多地被使用。 在互联网上传播,导致学习者获得不正确的知识。

这对于教育行业尤其重要,因为生成式人工智能生成的材料可能看起来相当准确和令人信服,但它经常包含错误和偏见的观点。 这对于年轻学习者来说是一个很高的风险,因为他们对相关主题没有扎实的先验知识。

这也为未来的 GPT 模型带来了递归风险,这些模型将根据 GPT 模型本身创建的从互联网上抓取的文本进行训练,包括其偏差和错误。

试想一下,如果一个机构使用人工智能生成课程,但由于缺乏审查而传播错误的知识,这将对学生造成严重影响。 这也向教育工作者发出了一个重要信号,即基于AI生成的知识的可靠性可能存在长期问题。

- 缺乏对现实世界的了解

文本 GPT 有时被轻蔑地称为“随机鹦鹉”,因为如前所述,虽然它们可以生成看起来令人信服的文本,但该文本通常包含错误,并且 GPT 以随机模式开始,并且不理解其含义。 - 就像鹦鹉可以模仿声音,但实际上并不理解它在说什么。

生成式人工智能使用和生成的一般文本模型与现实世界之间的脱节可能会导致教师和学生对输出产生不必要的信任。 这对教育的未来构成了严重的风险。 事实上,生成式人工智能并不基于现实世界的观察或科学论证,也不符合人类或社会价值观。

- 制作深度赝品

导航应用程序出现严重错误_应用导航严重错误程序出现问题_应用导航严重错误程序出现异常

除了所有生成式人工智能都存在的争议之外​​,Gen AI 还可以用来修改或操纵现有的图像或视频,以生成难以区分的虚假图像或视频。 新一代让制造这些“深度赝品”和所谓的“假新闻”变得越来越容易。

目前,只有中国、欧盟国家和美国调整了版权法以考虑生成式人工智能的影响。 例如,美国版权局( )裁定通用系统(如 )的输出不受美国版权法保护,认为“版权只能保护人类创造力的产品”(US,2023)。 在欧盟,拟议的欧盟人工智能法案要求所有工具开发商披露他们在构建系统时使用的受版权保护的材料(欧盟委员会,2021)。

中国通过 2023 年 7 月发布的生成人工智能法规,将要求 Gen AI 的输出被标记为人工智能生成内容,并且仅将其视为数字合成输出。

2. 促进生成式人工智能在教育和研究中的创造性运用

当它首次推出时,世界各地的教育工作者都对它生成论文的潜力以及它如何帮助学生作弊表示担忧。

与此同时,互联网上充斥着在教育和研究中使用 Gen Al 的建议。 其中包括用它来激发新想法、生成多视角示例、制定课程计划和演示、总结现有材料以及刺激图像创作。 尽管互联网上几乎每天都会出现新的想法,但研究人员和教育工作者仍在弄清楚基因对于教学、学习和研究的确切意义。

特别是,拟议用途背后的许多人可能没有适当考虑道德原则,而其他人则受到 Gen Al 的技术潜力而不是研究人员、教师或学习者的需求的驱动。 本节概述了在教育中创造性地使用 Gen Al 的方法。

教育和研究机构应制定、实施和验证适当的战略和道德框架,以指导负责任和道德地使用通用系统和应用程序,以满足教学、学习和研究的需要。 这可以通过以下四种策略来实现:

伦理原则的机构实施:确保研究人员、教师和学习者负责任地、合乎道德地使用通用工具,并严格对待输出的准确性和有效性。

指导和培训:为研究人员、教师和学习者提供常用工具的指导和培训,以确保他们了解数据标签和算法偏差等道德问题,并遵守有关数据隐私和知识产权的适当法规。

构建 Gen Al 提示工程能力:除了特定学科的知识之外,研究人员和教师还需要工程专业知识和对 Gen Al 生成的提示的严格评估。 鉴于 Al 将军提出的挑战的复杂性,研究人员和教师必须接受高质量的培训和支持才能做到这一点。

检测书面作业中基于 Gen Al 的抄袭行为:Gen Al 可能允许学生将他们没有写的文本冒充为自己的作品,这是一种新型的“抄袭”。 供应商通常需要在其输出上标记“人工智能生成”水印,同时正在开发工具来识别人工智能生成的材料。 然而,几乎没有证据表明这些措施或工具有效。 目前的机构策略是通过严格的人体测试来维护学术诚信并加强问责制。 长期策略是机构和教育工作者重新考虑书面作业的设计,这样它们就不会被用来评估通用工具比人类学习者做得更好的任务。 相反,他们应该解决人类可以做到而遗传学和其他人工智能工具无法做到的事情,包括将同情心和创造力等人类价值观应用于复杂的现实世界挑战。

3、未来探索生成式AI在教育场景的实际应用

该指南提供了一些示例,说明协同设计流程如何为研究实践提供信息、协助教学、为自定进度的基本技能获取提供指导、促进高阶思维以及支持有特殊需要的学生。 有需要的学习者。

— 用于研究的生成人工智能

遗传模型已经证明了其扩大研究范围、丰富数据探索和文献综述的潜力。 虽然可能会出现更广泛的用例,但需要新的研究来定义研究问题的潜在领域和预期结果,以证明有效性和准确性,并确保人类通过研究理解现实世界的能力不会因人工智能工具的使用而受到损害。

——生成AI促进教学

无论是通用平台的使用还是特定教育通用工具的设计,都应旨在增强教师对学科的理解和对教学方法的了解,包括通过教师与人工智能共同设计教案、课程包或整个课程。 经过预先培训的会话助理或“助教双胞胎”。

根据经验丰富的教师和图书馆的数据,它已经在一些教育机构进行了测试,可能具有未知的潜力以及未知的道德风险。 这些模型的实际应用过程和进一步迭代仍然需要通过本指南建议的框架进行仔细审查并受到人类监督的保护。

——生成人工智能作为1:1教练,按照自己的节奏掌握基本技能

虽然高阶思维和创造力在定义学习成果方面引起了越来越多的关注,但基础技能在儿童心理发展和能力提升中的重要性仍然毋庸置疑。 在众多能力中,这些基本技能包括听力、发音和写作。

母语或外语,以及基本的计算技能、艺术和编码。 “训练与实践”不应被视为过时的教学方法; 相反,应该用通用技术重新激活和更新它,以促进学习者自主练习基本技能。 Gen Al 工具有潜力成为这种自定进度的实践。 1:1 渐进式练习辅导。

- 支持有特殊需要的学习者的产生

理论上,遗传模型有可能帮助有听力或视力障碍的学习者。 新兴实践包括为聋哑和听力障碍学习者提供通用字幕或字幕,以及为视障学习者普遍生成音频描述。 Gen Al 模型还可以将文本转换为语音,以及将语音转换为文本,使有视觉、听力或语言障碍的人能够访问内容、提出问题并与同龄人进行交流。

但该功能尚未得到大规模利用。 根据前述联合国教科文组织2023年政府在教育中使用人工智能的调查,只有四个国家(中国、约旦、马来西亚和卡塔尔)报告称,其政府机构已经验证并推荐了人工智能辅助工具,以支持学习者的包容性获取残疾(教科文组织,2023)。

最后,还有人提出神经系统有潜力进行基于对话的诊断,识别心理或社会情感问题以及学习困难。 然而,几乎没有证据表明这种方法有效或安全,任何诊断都需要由熟练的专业人员来解释。

4、联合国教科文组织规定使用人工智能工具的年龄​​限制为13岁

大多数 Gen Al 应用程序主要是为成人用户设计的。 这些应用程序通常会给儿童带来重大风险,包括接触不当内容和潜在的操纵。 考虑到这些风险,并考虑到迭代通用应用仍然存在相当大的不确定性,强烈建议对通用技术进行年龄限制,以保护儿童的权利和福祉。

目前,使用条款要求用户年满 13 岁,18 岁以下的用户必须获得父母或法定监护人的许可才能使用服务。

早在社交媒体广泛使用之前,也早在 Serve 等易于使用且功能强大的通用应用程序出现之前。 许多评论人士认为这个门槛太低,主张立法将年龄提高到16岁。欧盟GDPR(2016)规定,用户必须年满16岁才能在未经父母许可的情况下使用社交媒体服务。

各种Gen AI聊天机器人的出现要求各国仔细考虑并公开审查与Gen AI平台进行独立对话的适当年龄阈值。 最低年龄应为 13 岁。 各国还需要决定自我报告的年龄是否仍然是验证年龄的适当手段。

各国需要规定一般服务提供者有责任进行年龄验证,并规定父母或监护人有责任监督与未成年儿童的独立对话。