无论你是否使用过社交媒体、导航应用程序或是图片过滤器,人工智能 (AI) 都很有可能影响到你。不仅仅是你—人工智能正在影响全世界的人权。本课程将给予你关于人工智能的基本知识,让你了解你的人权如何受其影响,以及如何赋予你保护这些权利的能力。联合国教科文组织 (UNESCO) 和联合国训练研究所 (UNITAR) 携手为16至24岁的青年们推出了一个新的关于人工智能和人权的在线学习小课程。专家们将关于人工智能的复杂概念分解为围绕我们日常技术互动的课程活动。该课程侧重于使用人工智能会如何影响言论自由、隐私权和平等权。
Click through the microlessons below to preview this course. Each lesson is designed to deliver engaging and effective learning to your team in only minutes.
Follow the interactions on each screen or click the arrows to navigate between lesson slides.
在人工智能时代捍卫人权 Course - Lesson Excerpt
在人工智能时代捍卫人权
完成本课程后,您将... 注意人工智能对言论自由、隐私权和平等权的影响。 了解使用人工智能的实际例子,并从人权的角度来分析其负面影响。
人工智能被定义为使机器能够模仿人类智能的某些功能,包括感知、学习、推理、解决问题等功能的技术的组合、语言互动,甚至创作创意作品。
搜索引擎算法通过快速处理互联网上的数据来帮助我们访问我们想要的信息。基于用户的位置、性别、语言、搜索历史和其他在线数据足迹,搜索结果往往越来越个性化。
工作匹配算法分析人们的能力,向雇主展示合适的求职者。
点播视频平台根据我们和数百万其他用户的观看模式提供个性化推荐。通过这样做,它们为广告商提供了预测和推动我们的态度和行动的能力。
算法可帮助法官根据具有相似特征的个人的犯罪记录来确定某人犯罪的可能性。算法也用于建议监禁的时长。
移民局使用数字档案来批准或拒绝签证申请。
在本课程中,我们将了解人工智能的使用是如何增长的—以及为什么我们需要捍卫三项人权: 表达自由 隐私权 平等权
在人工智能时代捍卫人权 Course - Lesson Excerpt
表达自由 |第1部分
同样,表达自由对于个人表达很重要,它可以实现个人的自我实现。 (吉尔摩,2011 年)
在公共领域表达自己观点的能力是使人们能够参与公共辩论的重要组成部分。
联合国人权事务委员会在其第 34 号一般性意见 (2011) 中澄清了《公民权利和政治权利国际公约》第 19 条,指出...... 《公民权利和政治权利国际公约》( ICCPR )第 19 条强调,意见自由和言论自由都是个人全面发展不可或缺的条件,也是每个自由社会的基石。 世界人权宣言 (UDHR)和ICCPR中的言论自由权还包括寻求、接受和传播信息和思想的权利。 (德扎亚斯和马丁,2012)
在线内容审核
互联网平台依靠人工智能技术来调节、标记和删除在线发布的非法内容。 通过“垃圾邮件检测、哈希匹配技术、关键字过滤器、自然语言处理和其他“检测算法”等实践,社交媒体公司可以根据公司的政策或法律删除或降低被视为“不受欢迎”的内容的可见性一个国家的。 (联合国大会 A/73/348,2018 年)
应通过监督和明确的流程来实施人工智能用于内容审核,以保护用户的权利。
2018 年 5 月,一群组织、倡导者和学术专家提出了圣克拉拉原则,作为从事内容审核的公司和平台应遵循的初始步骤,以确保内容指南的公平执行。 (皇家学会,2018 年)
在人工智能时代捍卫人权 Course - Lesson Excerpt
言论自由 | 场景
Facebook 2016 Facebook 禁止获得普利策奖的“凝固汽油弹女孩”照片的案例
2016 年 9 月,Facebook 决定删除 9 岁的 Phan Thi Kim Phúc 在越南战争期间遭到凝固汽油弹化学袭击后赤身裸体奔跑的标志性照片。
正如我们在 Facebook 的例子中看到的,只有人工智能驱动的算法才会出错
Alana周末和她的父母住在一起。 Alana与她父母的政治意识形态不同。 他们往往会就这些问题进行激烈的辩论,尤其是在政治危机期间。
她决定在社交媒体上发布她与父母最近的分歧。 令她欣慰的是,她得到了朋友和同事的支持,声称老一辈不关心子孙后代。
然而,某一天晚上Alana使用家庭电脑时,她不断看到与她的观点相反的政治观点的推荐文章和网站。 Alana意识到,由于这是一个共享设备,因此算法会继续推荐指向最后一个用户(她的父亲)希望阅读的信息的链接。 她意识到,就像她父亲被引导到他倾向的信息一样,她也被人工智能根据她先前的观点向她展示了信息。 她也生活在过滤泡沫和社交媒体回音室中,被她自己的个人信息生态系统隔离。
Alana 明白,要与父亲进行有意义的辩论,他们必须走出过滤气泡和回声室。
Alana找到了一些在线工具,可以帮助他们找到与其个人偏见不一致的信息。
每次我们点击、观看甚至分享评论时,社交媒体和搜索引擎都会收集我们的信息,从而生成个性化广告。 从这个意义上说,我们的手机和电脑就像一面镜子,可以深入我们的内心。
我们可以通过以下方式避免过滤气泡
在可能的情况下尽量使用人工智能将具有成本效益,并减少人类将遭受的对心理有潜在危害内容的数量。
在人工智能时代捍卫人权 Course - Lesson Excerpt
隐私权 |第1部分
隐私很重要,因为它还可以实现其他人权和自由,包括:
隐私权载于联合国《世界人权宣言》(UDHR)第 12 条和《公民权利和政治权利国际公约》第 17 条,以及其他人权文件、国际文书和国家法律。
通过互联网的大量使用和物联网 (IoT) 设备的日益普及,个人正在生成大量数据。 (第 19 条和隐私国际,2018 年)
这可以通过写帖子、使用表情符号或在社交媒体上发布图片来刻意完成。
...或无意中,通过浏览网站、点击链接、接受访问记录等。
在人工智能时代捍卫人权 Course - Lesson Excerpt
隐私权 |第2部分
对公共场所监控的关注点 选择所有正确答案
对平民进行有针对性的监视需要遵守三部分测试,其中包括: 选择所有正确答案
在线跟踪和个人去匿名化 使用数据和保护人们隐私之间的平衡历来依赖于数据匿名化,无论是在法律上还是在实践上。 (Montjoye、Farzanehfar、Hendrickx 和 Rocher,2017 年) 无处不在的计算和大数据正在挑战匿名化。 其中一些预测可以准确到使在线活动被不断跟踪的网络用户去匿名化。
在人工智能时代捍卫人权 Course - Lesson Excerpt
隐私权 | 场景应用
场景 #1 虚拟助理窃听: 亚马逊公司的Alexa
Alexa 一直在监听,记录他们的背景对话,然后将其发送给他们联系人列表中的这个人。 但是,该设备并未被第三方入侵。 亚马逊确认音频是由设备无意中播放的。(莫耶,2018 年)。
Vision Land 已在城市各处安装了使用面部识别技术的摄像头。
Vision Land 警方安装了这些摄像头来帮助他们识别罪犯。 每天有超过500,000张人脸被分析和记录,其中绝大多数没有被怀疑有任何不当行为。
法院裁定使用面部识别导致侵犯隐私。 警察如此广泛地应用该技术,以至于不符合隐私权所允许的合理豁免。 法院进一步裁定,警方没有对其面部识别系统进行任何审计,以确保其不歧视某些社会群体和少数种族社区。
在人工智能时代捍卫人权 Course - Lesson Excerpt
平等权 | 第1部分
《世界人权宣言》(UDHR) 第1条宣称“人人生而自由,在尊严和权利上一律平等”。
第2条规定“人人有权享有本宣言中规定的所有权利和自由,不分种族、肤色、性别、语言、宗教、政治或其他见解、国籍或社会出身、财产、出生或其他身份”。(联合国大会第 217 号决议,1948 年)
第26条范围更广,明确规定了免受歧视的保护。
“法律面前人人平等,有权不受任何歧视地受到法律的平等保护。 在这方面,法律应禁止任何歧视,并保证向所有人提供平等和有效的保护,以免受基于任何理由的歧视,例如种族、肤色、性别、语言、宗教、政治或其他见解、国籍或社会出身、财产、出生或其他身份。”. (联合国大会第 217 号决议,1948 年)
《世界人权宣言》第 1 条宣布“人人生而自由,在尊严和权利上一律平等”
负面歧视只是在种族群体的背景下在道德上是错误的。
建立识别歧视的标准并不一定为我们提供足以分析算法歧视的工具。 算法可以通过多种方式获得歧视性。 这些主要包括算法的技术特征被程序员有意或无意地偏见化或通过机器学习算法强化训练数据中存在的偏见。 我们需要识别直接、间接和制度性歧视,以便我们制定监管或技术解决方案。
人工智能的偏见来自...
许多类型的歧视可能是间接的。
例如,如果算法将高信用风险分配给以下社区中的女性,则该算法依赖于手机使用模式来确定一个人的信用价值是歧视性的。
在我们依赖算法作为最终决策者时有充分的理由需要谨慎,因为它们充其量只能提供有用的见解。
偏见的入口点 程序员驱动的偏见 数据驱动偏见
目标变量就是需要预测的变量,也就是算法的输出。 类标签将所有可能的目标变量分类为互斥的集合。
程序员选择应该观察和用于分析的数据的属性。
数据驱动偏差 如果机器学习算法从数据集中提取的规则被认为是合理的,则数据集中的偏见和遗漏将在预测模型中重复出现。 此类数据驱动偏差的示例包括: 不具有代表性的样本数据,即, 某些人在数据中代表性不足,或者因为根本没有收集他们的数据而根本没有出现在数据集中。 基于数据中不同变量之间的相关性得出的推论可能不正确,从而导致错误的结果。 当诸如住宅邮编之类的变量充当种族或社会阶层的代理数据时,会出现代理数据引起的偏见。 循环资源错配发生在选择性数据用于确定未来资源分配时。例如,如果市政机构使用嵌入在汽车中的传感器记录的关于街道坑洼数量的数据来确定城市中哪些街道需要维修,那么可能没有足够汽车的贫困地区会获得更少的资源,而富裕地区有了更多的汽车和更多的坑洼数据,他们的道路会更快得到修复。
有偏见的训练数据可能如下所示:
在人工智能时代捍卫人权 Course - Lesson Excerpt
平等权 | 场景
程序员应确保面部识别算法中使用的数据标签代表所有类别的用户。
减少引入人工智能算法的偏见的一个好方法是在招聘实践中实现多样化,以确保更广泛的观点。
确保多元化的团队为来自____不同背景的个人提供健康的工作环境。
在人工智能时代捍卫人权 Course - Lesson Excerpt
总结和结论
人工智能 (AI) 的使用方式越来越多,以至于它正在成为我们时代的隐蔽决策者。
与人工智能松散相关的各种技术应用程序在我们的生活中无处不在。 他们在几微秒内扫描数十亿篇网页、数字轨迹和由传感器衍生的数据,使用算法来准备和生成重要决策。
从塑造我们社交媒体新闻提要显示方式的算法,到影响我们投票偏好的算法,人工智能影响着与我们许多的权利,例如言论自由、隐私和平等相关的权利。
一些人工智能系统会对社会和社区产生非常负面的影响,使他们处于危险之中并加深他们之间的歧视。
建议 #1 倡导各国在国际人权标准方面加强对人工智能的治理,并制定透明度、责任承担和纠正侵权行为的机制。 #2 倡导私人企业和技术社区对人工智能应用程序进行人权风险和影响评估,以确保这些应用程序不会干扰人权。 #3 参与关于人工智能内容个性化对社会、经济和政治影响以权利为导向的研究,包括网络“回声室”的后果。 #4 提高对人工智能影响的认识,倡导尊重人权的人工智能发展。 #5 支持媒体参与者调查和报告人工智能的滥用和偏见,以及人工智能的好处,并利用人工智能加强新闻和媒体发展。
UNESCO is working to harness AI for sustainable development across education, the sciences, culture, communication and information, leading reflections around pressing concerns related to the rapid development of AI, from a Human Rights and ethics perspective in line with its global mandate.