使用人工智能的五个关键考虑因素

数字、文化、媒体和体育部 (DCMS) 开展的一项调查 发现,许多企业现在将人工智能视为一项“新兴技术”。在接受调查的组织中,27% 表示他们已经发布了人工智能技术或处于开发的高级阶段,而 38% 表示他们正在计划或试行该技术。  

显然,人工智能正在成为企业和企业运营的重要组成部分。从数据保护的角度来看,这意味着个人资料,因为人工智能系统依赖数据集才能有效工作并实现其预期目的。尽管 GDPR 没有提及人工智能的名称(因为它是技术中立的),但与任何使用个人数据的技术一样,使用人工智能系统的公司过程个人数据必须遵守数据保护立法规定的规则。为了帮助他们做到这一点,英国信息专员办公室首次代币发行) 制作了人工智能和数据保护风险工具包,以及与艾伦图灵研究所共同编写的关于解释人工智能决策的指南。 

在审查了这些文件之后,我们向您介绍了公司在启动 AI 系统之前需要考虑的五个关键事项,以确保其符合 GDPR 标准。  

 

DPIA 和 AIA 

数据保护影响评估(   DPIA) 是一个帮 手机号码数据 助个人识别和尽量降低项目数据保护风险的过程。根据 GDPR 第 35 条,只要项目的数据处理可能对数据主体的权利和自由造成高风险,就必须进行 DPIA。  

ICO 在其他指导意见中指出,使用人工智能处理个人数据将触发进行 DPIA 的要求,因为算法是建立在严重依赖个人数据的高级数据集之上的。DPIA 应在项目开始时在处理任何个人数据之前进行,并应考虑人工智能系统开发各个阶段带来的风险。除了 DPIA 之外, 算法影响评估 (AIA)也必须完成。这两项评估很可能成为AI数据控制者的最好朋友。  

AIA 的作用远大于 DPIA,它在开发过程的每个阶段都用于评估自动决策系统的潜在影响。AIA 的一个关键部分是检查算法中是否存在可能导致歧视的偏见,并查看所使用的数据是否符合 GDPR。在进行此评估后,数据控制者可能必须更改所使用的数据集或算法本身以解决发现的问题。 

DPIA 和 AIA 无疑将在 AI 系统的开发和运行中发挥重要作用。此外,可以说它们将成为确保 GDPR 合规的生命线。 

 点击此处阅读完整博客文章。

 

知情权 

英国和欧盟通用数据保护条例 (GDPR)明确 社会企业家精神如何解决复杂的社会问题 说明数据主体有权了解其个人数据的处理方式和目的。我们是否阅读并理解这些解释是另一回事;然而,ICO 的工具包和指导文件强调了向数据主体解释其个人数据将如何以及为何被使用的重要性,解释方式应清晰易懂,便于个人理解。ICO 强调,解释应遵循“问责制”和“透明度”原则。 

到目前为止,还没有关于人工智能系统的“剪切粘贴”解释,可以简单地逐字逐句地插入到隐私政策中。然而,这可能是最好的,因为每个系统可能都不同,但人工智能有几个关键的东西数据控制者需要在其隐私政策中充分尊重数据主体的知情权: 

  • 收集其数据的充分理由
  • 如何使用 
  • 存储位置 
  • 当它不再需要时会发生什么 

数据控制者还必须

围绕他们所处的具体领域、谁将使用人工智能系统以及人工智能系统将在哪个领域运行来做出解释。  

上述列表似乎与任何类型的个人数据处理的隐私政策中应包含的内容没有什么不同,但事实并非如此。我们理解,用外行人能理解的语言解释人工智能/ 机器学 西班牙比特币数据库 习算法的工作原理极具挑战性。尽管如此,解释仍然必须易于理解和阅读;否则,数据控制者将侵犯数据主体的知情权。  

点击此处阅读完整博客文章。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部